„Auch ein Portfolio ohne KI birgt immer ein Risiko“

Investmentfonds von Heike Gorres

Die BaFin hat Mindestanforderungen für den Einsatz von künstlicher Intelligenz in der Finanzbranche vorgelegt. Hendrik Leber, Portfoliomanager und Anwender dieser Technologie, über die Unterschiede zwischen KI zu klassischen Algorithmen und was er als BaFin von der Investmentbranche verlangen würde.

Hendrik Leber, Bild: Acatis

Hendrik Leber ist Gründer der Acatis Investment KVG mbH in Frankfurt am Main, bei der er als geschäftsführender Gesellschafter und Portfoliomanager tätig ist. Leber zählt zu den Pionieren bei der Entwicklung und Nutzung von künstlicher Intelligenz, kurz AI, in der Kapitalverwaltung. Bild: Acatis

procontra: Die Bundesanstalt für Finanzdienstleistungsaufsicht BaFin hat das Papier: „Big Data und künstliche Intelligenz: Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen“ veröffentlicht. Die Prinzipien sollen zu einem „verantwortungsvollen Einsatz von Big Data und künstlicher Intelligenz führen“ und die „Kontrolle des damit einhergehenden Risikos ermöglichen“. Sie selbst bieten Investmentfonds an, bei denen künstliche Intelligenz zum Einsatz kommt. Geht das Papier aus Ihrer Sicht in die richtige Richtung?

Hendrik Leber: Mir ist der Zweck des Papers leider nicht ganz klar geworden. Wenn es allein hieße: „Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen von Finanzdienstleistungsunternehmen“ wäre es ein guter Titel. Denn es geht nahezu ausschließlich um Algorithmen. Mit Big Data und künstlicher Intelligenz hat die Veröffentlichung jedoch nichts zu tun. Auch die Anwendungsgebiete werden leider nicht ganz klar.

procontra: Unter Algorithmen versteht die BaFin „Handlungsvorschriften, die in der Regel in ein Computerprogramm integriert sind und ein (Optimierungs-)Problem oder eine Klasse von Problemen lösen“. Trifft diese Definition?

Leber: Ich vermute, die meisten wissen nicht genau, was ein Algorithmus ist. Wenn ich sage: „Frauen bekommen einen anderen Tarif bei der Kraftfahrzeugversicherung als Männer“, dann ist das ein Algorithmus. Denn damit bin ich bereits in der Diskriminierung, also in der Unterscheidung – und zwar absichtlich. Der Zweck von Entscheidungsfindung ist, zu diskriminieren. Und ein Algorithmus soll diskriminieren, das ist seine Aufgabe. Jeder Fondsmanager, der sagt: „Ich kaufe nur Aktien mit einem Kurs-Gewinn-Verhältnis von unter zehn“ hat einen Algorithmus im Einsatz. Das ist eine Entscheidungsregel, die er aufgesetzt hat. Diese Algorithmen werden von dem Paper aber leider nicht abgedeckt. Solche Algorithmen werden von der BaFin bislang ebensowenig hinterfragt und überprüft wie die komplexeren Algorithmen.

procontra: Was könnte die BaFin also tun aus Ihrer Sicht?

Leber: Es wäre notwendig, die Definition für Algorithmus erst einmal sehr breit zu fassen. Man würde außerdem fordern, dass die Prozesse auf Basis von Algorithmen dokumentiert und gespeichert werden sollen und dass das Modell, das tatsächlich eingesetzt wird, an einer Stelle hinterlegt sein soll. Zudem müsste das Modell nach bestimmten Standardkriterien getestet, verifiziert und regelmäßig überprüft werden und dem Revisor offenstehen. Es gibt Fondsanbieter mit den ausgefeiltesten Portfoliosystemen, bei denen die Manager an zig Algorithmen tüfteln. Die Modelle enthalten, stark vereinfacht ausgedrückt, Punkte wie: Dividendenrendite gestiegen, Volatilität gefallen, Marktkapitalisierung gestiegen und so weiter. Das ist keine künstliche Intelligenz, aber ohne gründliches Testen genauso gefährlich. Mit den eben beschriebenen Prüfstufen würde man aufsichtstechnisch aber bereits eine Menge erreichen.

Seite 1: Algorithmen in Finanzunternehmen: Wie bewerten Sie die Aufsichtsprinzipien der Bafin?
Seite 2: Wie seiht es im Bereich künstliche Intelligenz aus?
Seite 3: Welche zusätzlichen Aufsichtsmaßnahmen sind künftig zu erwarten?