Viele Portfoliomanager versuchen sich an der Entwicklung von Investmentstrategien, die sich auf Techniken wie künstliche Intelligenz (KI) und maschinelles Lernen stützen, um ihre Investment-Performance zu steigern. Erfolg haben die „Quants“, die andere Wege gehen als alle anderen – ob Menschen oder Maschinen.

Harish Sundaresh

VP, Portfoliomanager und Director of Systematic Investing Strategies
Loomis, Sayles & Company
Ich habe meine Karriere in der Finanzdienstleistungsbranche während der globalen Finanzkrise begonnen. Das hat mich zweifellos stark beeinflusst.

Wie kamen Sie zu quantitativen Investments?

Mein kompletter Hintergrund ist quantitativ. 2007 schloss ich mein Studium am MIT [Massachusetts Institute of Technology] mit einem Master in angewandter Mathematik ab und hatte mich in erster Linie mit fortschrittlicher Optimierung, numerischen Verfahren, maschinellem Lernen und Supercomputing-Technologien befasst. Ich war schon als Kind von Mathe begeistert, weshalb ich von meinem in Indien aufgenommenen Ingenieursstudium ganz auf Mathematik umsattelte.

Als ich ans MIT kam, hatte ich gar keine Finanzerfahrung. Ich hätte nie gedacht, dass ich mal in die Finanzbranche gehen würde. Vor meinem Eintritt bei Loomis Sayles verbrachte ich meine prägenden Jahre überwiegend bei globalen Buy-Side-Makro-Hedgefonds. Mein Investmentansatz ist daher im Grunde eine Verquickung dessen, was ich von manchen der besten Quants der Branche gelernt habe.

Ihr erster Abstecher in die Finanzdienstleistungsbranche führte Sie nach dem MIT 2007 in die Hypothekenhandelsabteilung einer globalen Investmentbank. Was war das für eine Erfahrung?

Ganz ehrlich? In einem Wort: „Niederschmetternd.“ Ich fing dort im Sommer 2007 nach einem Trading-Praktikum an, das mir viel Spaß gemacht hatte. Damals waren wir im Hypothekenhandel rund 400 Trader.

Da ich keine richtige Finanzausbildung hatte, schickte mich die Bank von New York nach Stamford, wo ich mir zwei Monate lang alle Grundlagen aneignen sollte. Als ich wiederkam, waren von den 400 Tradern noch rund 60 übrig. Entsprechend gedrückt war die Stimmung.

Durch den Personalabbau wuchs mein Aufgabenbereich erheblich. In den nächsten neun Monaten lernte ich dort ein paar wichtige Dinge über das mit Extremereignissen verbundene Risiko – und dass der Schutz vor Verlusten wichtiger ist als ein paar Basispunkte Gewinnpotenzial.

Außerdem erfuhr ich, wie man Verteilungen als „abnorm“ modellierte, was in der Regel zunächst vermieden wird, weil sie sich dann schwerer pauschalisieren lassen, und auch, weil die meisten Algorithmen für Normalverteilungen geschrieben werden. Obwohl das emotional eine harte Zeit war, wirkte sich allein schon meine Anwesenheit in New York während der globalen Finanzkrise stark darauf aus, wie ich über den Schutz vor Abwärtsrisiken denke.

Wie entwickelte sich Ihre Karriere weiter?

Nun, glücklicherweise hatte ich ebenso kluge wie unterschiedliche Mentoren, von einem früheren Wharton-Professor und ehemaligen Chief Risk Officer bei Goldman Sachs bis zu einem Doktor der Nuklearphysik und Ex-CIO für Enterprise Risk Management bei AIG. Sie brachten mir die Grundlagen der Vermögensallokation bei – und auch, wie man datenorientierte Strategien angeht. Angesichts der Folgeerscheinungen der globalen Finanzkrise drehten sich viele der Gespräche am Anfang meiner beruflichen Laufbahn darum, wie man die höchsten risikobereinigten Erträge herausholt und dabei das linke Ende dieser Verteilungen im Blick behält – was ich im Zuge des berüchtigten „Schwarzer Schwan“-Ereignisses aus erster Hand erfuhr.

2011 wurde mir angeboten, bei Loomis Sayles den Ausbau der quantitativen Strategien für Rohstoffe, Devisen und Zinsen zu leiten. Das Team, dem ich beitrat, brachte ein breites Spektrum fundamentaler und quantitativer Vorkenntnisse mit. Mein Chef und Teamleiter Kevin [Kearns] wies – und weist – uns immer wieder darauf hin, dass es nicht darauf ankommt, wie wir Alpha generieren, solange wir uns auf Kapitalerhalt und Steuerung der Verlustrisiken fokussieren.

In den ersten Jahren bei Loomis Sayles verwaltete ich Hedgefonds-Portfolios aus den Segmenten Rohstoffe und Global Macro und unterstützte einen Long-Short-Fonds für Unternehmensanleihen. Vor vier Jahren dann sprachen mich CIO Jae Park, der stellvertretende CIO David Waldman und Kevin auf faktorgestützte Investments an, die sich damals im Aktiensektor etablierten, im Rentensektor aber nicht. Sie baten mich, ein Team zusammenzustellen und eine auf systematische und alternative Risikoprämien ausgerichtete Multi-Asset-Einheit aufzubauen.

Es ist bestimmt nicht einfach, ein Team für quantitative Investments aus dem Boden zu stampfen. Wie haben Sie das gemacht?

Ich halte große Stücke auf Vielfalt und bin daher sehr stolz auf das Team, das ich zusammengestellt habe und dem nur kluge, kreative Problemlöser angehören. Ich werbe gern Leute an, deren Ausbildung und Finanzmarkterfahrung sich möglichst wenig überschneiden. Genauso gehen wir vor, wenn wir versuchen, Strategien zu entwickeln, die nicht miteinander korrelieren. Gemeinsam haben wir ein wirklich einzigartiges Geschäftsfeld aufgezogen.

Die Kultur unseres Teams und unsere Zusammenarbeit spiegeln wider, wie mein Professor Alan Edelman am MIT unsere Forschungstreffen leitete. Sein Fokus lag einzig und allein auf Innovation. Dienstalter oder Hierarchie spielten im Team überhaupt keine Rolle. Alle meine Kollegen haben tolle Ideen – ganz besonders diejenigen ohne viel Erfahrung aus der Finanzbranche. Solche Leute finden oft die kreativsten Lösungen für Probleme.

Wir haben Koushik Balasubramanian, einen theoretischen Physiker, der ganz in Marktphasen denkt und zur Lösung von Problemen astrophysikalische Konzepte heranzieht. Chetan Shinde hat Werkstofftechnik studiert und zuvor viel über DNA und Proteinfaltung geforscht. Dann ist da noch Diqing Wu, eine Art menschlicher Supercomputer. Durch diese Vielfalt des Denkens konnten wir Produkte und Strategie entwickeln, die sich auf dem Markt klar abheben.

Können Sie durch Ihren Hintergrund tatsächlich bessere Modelle entwickeln?

Die Tatsache, dass wir alle technische oder wissenschaftliche Ausbildungen haben, dürfte bei der Erstellung mathematischer Modelle einen großen Unterschied machen. Unser erster Gedanke beim Aufbau eines Modells ist, wie wir dabei für eine angemessene Integrität und Belastbarkeit sorgen.

Uns geht es im Grunde nicht darum, Strategien hervorzubringen, die ganz gezielt darauf ausgerichtet sind, im Rückvergleich bei der Sharpe Ratio Werte von 2 oder 3 zu erreichen. Unser Fokus liegt stattdessen auf der Entwicklung robuster Strategien, die sich im wirklichen Leben verhalten wie in unseren Simulationen. Sie müssen sich das so vorstellen: Baut ein Ingenieur einen Wolkenkratzer und macht auch nur einen kleinen Rechenfehler, könnte das verheerende Folgen haben. Genau so betrachten wir unsere Modelle.

Unsere Strategien lassen sich am besten als „quantamental“ bezeichnen. Wir führen Fundamentaldaten mit unseren quantitativen Methoden zusammen. Kevin ist fest davon überzeugt, dass 70 % des Alphas auf die Ermittlung von Top-down-Faktoren zurückgehen. Im Grunde ziehen wir daher die Wahrscheinlichkeiten einer Krise heran, um Alpha und Beta zu prognostizieren. Maschinelles Lernen und Konzepte aus verschiedenen technischen Fachgebieten ermöglichen uns, dabei Integrität zu wahren.

Wie haben Sie die Entwicklung von KI und Methoden des maschinellen Lernens im Zeitverlauf erlebt?

Nun, die Menge der verfügbaren alternativen Daten hat die Finanzwelt verändert. Wir wissen, dass der menschliche Verstand nur drei Dimensionen erfassen kann. Über diese hinaus werden Informationen unverständlich.

Wissen Sie noch, wie man vor zehn Jahren versuchte, die Ölpreise zu prognostizieren? Man stützte sich dabei auf drei Faktoren und ging recht primitiv vor. Heute müssen wir in Bezug auf die Ölpreise fast 100.000 Datenpunkte berücksichtigen. Ohne quantitative Werkzeuge wie maschinelles Lernen und KI geht das gar nicht, und diese werden immer brauchbarer.

Es ist richtig, dass manche – vielleicht sogar die meisten – aus den 100.000 Datenpunkten bezogenen Erkenntnisse vermutlich nutzlos sind. Doch das weiß man erst, wenn man sie gründlich getestet hat. Und auch wenn Sie nur 100 relevante Datensätze aus 100.000 ermitteln, könnte das die Investmentbranche revolutionieren.

Die Mitglieder meines Teams setzen in allen Facetten des Investmentgeschäfts stark auf maschinelles Lernen. Sie nutzen es von der Bestimmung der Marktphase bis zur Alphagenerierung. Wir setzen für die meisten Anlageklassen auch Robotik zur Produktionsautomation ein und bedienen uns häufig der Verarbeitung natürlicher Sprache und der Sentimentanalyse.

Wie schwer ist es, gegenläufige Algorithmen oder differenzierte Strategien zu entwickeln?

Ein Algorithmus, der zur Automation alltäglicher menschlicher Aufgaben erfunden wurde, ist dafür nicht geeignet. Denken Sie nur an den Staubsaugerroboter Roomba. Der weiß genau, was er tun soll, und zwar immer wieder – ohne dass er seinen Betrieb an eine unvorhergesehene Änderung der Marktphase anpassen muss. Bei Finanzdaten ändert sich die Marktphase jede Woche. Ein Beispiel ist das Coronavirus. Das veränderte die Marktphase von einem Moment auf den anderen komplett. Finanzdaten sind überwiegend dynamisch. Die Anwendung strukturierter Algorithmen auf solche Datensätze verhilft Anlegern nicht zu einschlägigen Erkenntnissen oder Ansichten.

Worauf wir vertrauen und was wir in den letzten Jahren getan haben, ist, den Algorithmus selbst neu zu erfinden. Dafür brauchen Sie theoretisches Wissen über die Verlustfunktionen, darüber, wie der Algorithmus funktioniert und über die benötigten Optimierer, um Ergebnisse zu erzielen. Und dieser Ansatz ermöglicht es uns tatsächlich, die Dinge anders anzugehen.

Warum ist die Neuerfindung von Algorithmen eine Voraussetzung für eine erfolgreiche quantitative Strategie?

In zehn Jahren werden Roboter andere Roboter bauen. Früher oder später werden die Menschen beiseite treten, weil die Roboter bessere Roboter bauen können als sie selbst. Dann werden Maschinen eingangs dieselben Algorithmen und Datensätze verwenden, die zu ähnlichen Ergebnissen führen werden, weil die Maschinen voneinander lernen. Das wird zum übermäßigen Einsatz von Algorithmen führen, was wiederum manche der derzeit erkennbaren Alphachancen zunichtemacht.

Ich bezeichne Alpha keinesfalls als nutzlos, doch wenn Algorithmen zu häufig eingesetzt werden, sollten sich Anleger für Alphachancen interessieren, die dem Konsens zuwiderlaufen. Aus diesem Grund versuchen wir, Hunderttausende von Alphas zu entwickeln und maschinelles Lernen und KI einzusetzen, um im Grunde die Alphas herauszupicken, die in der jeweiligen Marktphase funktionieren. So lassen sich sämtliche Ergebnisse unseres Erachtens besser nutzen. Wir verwerfen dabei kein Alpha. Vielmehr hoffen wir, dass der Algorithmus in der Lage ist, für die jeweilige Marktphase das richtige Ende der Verteilung zu finden.

Wenn alle Quants dieselben Datensätze heranziehen, wächst dadurch das Risiko eines Flash-Crash oder besonders heftiger Marktbewegungen?

Auf jeden Fall. Schaut man sich an, wie so ein Hochfrequenzhändler arbeitet, dann sind seine Algorithmen so ausgelegt, dass sie abschalten, wenn keine Umsätze da sind oder diese eine bestimmte Schwelle unterschreiten. Passiert das, können die Preise in kürzester Zeit heftig nach oben oder unten ausschlagen. Und dazu kommt es ab und zu. Vielleicht einmal alle zehn Jahre.

Doch die allermeiste Zeit über sorgen solche Algorithmen für den Hochfrequenzhandel dafür, dass der Markt liquide bleibt. Statt einen Basispunkt für eine einzelne Aktie auszugeben, müssen Sie aufgrund der bereitgestellten Liquidität daher viel weniger investieren.

Sind Ausführungsgeschwindigkeit und Handelskosten für systematische Investments von Bedeutung?

Die Handelskosten sind ein äußerst wichtiger Gesichtspunkt – für systematische ebenso wie für fundamentale Strategien. Viele der Hochfrequenzfirmen versuchen, Muster abzugreifen, die sie auf der Gegenseite jeder Transaktion erkennen. Und je reger der Umsatz, bei dem Sie im Grunde Ihre auf höhere Sharpe-Ratios ausgerichteten Strategien einsetzen können, desto höher auch die Transaktionskosten.

Worauf es ankommt, sind Technologie und Infrastruktur. Aspekte wie Colocation, also räumliche Nähe zwischen Servern und manchen Börsen, gewinnen stark an Bedeutung.

Abgesehen davon sind die Ressourcen jedes Unternehmens begrenzt, und es muss sich entscheiden, worauf es setzen will. Der Handel ist extrem kostspielig, weshalb viele Firmen einen Teil ihrer Handelsgeschäfte auf Algorithmen oder an Investmentbanken auslagern.

Welchen Rat würden Sie Absolventen der Fächer Mathematik, Informatik, Naturwissenschaft und Technik (MINT) geben, die an eine Karriere im Finanzdienstleistungsbereich denken?

Bevor ich ans MIT kam, gab es für mich nur zwei potenzielle Arbeitgeber – die CIA, wo ich als Datenwissenschaftler Spitzentechnologien entwickeln wollte, um Verbrechen aufzuklären, oder die NASA.

Doch später merkte ich, dass im Finanzwesen nichts linear ist und dass die Probleme, die die Finanzbranche lösen muss, in Wirklichkeit hochkomplex sind – oft einfach deshalb, weil die Daten rauschen und die Zeit drängt.

Bei meinen ersten Gehversuchen als Anleger habe ich, soweit ich mich erinnere, fast alles verloren. Doch aus Verlusten kann man viel darüber lernen, wie man bessere Portfolios aufbaut.

Ich lernte, die maßgeblichen zugrunde liegenden Komponenten der Vermögensallokation zu beurteilen und begriff, dass auch mal alle Korrelationen gegen eins tendieren können, und welche Rolle verschiedene Marktphasen spielen. Diese Erfahrungen haben aus mir den Investor gemacht, der ich heute bin.

Wenn wir Strategien entwickeln, dann stets mit dem Hintergedanken, unseren Kunden in jeder Marktlage Sicherheit zu bieten – sogar im Falle einer neuen globalen Finanzkrise.

Dass meine Laufbahn in der Finanzdienstleistungsindustrie während der globalen Finanzkrise begonnen hat, hat zweifellos stark beeinflusst, wer ich heute bin, wie ich mein Team zusammengestellt und wie ich zur Entwicklung quantitativer Strategien bei Loomis Sayles beigetragen habe.