Deep Learning im Aktienhandel

Symbolbild zum Artikel. Der Link öffnet das Bild in einer großen Anzeige.

Forscher des Fachbereichs und der FAU zeigen Gewinnpotenzial am Kapitalmarkt durch selbstlernende Computerprogramme

Wissenschaftler am Fachbereich haben in einer Studie gezeigt, dass Computerprogramme, die auf künstlicher Intelligenz basieren, eine sehr profitable Aktienauswahl treffen können. Für den Zeitraum von 1992 bis 2015 simulierten sie den Aktienhandel der 500 größten börsennotierten US-Unternehmen und erzielten durchschnittliche Jahresrenditen im zweistelligen Bereich – wobei die höchsten Gewinne in Krisenzeiten erwirtschaftet worden sind. Die Ergebnisse der Forscher wurden jetzt im renommierten European Journal of Operational Research (EJOR) veröffentlicht.*

Im März 2016 verlor der Südkoreaner Lee Sedol, einer der besten Go-Spieler der Welt, gegen das Computerprogramm AlphaGo. Es war ein Meilenstein in der Geschichte künstlicher Intelligenz – bis dahin galt das asiatische Brettspiel als zu komplex für Computer. Triebfeder für solche Erfolge sind Programme, die nach biologischem Vorbild wie neuronale Netze aufgebaut sind und selbstständig Zusammenhänge aus Millionen von Datenpunkten herstellen. „Künstliche neuronale Netze kommen insbesondere bei Problemen zum Einsatz, deren Lösungen nicht explizit in Regeln gefasst werden können“, erklärt Dr. Christopher Krauss vom Lehrstuhl für Statistik und Ökonometrie der FAU. „Typische Anwendungen sind Text-, Bild- oder Spracherkennung – etwa bei Apples Siri. Aber auch bei der Vorhersage von Wetterereignissen oder wirtschaftlichen Entwicklungen steigt die Bedeutung neuronaler Netze.“

Analyse von Finanzmarktdaten

Das internationale Team um Christopher Krauss, Lehrstuhl für Statistik und Ökonometrie – bestehend aus Xuan Anh Do und Nicolas Huck (ICN Business School, Frankreich) – hat verschiedene Verfahren der künstlichen Intelligenz nun erstmals im großen Stil zu Forschungszwecken bei der Analyse von Kapitalmarktdaten angewandt. „Der Finanzmarkt basiert auf komplexen, oft nichtlinearen Zusammenhängen“, sagt Krauss. „Die etablierten Methoden der Aktienselektion beschreiben jedoch häufig nur einfache Abhängigkeiten, beim Momentum-Effekt beispielsweise die Frage, ob eine Aktie in den vergangenen Monaten gestiegen oder gefallen ist.“ Um herauszufinden, ob maschinelle Lernverfahren im Vergleich zum Gesamtmarkt bessere Renditen erwirtschaften können, haben die Forscher den S&P-500-Index untersucht, der die Aktien der 500 größten börsennotierten US-amerikanischen Unternehmen umfasst. Mit drei der modernsten Methoden – Deep Learning, Gradienten-Boosting und Random Forests – haben sie Prognosen für alle Einzelaktien für jeden Handelstag von 1992 bis 2015 erstellt.

Hohe Renditen durch maschinelles Lernen

Jedes der drei Verfahren wurde auf rund 180 Millionen Datenpunkten trainiert. Dabei extrahieren die Modelle Muster und Strukturen aus den Kapitalmarktdaten, und zwar sehr erfogreich: „Wir erzielen signifikante Renditen von über 30 Prozent pro Jahr seit 2000. Davor sind die Werte sogar noch höher, repräsentieren aber eine Zeit, in der viele maschinelle Lernverfahren noch nicht erfunden waren“, sagt Christopher Krauss. Die Ergebnisse der Wissenschaftler stehen in deutlichem Kontrast zur Markteffizienzhypothese. Insbesondere für Krisenzeiten mit dramatisch einbrechenden Aktienkursen – etwa zur Dotcom-Blase im Jahr 2000 und zur Finanzkrise in den Jahren 2008/2009 – errechnet das Computerprogramm hohe Gewinne im Backtest. Krauss: „In solchen Phasen hoher Volatilität, in denen Gier und Angst dominieren, zeigt sich die Emotionslosigkeit quantitativer Handelsalgorithmen als besonders effektiv.“

Potenzial noch nicht ausgeschöpft

Allzu große Euphorie im Hinblick auf den heiligen Gral der Kapitalmärkte muss Christopher Krauss allerdings bremsen: „In den letzten Jahren des untersuchten Zeitraums sinkt die Profitabilität und wechselt phasenweise sogar ins Negative. Wir vermuten, dass der Rückgang durch den steigenden Einfluss künstlicher Intelligenz im modernen Trading verursacht worden ist – ermöglicht durch zunehmende Rechenleistung und Popularisierung maschineller Lernverfahren.“ Dennoch – da sind sich die Wissenschaftler einig – steht Deep Learning im Aktienhandel gerade erst am Anfang: „Wir arbeiten aktuell an vielversprechenden Folgeprojekten mit ungleich größeren Datenmengen und sehr tiefen Netzarchitekturen, die noch stärker auf die Identifikation temporaler Abhängigkeiten zugeschnitten sind“, sagt Christopher Krauss. „Erste Ergebnisse zeigen bereits jetzt signifikante Verbesserungen der Prognosegüte – auch für die letzten Jahre.“

*doi: dx.doi.org/10.1016/j.ejor.2016.10.031

Die Ergebnisse der Studie wurden unter dem Titel „Deep neural networks, gradient-boosted trees, random forests: Statistical arbitrage on the S&P 500“ im renommierten European Journal of Operational Research veröffentlicht.

Kontakt:

Dr. Christopher Krauss

Lehrstuhl für Statistik und Ökonometrie

Tel.: 0911/5302-278

christopher.krauss@fau.de