Investieren mit KI – neuronale Netze optimal einsetzen

1. März 2024

Mit KI investieren neuronale Netze

Im zweiten Teil unserer Serie zu AI-Investieren untersuchen wir, ob künstliche Intelligenz eine von Warren Buffett inspirierte Anlagestrategie verbessern kann. Zunächst widmen wir uns neuronalen Netzen und zeigen ihr Potenzial und ihre Grenzen bei der Prognose von Aktienkursen auf.

Die Auswahl der richtigen Daten

Nachdem wir im ersten Teil der Serie die Grundlagen des KI-Einsatzes in der Vermögensverwaltung erläutert haben, wollen wir nun die bewertungsgetriebene Quality-Strategie, die Warren Buffett auszeichnet, mithilfe neuronaler Netze verfeinern. Doch zunächst einige Anmerkungen zur Datenauswahl. Bei der Anwendung der langfristigen Strategie auf den europäischen Aktienmarkt  verwenden wir für alle Variablen monatliche Daten. Die Renditevariable umfasst Aktienkurssteigerungen und Dividendengewinne. 

Die  Grundlagen des Modells sind die Faktoren Value und Quality. Es handelt sich also um eine Fundamentalanalyse, technische Faktoren, etwa Preisbewegungen und Markttrends, werden nicht verwendet.

Um den Value-Faktor zu ermitteln, haben wir einen gleichgewichteten Faktor aus drei Kennziffern gebildet: Umsatz zu Preis, Cashflow zu Preis und Forward Earnings Yield.

  1. Umsatz zu Preis (S2P): Dieses Verhältnis gibt den Umsatz an, der für jeden Dollar der Marktkapitalisierung des Unternehmens erzielt wird. Ein hoher Wert deutet darauf hin, dass ein Anleger mehr Umsatz für jeden investierten Dollar erhält, was auf ein möglicherweise unterbewertetes Unternehmen hindeutet. Außerdem sind die Umsatzzahlen im Gegensatz zu den Gewinnen, die schwanken können, in der Regel stabiler und weniger anfällig für buchhalterische Manipulationen. 
  2. Cashflow zu Preis (CF2P): Der Cashflow eines Unternehmens ist ein direkter Hinweis auf seine Fähigkeit, Barmittel aus seiner Geschäftstätigkeit zu generieren, die für Wachstum, Schuldentilgung und Dividenden entscheidend sind. Zur Beurteilung der finanziellen Gesundheit kann ein höheres Verhältnis auf eine hohe Ertragsqualität hindeuten, da es die tatsächlich in das Unternehmen eingebrachten Barmittel und nicht die Buchgewinne widerspiegelt. Daher werden Unternehmen mit einem hohen Cashflow im Verhältnis zu ihrem Aktienkurs oft als unterbewertet angesehen.
  3. Forward Earnings Yield (FEY): Die FEY-Kennzahl ist zukunftsorientiert und steht im Gegensatz zur historischen Perspektive von S2P und CF2P. Es ist wichtig, ein zukunftsorientiertes Element einzubeziehen, da die Aktienkurse die zukünftigen Erwartungen der Anleger an ein Unternehmen beinhalten. Außerdem schätzt die Kennzahl die erwartete Rentabilität eines Unternehmens im Verhältnis zu seinem aktuellen Aktienkurs und enthält einen Vergleich mit der Rendite risikofreier Anleihen. Eine höhere Terminrendite deutet darauf hin, dass eine Aktie unterbewertet sein könnte.

Warum wir uns für diese drei Indikatoren entschieden haben:

S2P liefert eine Momentaufnahme des aktuellen Bewertungsstatus in Bezug auf die Einnahmen, CF2P bewertet die operative Effizienz und finanzielle Robustheit des Unternehmens, und FEY gibt Aufschluss über die Erwartungen des Marktes hinsichtlich der künftigen Rentabilität.

Die Qualität hat drei Dimensionen: Profitabilität, Wachstum und Sicherheit. Dabei sind beide Faktoren gleichgewichtete Produkte aus drei Metriken: Return on Capital (ROC), Gewinnwachstum und Enterprise Value/Debt (EV2D). 

Sie bieten einen umfassenden Überblick über die Qualität eines Unternehmens und erfassen zugleich seine Fähigkeit, nachhaltige Gewinne zu erwirtschaften, verantwortungsbewusst zu wachsen und eine sichere Finanzlage aufrechtzuerhalten – alles Faktoren, die für die langfristige Wertschöpfung entscheidend sind.

Die Standards setzen: Benchmarks

Im Gegensatz zum nach Marktkapitalisierung gewichteten Index ist jede Aktie im STOXX 600 gleich gewichtet, das heißt, sie hat die gleiche Bedeutung im Portfolio. Dieser Ansatz reduziert das Konzentrationsrisiko und gewichtet Nebenwerte deutlich höher als bei einer Gewichtung nach Marktkapitalisierung.

Bei der Value/Quality-Strategie handelt es sich um ein Long-only-Portfolio aus den Aktien im obersten Quartil der jeweiligen Value/Quality-Faktoren. Die Unternehmen im obersten Quartil der Value- und Quality-Strategien sind gleichgewichtet, was bedeutet, dass die Hälfte des Portfolios aus den besten Value-Aktien und die andere Hälfte aus den besten Quality-Aktien besteht.  Beide Portfolios werden monatlich rebalanciert.

Diese Benchmarks ermöglichen einen umfassenden Performancevergleich. Die Value/Quality-Strategie spiegelt aktive Managemententscheidungen auf der Grundlage spezifischer, von Warren Buffett verwendeter Faktoren wider, während die STOXX 600-Strategie einen passiven, marktbreiten Ansatz darstellt. Darüber hinaus vertritt die Value/Quality-Strategie einen traditionelleren, auf Fundamentalanalyse basierenden Ansatz, der sich auf den inneren Wert und die Qualität der Unternehmen konzentriert. Im Gegensatz dazu orientiert sich die Marktstrategie an der modernen Portfoliotheorie und legt den Schwerpunkt auf Marktengagement und Diversifizierung. Durch die Einbeziehung dieser beiden Strategien bietet das Benchmark-Portfolio einen ausgewogenen und umfassenden Rahmen für die Bewertung der Anlageperformance unter verschiedenen Marktbedingungen und Anlagestilen.

Die Abbildung unten zeigt die Performance der Benchmarks und der einzelnen Value- und Quality-Long-Portfolios.

Benchmarks

neuronale Netze -Benchmarks

Das Modell trainieren

Die Suche nach guten Hyperparametern

Neben der Datenqualität, -auswahl und -aufbereitung ist die Abstimmung der Hyperparameter entscheidend für die Modellleistung. Hyperparameter sind Parameter, die vor dem Lernprozess festgelegt werden.

Die beiden am häufigsten verwendeten Methoden für die Abstimmung von Hyperparametern sind das Grid Search und die manuelle Abstimmung nach Bouthillier und Varoquaux. Bei der manuellen Abstimmung wird nach dem besten Modell gesucht, indem die Hyperparameter von Hand geändert und die Ergebnisse ausgewertet werden. Beim Grid Search wird eine Matrix von Hyperparametern getestet, die das beste Modell ergibt, z. B. die höchste Genauigkeit oder den niedrigsten MSE, was rechenintensiv ist.

Wir verwenden Grid Search, um die besten Hyperparameter für jeden Zeitraum zu finden. Die diskretionäre Wahl eines geeigneten Parameterrasters zielt darauf ab, ein Gleichgewicht zwischen der Fähigkeit des Modells zur Generalisierung aus den Daten und der Vermeidung einer Überanpassung herzustellen. Außerdem steigen mit der Vielfalt der Testparameter auch die Rechenkosten. Daher konnten diese komplexeren Modelle nicht auf einem Desktop-Computer ausgeführt werden, sondern mussten in der Google Cloud ausgeführt werden.

Neuronale Netze

Bei neuronalen Netzen müssen die Architektur und die Hyperparameter vom Ersteller des Modells festgelegt werden. Für die Architektur sind die Anzahl der Schichten, die Neuronen in jeder Schicht, die Aktivierungsfunktionen und die Dropout-Raten entscheidend. Wir haben uns für ein minimalistisches Netz entschieden, da wir das Risiko einer Überanpassung verringern wollen. Wir sind mit vier Schichten vorgegangen (eine Eingabe, zwei versteckte Schichten und eine Ausgabe). Nach Durchführung der Gittersuche war die beste Struktur 2 – 4 – 3 – 4, das heißt wir haben zwei Eingabemerkmale: Value- und Qualitätsfaktoren, dann zwei versteckte Schichten mit jeweils vier und drei Neuronen und eine Ausgabeschicht mit vier Neuronen, die die vier Klassen (Rückgabequartile) repräsentieren. Wir haben auch umfassendere Netze mit einer größeren Anzahl von Neuronen pro Schicht oder mehr Schichten analysiert und festgestellt, dass die Performance sehr schnell abnimmt. Wir veranschaulichen dieses Phänomen weiter unten im Text

Was die Aktivierungsfunktionen betrifft, so wird ReLU für die versteckten Schichten verwendet, da sie recheneffizient ist. Sie repliziert den Input unverändert, wenn sie positiv ist; andernfalls gibt sie Null aus und führt Nichtlinearität ein. Wir verwenden die differenzierbare Softmax-Aktivierungsfunktion für die Ausgabeschicht, da wir es mit einem Mehrklassen-Klassifizierungsproblem zu tun haben. Sie wandelt die Ausgangslogits (Rohprognosen) des Netzes in Wahrscheinlichkeiten um, die sich zu 1 summieren.

Die Lernrate, die Stapelgröße und die Epochen

Die Lernrate, die Stapelgröße und die Epochen sind für die Abstimmung der Hyperparameter relevant. Die Lernrate steuert, wie stark das Modell als Reaktion auf den geschätzten Fehler bei jeder Aktualisierung der Modellgewichte während des Trainings geändert werden soll. Eine kleinere Rate erfordert mehr Training, kann aber zu einem optimaleren Satz von Gewichten konvergieren, während eine größere Rate schneller konvergiert, aber möglicherweise über die optimale Lösung hinausschießt. Wir haben die Standard-Lernrate für den Adam-Optimierer in Keras verwendet: 0,001 für die Lernrate.

Die Batch Size bezieht sich auf die Anzahl der Trainingsquantum, die in einer Iteration des Trainingsprozesses verwendet werden. Die von der Grid Search angezeigte „optimale“ Batchsize ist 16.

Epochen schließlich sind die Anzahl der Wiederholungen, die der gesamte Trainingsdatensatz dem Lernalgorithmus vorgelegt wird. Je mehr Epochen, desto mehr Möglichkeiten hat das Netz, zu lernen und seine Gewichte anzupassen, aber desto mehr Epochen können auch zu einer Überanpassung führen. Die Ergebnisse der Netzsuche zeigen, dass die „optimale“ Anzahl von Epochen 15 beträgt.

Die Batch Size und die Anzahl der Epochen sind relativ gering, was sich dadurch erklären lässt, dass nur zwei Eingangsmerkmale verwendet werden und der Algorithmus nicht mehr Iterationen benötigt, um aus den Daten zu lernen, ohne sich zu sehr anzupassen. Zudem ist unser Prozess darauf ausgerichtet durch die Reduktion der Modellkomplexität und Regulierungsverfahren, wie das Dropout (ausgewählte Neuronen werden beim Training ignoriert) und die Gewichtsregulierung (Hinzufügen von Penalities für die Gewichte des Netzes, um zu verhindern, dass sie zu groß werden) das Overfitting zu beschränken.

Testen des Modells anhand der Vergangenheit: Backtesting

Das Backtesting umfasst vier wesentliche Aspekte: die Anlagestrategie, den Zeitraum, die Auswahl des Investitionsuniversums und die Menge der berücksichtigten Variablen. Die Abbildung unten zeigt die kumulierten Renditen der beiden Benchmarks und die des neuronalen Netzwerks. Das Modell übertrifft deutlich die Leistung der gleichgewichteten Marktbenchmark (grün dargestellt) und steht in engem Wettbewerb mit der Long-only, gleichgewichteten Value-Quality-Benchmark (blau dargestellt). Eine detaillierte Analyse der Performance- und Risikokennzahlen, die mit diesen Renditen verbunden sind, findet sich in Tabelle unter der Performance-Grafik.

Backtest Neural Network vs Benchmarks

neuronale Netze - Backtesting

Die in der Grafik bereits gezeigte Outperformance der Strategie auf Basis des neuronalen Netzwerks wurde mit einer höheren Volatilität als die gleichgewichtete Benchmark erzielt. Gegenüber der Warren-Buffett-Benchmark ist die Standardabweichung niedriger. Das führt zu einer attraktiven Sharpe Ratio.

Die Fallstricke einer falschen Anwendung von KI-Tools

Um mit KI-Strategien auf den Finanzmärkten erfolgreich zu sein, gilt es, die Fallstricke einer falschen Anwendung von KI-Tools zu vermeiden. Datenwissenschaftler könnten bei mangelnder Erfahrung auf Modellierungstechniken ohne eine solide theoretische Grundlage zurückgreifen und sich darauf verlassen, dass KI die intelligente Leistung übernimmt, was dazu führen kann, dass Projekte von Grund auf neu gestartet werden müssen. Außerdem gehen sowohl Datenwissenschaftler als auch Modellanwender oft mit großem Enthusiasmus an die KI heran, sind sich aber ihrer Grenzen nicht bewusst, was zu häufigen Enttäuschungen führt.

Der Satz „alle Modelle sind falsch, aber einige sind nützlich“ wird dem einflussreichen britischen Statistiker George E. P. Box zugeschrieben. Er machte diese Aussage, um die Grenzen statistischer Modelle zu betonen. Kein statistisches Modell kann die Komplexität der realen Welt perfekt abbilden. Modelle liefern wertvolle Erkenntnisse und können bei der Entscheidungsfindung nützlich sein. Diese Einschränkung gilt überall, wo diese Modelle angewendet werden: Technik, Wirtschaft und Umweltwissenschaften.

Neuronal Netze: Das Universal Approximation Theorem 

Eine Stärke der neuronalen Netze erweist sich als nachteilig in der Finanzmarktanalye: das Universal Approximation Theorem. Dieses Theorem besagt, dass ein Feedforward-Netzwerk mit einer einzigen versteckten Schicht, die eine endliche Anzahl von Neuronen enthält, jede kontinuierliche Funktion mit einem gewünschten Genauigkeitsgrad approximieren kann, wenn geeignete Aktivierungsfunktionen gegeben sind. Dies bedeutet, dass neuronale Netze theoretisch komplexe Muster und Beziehungen in Daten modellieren können, indem sie Eingaben auf Ausgaben abbilden. Wenn wir die Komplexität eines neuronalen Netzes durch Hinzufügen weiterer Schichten (wodurch es tiefer wird) oder weiterer Knoten innerhalb dieser Schichten (wodurch es breiter wird) erhöhen, verbessert sich seine Fähigkeit, komplizierte Funktionen zu modellieren und feinere Nuancen in den Daten zu erfassen.

Allerdings muss diese Komplexität ausbalanciert werden. Zu komplexe Netzwerke können zu einer Überanpassung (overfitting) führen, bei der das Modell das Rauschen (Noise) in den Trainingsdaten statt des zugrunde liegenden Musters lernt, wodurch seine Fähigkeit zur Verallgemeinerung bei anderen Datensätzen beeinträchtigt wird. Im Grunde genommen können neuronale Netze mit einem durchdachten Design und einer ausreichenden Datenmenge so entwickelt werden, dass sie praktisch jede Funktion genau annähern und so ein leistungsfähiges Werkzeug für eine breite Palette von maschinellen Lernaufgaben darstellen.

Um diese Gefahr zu illustrieren, wenden wir unseren KI-Investitionsansatz mit einem aufwändigeren Modell an (siehe unten), das zu einer starken Überanpassung unserer Investitionsstrategie führt. Wir erhöhen die Anzahl der Neuronen in den versteckten Schichten auf 10 in jeder Schicht.

neuronale Netze Schichten

Neural Network Overfitting Risk

neuronales Netzwerk Overfitting Risk

Obwohl das Modell anfangs wertsteigernd scheint, nimmt sein Nutzen im Laufe der Zeit rasch ab und führt schließlich zu einer Underperformance gegenüber beiden Benchmarks. Eine zusätzliche Komplexität des Modells würde diesen Leistungsabfall nur noch verstärken.

Es ist wichtig, die Grenzen von Finanzmodellen zu verstehen. Dies zeigt sich bei der Verwendung von großen Sprachmodellen wie ChatGPT, die für bestimmte Funktionen konzipiert sind. Sie erhalten häufig Anfragen, die ihren Rahmen sprengen, was zu Antworten führt, die kontraintuitiv erscheinen mögen. Ein Modell, das auf allgemeine Daten trainiert wurde, kann zum Beispiel nicht angemessen auf juristische Anfragen reagieren. Umgekehrt ist ein Modell, das auf juristische Dokumente trainiert wurde, gut gerüstet, um juristische Fragen zu beantworten. Der sinnvolle Einsatz von KI-Modellen erfordert ein klares Verständnis der Grenzen dieser Modelle.

Vorhersage von Aktienrenditen

Im Bereich der Vorhersage von Aktienrenditen sind wir der Meinung, dass die Integration von KI-Technologien in eine Anlagestrategie eine solide wirtschaftliche Grundlage sowie KI-Tools erfordert, die eine Überanpassung des Modells verhindern können. Beim Digital Leaders Fund setzen wir KI- und Data-Science-Tools in erster Linie ein, um eine Vielzahl von Unternehmen zu sichten, die von der Digitalisierung profitieren, und so den Pool für eine eingehende fundamentale und unternehmensspezifische Analyse einzugrenzen.

Es gibt immer wieder kühne Behauptungen, dass KI Anlagestrategien grundlegend verändern und außergewöhnliche Renditen ermöglichen werden. Der Kritiker Bernd Scherer hat in seinem viel beachteten Beitrag für den TheDLF-Blog bereits erläutert, warum es höchst unwahrscheinlich ist, dass KI-Tools als unabhängige Variable erfolgreich investieren können. In unserer Praxisuntersuchung haben wir erläutert, dass KI in Gestalt neuronaler Netzwerke als Tools einen Mehrwert liefern können. Voraussetzung ist allerdings, dass Anwender nicht nur die Möglichkeiten von KI-Systemen nutzen können, sondern auch ihre Begrenzungen kennen müssen. Im nächsten Teil unserer Serie widmen wir uns der Anwendung von Classification und Regression Trees und Penalised Regressions zur Prognose des europäischen Aktienmarktes.

Abonniere hier unseren kostenfreien Newsletter

Disclaimer

Die vorstehenden Darstellungen der Pyfore Capital GmbH stellen rechtlich eine Werbemitteilung dar und dienen ausschließlich Informationszwecken. Sie stellen insbesondere weder ein Angebot oder eine Aufforderung zur Abgabe eines Angebotes noch einen Rat oder eine persönliche Empfehlung bezüglich des Haltens, des Erwerbs oder der Veräußerung eines Finanzinstruments dar. Die Pyfore Capital GmbH empfiehlt, sich vor Abschluss eines Geschäftes kunden- und produktgerecht und unter Berücksichtigung Ihrer persönlichen Vermögens- und Anlagesituation beraten zu lassen und Ihre Anlageentscheidung nicht allein auf diese Veröffentlichung zu stützen. Es wird empfohlen, sich von Angehörigen der steuerberatenden Berufe über die individuellen steuerlichen Folgen des Erwerbs, des Haltens oder der Veräußerung des in dieser Unterlage beschriebenen Finanzinstrumentes beraten zu lassen.
Bitte beachte die
rechtlichen Hinweise.

Links zu Texten, die von einem Dritten erstellt wurden, dienen lediglich unverbindlichen Informationszwecken.

Autor

  • Stefan Hartmann

    Stefan schaut auf eine mehr als 20-jährige Erfahrung in den Bereichen Aktien, festverzinsliche Wertpapiere, Derivate und Hedge Funds zurück. In seiner Tätigkeit als globaler Leiter des Quantitativen Research Teams bei ABN AMRO, hat er über 300 institutionelle Kunden in den USA, Europa und Asien zu allen Fragen des Investment Prozesses beraten. Zuvor war er 10 Jahre bei Salomon Smith Barney als Leiter des quantitativen Research Teams für Europa tätig, wo er Top Rankings in den großen Research Surveys erzielte. Stefan hat über 50 Research Veröffentlichungen zu allen Aspekten des Investment Prozesses in Aktien, festverzinsliche Wertpapiere und Währungen publiziert.

Picture of Stefan Hartmann

Stefan Hartmann

Stefan schaut auf eine mehr als 20-jährige Erfahrung in den Bereichen Aktien, festverzinsliche Wertpapiere, Derivate und Hedge Funds zurück. In seiner Tätigkeit als globaler Leiter des Quantitativen Research Teams bei ABN AMRO, hat er über 300 institutionelle Kunden in den USA, Europa und Asien zu allen Fragen des Investment Prozesses beraten. Zuvor war er 10 Jahre bei Salomon Smith Barney als Leiter des quantitativen Research Teams für Europa tätig, wo er Top Rankings in den großen Research Surveys erzielte. Stefan hat über 50 Research Veröffentlichungen zu allen Aspekten des Investment Prozesses in Aktien, festverzinsliche Wertpapiere und Währungen publiziert.

Aktuelle Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Neueste Beiträge

Tags

Neuste Kommentare

Twitter

Instagram