Optimiere den Buffett in Dir – besser investieren mit KI

21. Februar 2024

Besser Investieren mit KI

Alle reden von KI, auch in der Anlegerwelt. In einer Serie bringen wir Investoren die grundlegenden Konzepte von KI und ihre Anwendungen nah. Dabei zeigen wir, wie man besser investieren kann mit KI, gehen aber auch auf die Risiken einer falschen Anwendung ein. Teil I: Eine Einführung.

Bevor wir aufzeigen, wie Anleger durch den Einsatz von KI besser investieren können, beginnen wir mit einer grundlegenden Einführung in die KI, in der wir das Konzept und seine Entwicklung im Laufe der Jahre vorstellen. Während wir die Geschichte der KI enträtseln, werden wir erkennen, wie weit wir von den theoretischen Grundlagen bis zu den hochentwickelten Algorithmen gekommen sind, die die heutigen Innovationen vorantreiben. Wir steigen im ersten Teil unserer Serie tief in die Materie ein und stellen drei Arten von KI und ihre Anwendungen vor: neuronale Netze, Entscheidungsbäume und Penalised-Regressions – Kerntechnologien, die es der KI ermöglichen, große Datensätze zu analysieren und Vorhersagen zu treffen. Wir kombinieren dies mit einer kritischen Bewertung, wie sie Investitionsansätze verbessern können, zeigen aber auch schwerwiegende Investitionsrisiken auf, wenn sie nicht richtig angewendet werden.

Künstliche Intelligenz verstehen

Bevor wir künstliche Intelligenz definieren, gehen wir auf das Konzept „Intelligenz“ ein. Nach dem Cambridge Dictionary ist Intelligenz die „Fähigkeit, zu lernen, zu verstehen und auf logische Weise über Dinge nachzudenken“. Wir Menschen sind stolz darauf, Intelligenz zu besitzen, denn sie unterscheidet uns von instinktgesteuerten Wesen wie Hunden. Im Alltag fallen uns sechs Fähigkeiten ein: Sprache, Wissensaneignung, logisches Denken, Lernfähigkeit, koordinierte Bewegung (Robotik) und Wahrnehmung. Wir sind sogar so weit gegangen, uns nach der Intelligenz zu benennen: „Homo sapiens“ bedeutet „der weise Mensch“.

Die künstliche Intelligenz ist kein völlig neues Gebiet, und viele ihrer grundlegenden Bausteine stammen aus Jahrtausende altem Wissen, wie z. B. dem deduktiven Denken von Sokrates oder der Bayesschen Wahrscheinlichkeitsrechnung.

Künstliche Intelligenz (KI) wird dagegen als die Entwicklung von Computersystemen definiert, die intellektuelle Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern. Es gibt vier Dimensionen der KI, die Stuart Russell und Peter Norvig in ihrem Standardwerk „Artificial Intelligence: A Modern Approach“ beschreiben: Sie umfassen die Fähigkeit eines Systems, menschliches Verhalten nachzuahmen (menschliches Handeln), optimale Entscheidungen zu treffen (rationales Handeln), menschliche Denkprozesse zu replizieren (menschliches Denken) und auf der Grundlage formaler Prinzipien logisch zu denken (rationales Denken).

In der Vergangenheit gab es viele Höhen und Tiefen bei der Weiterentwicklung von KI. Der erste KI-Frühling (1943-1956) begann mit der Definition von KI, die wir heute kennen. In dieser Zeit rechneten das renommierte Dartmouth-Projekt und seine zehn Teilnehmer damit, „innerhalb eines einzigen Sommers einen bedeutenden Fortschritt zu erzielen“. Dieser Sommer hat sich in einen wesentlich längeren Zeitraum verwandelt. Als die Mittel versiegten, folgte der erste KI-Winter, der von einer Welle des Fortschritts durchbrochen wurde, die als zweiter KI-Frühling (1952-1969) bekannt wurde.

Im Mittelpunkt standen dabei regelbasierte Programme, sogenannte Expertensysteme. Leider war der zweite KI-Winter unvermeidlich, da die Popularität von IBM- und Apple-Desktops diese Systeme in den Schatten stellte. Es folgte ein dritter KI-Frühling (1993-2011), als viele Forscher den generalistischen Traum von der Entwicklung einer „menschlichen“ KI aufgaben und sich stattdessen auf spezifische Teilbereiche konzentrierten, die auf die Lösung konkreterer Probleme ausgerichtet waren. Darüber hinaus verlagerte sich das Interesse von logikbasierten Systemen, d. h. Expertensystemen, auf eher daten- und statistikbasierte Systeme wie neuronale Netze und genetische Algorithmen. Die Zeit, in der wir derzeit leben (2011 bis heute), ist das Zeitalter von Big Data, Deep Learning und einer KI-Revolution. Der derzeitige KI-Boom ist vor allem auf Fortschritte in drei Bereichen zurückzuführen: Algorithmen, Big Data und Rechenleistung.

Diese Phase wird manchmal auch als KI-Sommer bezeichnet. Hier ging es in erster Linie um maschinelles Lernen. Arthur Samuel ist es zu verdanken, dass das maschinelle Lernen als ein Bereich definiert wurde, der es Computern ermöglicht, ohne explizite Programmierung zu lernen, d. h. als die Lernkomponente von KI-Systemen. Es handelt sich also um die Zuordnung zwischen Eingabe und Ausgabe mithilfe eines Lernalgorithmus und Leistungskriterien.

Eine der wichtigsten Neuerungen im Bereich des maschinellen Lernens war die Einführung von „Transformers„. Diese Architektur hat den Vorteil, dass sie die Positionierung und Relevanz von Wörtern unabhängig vom Kontext in der Sequenz erfasst (im Gegensatz zu rekurrenten neuronalen Netzen, die sequentiell arbeiten). Auf der Grundlage dieses sogenannten Attention-mechanismus wurden Transformer wie BERT von Google und GPT von OpenAI der Öffentlichkeit vorgestellt. Einer der wichtigsten Durchbrüche bei der Transformer-Technologie ist ihre Verallgemeinerbarkeit, d. h. sie können auf großen, unterschiedlichen Datensätzen vortrainiert und auf spezifischen Datensätzen für bestimmte Aufgaben fein abgestimmt werden.

Die Technik neuronaler Netze

Künstliche neuronale Netze (ANN) sind Computermodelle, die von den biologischen Strukturen des menschlichen Gehirns inspiriert sind und durch Lernen am Beispiel vielseitige Lösungen für komplexe Probleme bieten. Diese Systeme sind aus Bereichen, in denen Mustererkennung, statistische Datenmodellierung und Klassifizierungsaufgaben erforderlich sind, nicht mehr wegzudenken.

Der Grundbaustein eines jeden neuronalen Netzes ist das „Neuron“. Diese künstlichen Neuronen wurden entwickelt, um das Verarbeitungsverhalten biologischer Neuronen zu imitieren. Jedes künstliche Neuron empfängt verschiedene Eingaben, multipliziert diese mit gelernten Gewichten, die die Verbindungen zwischen den Neuronen darstellen, berechnet die Summe dieser Eingaben und leitet die Summe durch eine Aktivierungsfunktion, um eine einzige Ausgabe zu erzeugen. Diese Architektur legte den Grundstein für ein System, das in der Lage ist, zu lernen, indem es die Gewichte der einzelnen Eingaben anpasst, um die Gesamtausgabe zu verändern, und so die Plastizität nachahmt, die in biologischen Gehirnen beobachtet wird.

Neuronale Netze spielen mit ihrer breiten Palette von Anwendungen eine zentrale Rolle bei der Umgestaltung der Industrie. Im Bereich der Bild- und visuellen Erkennung revolutionieren sie Sicherheitssysteme, autonome Fahrzeuge und soziale Medien, indem sie eine hochentwickelte Bildklassifizierung, Objekterkennung und Gesichtserkennung ermöglichen. Die Leistungsfähigkeit neuronaler Netze erstreckt sich auch auf die Spracherkennung und die Verarbeitung natürlicher Sprache (NLP), wo sie sprachgesteuerte Assistenten unterstützen, Echtzeit-Übersetzungsdienste erleichtern und Stimmungsanalysen durchführen, um die Kluft zwischen Mensch und Maschine durch Sprachverständnis zu überbrücken.

Der Finanzsektor profitiert in erheblichem Maße von neuronalen Netzen durch algorithmischen Handel, verbesserte Kreditwürdigkeitsprüfung, Betrugserkennung und verfeinertes Portfoliomanagement, das ein neues Maß an Entscheidungsgenauigkeit und Risikobewertung bietet.

Neuronale Netze werden mit dem Ziel trainiert, eine Kostenfunktion (Fehler) zu minimieren, die mit Hilfe eines Backpropagation-Algorithmus bestraft wird. Dieser Algorithmus passt die Gewichte und Vorspannungen aller Neuronen in allen Schichten an (durch Berechnung des Gradientenabstiegs), wobei er sich von der Ausgabeschicht rückwärts zur Eingabeschicht bewegt. Da ein Gradientenabstieg, der auf den gesamten Datensatz trainiert wird, rechenintensiv ist, werden die Daten nach dem Zufallsprinzip in kleinere Stapel aufgeteilt, was als stochastischer Gradientenabstieg bezeichnet wird.

Ein vereinfachtes Beispiel:

Bei der Vorhersage von Aktienmarktrenditen sind die Eingaben die Merkmale eines Unternehmens, die durch ihre Gewichtungen und Verzerrungen kombiniert werden. Die Ausgabe ist eine lineare Kombination der Eingabe, die durch die Aktivierungsfunktion geleitet wird. Dieser Prozess wird für alle versteckten Schichten des Netzes wiederholt. Die letzte Ausgabeschicht hat zum Beispiel zwei Ausgänge, die die vorhergesagte Aktienrendite (hoch bzw. niedrig) darstellen. Die Kostenfunktion vergleicht die vorhergesagte mit der tatsächlichen Rendite und den Gewichten. Der letzte Schritt im Lernprozess ist die Backpropagation, bei der die Gewichte und Verzerrungen angepasst werden, um die Differenz zwischen der vorhergesagten und der tatsächlichen Rendite zu minimieren.

Bei den für die Renditevorhersage verfügbaren KI-Techniken übertreffen ANNs traditionelle Ansätze und andere KI-Methoden wie elastische Netze, LASSO-Regressionen, Random Forests und gradientenverstärkte Regressionsbäume, mit Ausnahme hybrider („Ensemble“-) Ansätze, wie sie Gu/Kelly/Xiu  und Chopra/Sharma herausgearbeitet haben. Künstliche neuronale Netze sind aufgrund ihrer Fähigkeit, komplexe nicht lineare Beziehungen und komplizierte Dateninteraktionen zu erfassen, weitgehend erfolgreicher.

Dennoch gibt es keine allgemein anerkannte Technik für den Entwurf des optimalen ANN-Modells. Der Ansatz ist oft iterativ und basiert sowohl auf empirischen Ergebnissen als auch auf dem theoretischen Verständnis des Problems und des Modells.

Die Rolle von Entscheidungsbäumen

Klassifizierungs- und Regressionsbäume (CART) sind einfache, aber effektive Clustering-Methoden: Der Hauptzweck von Entscheidungsbäumen besteht darin, homogene Cluster zu erstellen. Besser investieren mit KI soll so funktionieren: Bei der Vorhersage von Aktienmarktrenditen beispielsweise erfolgt die Aufteilung nach Unternehmensmerkmalen wie Bewertung oder Qualität, die die Unternehmen am besten in solche aufteilen, die wahrscheinlich hohe bzw. niedrige Renditen erzielen. Der Aufteilungsprozess wird durch die Bildung neuer Gruppen abgeschlossen, die die Streuung innerhalb jedes Clusters minimieren. Bei einem trainierten Baum landen neue Instanzen (Validierungsdaten) in einem Zweig des Baums und bestimmen die Vorhersage von hohen bzw. niedrigen Renditen.

Darüber hinaus führte Leo Breiman das Konzept der Random Forests ein und revolutionierte damit das Ensemble-Lernen, indem er mehrere Entscheidungsbäume kombinierte, um die Vorhersageleistung zu verbessern und die Überanpassung zu kontrollieren. In der Praxis zeigen mehrere Arbeiten von zum Beispiel M. Ballings und C. Krauss, dass sie besser abschneiden als traditionelle Techniken.

Ein weiterer alternativer Ansatz zur Aggregation von Bäumen ist das Boosting (Baxter et al., 2000; Friedman, 2001). Beim Boosting besteht das Ziel darin, das Modell mit jedem zusätzlichen Baum zu verbessern. Zwei gängige Methoden des Boosting sind das adaptive Boosting (bei dem der Lernprozess verbessert wird, indem den Instanzen, die die größten Fehler verursachen, schrittweise mehr Aufmerksamkeit geschenkt wird) und das extreme Gradient Boosting (jeder neue Baum konzentriert sich ausschließlich auf die Reduzierung der Fehler in den Trainingsdaten).

Der Hauptvorteil von Einzel- und Ensemblebäumen ist ihre Einfachheit und Interpretierbarkeit. Außerdem kann die Überanpassung durch die Ensemble-Methode reduziert werden, d. h. mehrere Bäume bilden einen Wald, was zu einer guten Leistung führt. Krauss et al. fanden beispielsweise heraus, dass Random Forests beim Hochfrequenzhandel besser abschneiden als gradient-boosted Bäume und neuronale Netze. Ballings et al. zeigen, dass Random Forests der leistungsstärkste ML-Algorithmus für die Vorhersage von Aktienkursen sind.

Klassifizierungs- und Regressionsbäume (CART) und Random Forests sind vielseitige Techniken des maschinellen Lernens, die in zahlreichen Bereichen für ihre Fähigkeiten bei Klassifizierungs- und Regressionsaufgaben geschätzt werden. In der Finanzbranche werden sie zur Risikobewertung, Kreditwürdigkeitsprüfung und Betrugserkennung eingesetzt, um die Entscheidungsfindung und Sicherheit zu verbessern. CART und Random Forests sind bekannt für ihre Anpassungsfähigkeit, Robustheit und Interpretierbarkeit, was sie zu unverzichtbaren Werkzeugen für die datengesteuerte Entscheidungsfindung in verschiedenen Branchen macht. Besser investieren mit KI? Ja, aber es gibt noch ein effektiveres Verfahren.

Das Konzept der Penalised Regression

Penalised Regressionsmethoden sind besonders nützlich für den Umgang mit hochdimensionalen Datensätzen, einem häufigen Merkmal der Finanzmärkte, da sie einen Strafterm in das Regressionsmodell einführen. Darüber hinaus neigen unverzerrte Schätzer wie OLS dazu, große Varianzen zu haben, wenn sie mit vielen Prädiktoren und einer geringen Anzahl von Freiheitsgraden konfrontiert sind. Daher wurden LASSO (Least Absolute Shrinkage and Selector Operator), Ridge und Elastic Net als Techniken eingeführt, die sich insbesondere mit der Auswahl von Merkmalen und der Regulierung durch Schrumpfung befassen.

Die LASSO-Methode wurde 1996 von Robert Tibshirani eingeführt. Seine Studie unterstreicht die Effektivität der Technik bei der Behandlung von Multikollinearität in statistischen Modellen, indem sie einen L1-Strafterm erzwingt und somit eine Merkmalsauswahl ermöglicht, indem einige der Koeffizienten auf genau 0 gesetzt werden.

Penalised Regressions wie Ridge, Lasso und Elastic Net sind von zentraler Bedeutung für die statistische Modellierung und das maschinelle Lernen, da sie Lösungen für das Overfitting, die Verbesserung der Vorhersagegenauigkeit und den Umgang mit der Multikollinearität von Variablen bieten. Diese Techniken zeichnen sich durch eine hervorragende Variablenauswahl aus, was sie in verschiedenen Sektoren unverzichtbar macht.

In der prädiktiven Modellierung prognostizieren sie Wirtschaftstrends, Aktienkurse und Wettermuster, indem sie signifikante Prädiktoren aus großen Datensätzen effektiv priorisieren. Bioinformatik und Genomik profitieren von ihrer Fähigkeit, krankheitsbezogene genetische Marker zu identifizieren und Genexpressionsdaten zu analysieren, was den Fortschritt in der personalisierten Medizin unterstützt.

Im Finanzwesen und Risikomanagement werden Penalised Regressions für die Kreditwürdigkeitsprüfung und die Portfolio-Optimierung eingesetzt, um die Kollinearität in großen Datensätzen zu bewältigen. Auch die Sportanalytik und die Umweltwissenschaften profitieren davon. Die Anwendungen reichen von der Leistungsanalyse von Spielern bis hin zur Modellierung von Umweltphänomenen, was die Vielseitigkeit der Methoden bei der Gewinnung wichtiger Erkenntnisse aus vielschichtigen Daten zeigt.

Von den drei Modellen liefert das Elastic Net die beständigsten Ergebnisse und die beste Leistung. Bei der Vorhersage von Aktienmarktrenditen schneiden sie besser ab als herkömmliche lineare Modelle, übertreffen aber andere ML-Techniken wie Random Forests und neuronale Netze nicht.

Aktienmarktprognosen mit KI

Die Prognose des Aktienmarktes ist ein Versuch, zukünftige Aktienkurse, Markttrends (Marktcrashs) oder Fundamentaldaten auf der Grundlage historischer Daten vorherzusagen. 

Darüber hinaus ist die Vorhersage des Aktienmarktes schwierig, da der Aktienmarkt durch ein geringes Signal-Rausch-Verhältnis (Informationsüberlastung), hohe Volatilität und dynamische Märkte sowie verhaltensbedingte Einflüsse der Anleger (Irrationalität) gekennzeichnet ist. Diese drei Faktoren zusammen führen zu großer Unsicherheit. 

Ein weiteres Element, das bei der Vorhersage künftiger Kurse zu berücksichtigen ist, ist die Annahme, dass genaue Vorhersagen zu einer Outperformance führen können. Hier ist die Diskussion über den effizienten Markt (Fama, 1970) von entscheidender Bedeutung.

Die Hypothese des effizienten Marktes besagt, dass die Preise alle verfügbaren Informationen widerspiegeln, sodass es nicht möglich sei, Alpha zu finden. Sollte jemand den Markt dauerhaft übertreffen, so wäre dies auf Zufall zurückzuführen. Dies bedeutet, dass die detaillierte Analyse der Leistung eines Unternehmens (Fundamentalanalyse) oder die historische Entwicklung des Aktienkurses (technische Analyse) keinem Anleger einen dauerhaften Vorteil gegenüber anderen verschaffen würde, und die einzige Möglichkeit, potenziell höhere Renditen zu erzielen, darin bestünde, ein höheres Risiko einzugehen.

Wissenschaftler und Praktiker kritisieren diese Hypothese. Wäre der Markt effizient, gäbe es keine Blasen und Crashs. Die Tatsache, dass es Anleger wie Warren Buffett gibt, die über lange Zeiträume besser abschneiden als der Markt, wirft Fragen zu dieser Hypothese auf. Halten wir also fest, dass spezielle Skills einen Mehrwert bieten können – hier könnten Anleger durch den Einsatz von KI also besser investieren – zumindest theoretisch.

Besser investieren mit KI: Value- und Quality-Strategien

Value oder Quality?

Value-Investing, eine Strategie, die von Benjamin Graham bis Mitte des 20. Jahrhunderts entwickelt wurde, beinhaltet die Auswahl von Aktien, die nach fundamentalen Kriterien werthaltiger sind, als es ihr Aktienkurs ausdrückt. (Graham & Dodd, 1934).

Während der Kern des Value Investing über die Zeit unverändert blieb – nämlich der Kauf von Aktien zu einem Preis, der unter ihrem inneren Wert liegt – haben sich verschiedene Denkschulen zur Identifizierung unterbewerteter Aktien herausgebildet. Insbesondere wird zwischen „Value for a reason“ und „True Value“-Aktien unterschieden. „Value for a reason“ oder „Junk“ bezieht sich auf Aktien, die im Hinblick auf ihre Finanzkennzahlen, wie z. B. ein niedriges Kurs-Buchwert-Verhältnis, als Value-Aktien erscheinen, aber aus einem berechtigten Grund so bewertet sind. „Echte“ Value-Aktien sind solche, die im Verhältnis zu ihrem inneren Wert  unterbewertet sind und eine Chance darstellen. Dies bedeutet, dass die Hypothese des effizienten Marktes nicht zutrifft, sondern dass Verhaltensverzerrungen und Marktineffizienzen zu verzerrten Assetpreisen führen.

Die Wurzeln des Quality Investing gehen auf die frühe Fokussierung mancher Investoren auf fundamental solide Unternehmen zurück und haben sich zu einer gut etablierten Strategie zur Erzielung langfristiger Renditen entwickelt. Der kürzlich verstorbene langjährige Weggefährte Warren Buffetts, Charlie Munger, gilt als einer der ersten praktizierenden Quality-Anleger. Nach Asness et al. (2019) hat Quality Investing, eine Strategie, die die Auswahl von Aktien mit einer angenommenen höheren Widerstandsfähigkeit beinhaltet, drei Dimensionen: Rentabilität, Wachstum und Sicherheit. Rentabilität bezieht sich auf die Fähigkeit des Unternehmens, Einnahmen zu generieren, die seine Ausgaben übersteigen (betriebliche Effizienz), Wachstum bewertet das Potenzial des Unternehmens, sein Geschäft auszuweiten, und Sicherheit bezieht sich auf die Vorhersehbarkeit seines Geschäftsmodells und die Nachhaltigkeit der Geschäftstätigkeit (niedrige Verschuldung, gutes Management, nachhaltiger Burggraben).

Asness et al. (2019) zeigen, dass qualitativ hochwertige Unternehmen zwischen 1956 und 2016 in 25 Ländern überdurchschnittliche Renditen erzielen können (mit IR > 1). Untersuchungen von Novy-Marx (2013) zeigen, dass Qualitätsinvestitionen in der Regel bei Marktabschwüngen besonders gut abschneiden.

Value und Quality!

Während sich Value-Investing mehr auf die Preise im Verhältnis zu den Fundamentaldaten konzentriert, liegt der Schwerpunkt bei Quality-Investing auf der inneren Stärke und Stabilität der Unternehmen.

Eine Personifizierung von Value- und Quality-Investing ist der spätere Warren Buffett. Seine Orientierung an der Anlagephilosophie seines Lehrers, dem Value Investing von Benjamin Graham, ist gut dokumentiert. Dennoch ist er vom traditionellen Value-Investing – vor allem Dank des Einflusses von Charlie Munger, abgewichen, indem er der „Qualität“ eines Unternehmens einen höheren Stellenwert einräumt. Sein berühmtes Zitat: „Ob wir nun Socken oder Aktien kaufen, ich kaufe gerne Qualitätsware, wenn sie verbilligt ist“, zeigt, dass er sowohl Value- als auch Qualitätsinvestitionen betont.

In seinen jährlichen Briefen an die Aktionäre weist er darauf hin, dass Qualitätsunternehmen seiner Meinung nach Attribute wie eine starke Markenidentität, einen robusten Wettbewerbsgraben (oft als „economic moat“ bezeichnet) und eine hohe Managementqualität aufweisen. Außerdem ist er nicht an kurzfristigen Kursschwankungen oder spekulativen Gewinnen interessiert. Stattdessen sucht er nach Unternehmen, die über einen längeren Zeitraum hinweg Wert schaffen, ein Prinzip, das in seiner „Buy and Hold“-Strategie begründet ist.

Künstliche Intelligenz und Value/Quality investing

Es stellt sich nun die Frage, ob ein Quality-Value-Ansatz durch KI kodifiziert werden kann. Viele Eigenschaften von Anlegern wie Warren Buffett lassen sich nicht so leicht in Zahlen ausdrücken. Gutes Urteilsvermögen wird durch Erfahrung gewonnen und oft nicht explizit formuliert, sondern unbewusst in die Entscheidungsfindung einbezogen. Darüber hinaus sind verschiedene von Warren Buffett befolgte Verhaltensnormen, wie langfristige Investitionen, ökonomische Gräben und emotionale Disziplin, bis zu einem gewissen Grad qualitativ. Daher ist künstliche Intelligenz eine geeignete Technologie, um die Entscheidungsfindung zu verbessern, da sie im Vergleich zu jedem lebenden Menschen genauer aus Erfahrungen, d. h. aus Daten, lernen kann.

Ganz allgemein hat die Suche nach dem „echten“ oder inneren Wert sowohl quantitative (z. B. Bilanzkennzahlen) als auch qualitative Aspekte (z. B. Gewinnmitteilungen, Geschäftsberichte, Produktbewertungen, Feedback in sozialen Medien). KI kann bei ersterem helfen, indem sie riesige Datensätze verdaut und im Auge behält, die die Kapazität eines einzelnen Menschen übersteigen, und bei letzterem, indem sie große Mengen unstrukturierter Textdaten analysiert und interpretiert.

Schließlich sind quantitative Techniken von zentraler Bedeutung für das Factor-Investing, wobei Fortschritte in der Computer- und Datenanalytik diese Methoden weiter verfeinern (Brown & Zhang, 2017). Auch Techniken des maschinellen Lernens, wie sie von Lopez de Prado (2018) erörtert werden, werden zunehmend auf die Identifizierung von Faktoren und die Portfoliokonstruktion angewendet.

In der nächsten Folge unserer Serie Investieren mit KI, wenden wir die oben vorgestellten Instrumente des maschinellen Lernens auf die Aktienselektion für den europäischen Markt an.

Abonniere hier unseren kostenfreien Newsletter

Disclaimer

Die vorstehenden Darstellungen der Pyfore Capital GmbH stellen rechtlich eine Werbemitteilung dar und dienen ausschließlich Informationszwecken. Sie stellen insbesondere weder ein Angebot oder eine Aufforderung zur Abgabe eines Angebotes noch einen Rat oder eine persönliche Empfehlung bezüglich des Haltens, des Erwerbs oder der Veräußerung eines Finanzinstruments dar. Die Pyfore Capital GmbH empfiehlt, sich vor Abschluss eines Geschäftes kunden- und produktgerecht und unter Berücksichtigung Ihrer persönlichen Vermögens- und Anlagesituation beraten zu lassen und Ihre Anlageentscheidung nicht allein auf diese Veröffentlichung zu stützen. Es wird empfohlen, sich von Angehörigen der steuerberatenden Berufe über die individuellen steuerlichen Folgen des Erwerbs, des Haltens oder der Veräußerung des in dieser Unterlage beschriebenen Finanzinstrumentes beraten zu lassen.
Bitte beachte die
rechtlichen Hinweise.

Links zu Texten, die von einem Dritten erstellt wurden, dienen lediglich unverbindlichen Informationszwecken.

Autor

  • Stefan Hartmann

    Stefan schaut auf eine mehr als 20-jährige Erfahrung in den Bereichen Aktien, festverzinsliche Wertpapiere, Derivate und Hedge Funds zurück. In seiner Tätigkeit als globaler Leiter des Quantitativen Research Teams bei ABN AMRO, hat er über 300 institutionelle Kunden in den USA, Europa und Asien zu allen Fragen des Investment Prozesses beraten. Zuvor war er 10 Jahre bei Salomon Smith Barney als Leiter des quantitativen Research Teams für Europa tätig, wo er Top Rankings in den großen Research Surveys erzielte. Stefan hat über 50 Research Veröffentlichungen zu allen Aspekten des Investment Prozesses in Aktien, festverzinsliche Wertpapiere und Währungen publiziert.

Picture of Stefan Hartmann

Stefan Hartmann

Stefan schaut auf eine mehr als 20-jährige Erfahrung in den Bereichen Aktien, festverzinsliche Wertpapiere, Derivate und Hedge Funds zurück. In seiner Tätigkeit als globaler Leiter des Quantitativen Research Teams bei ABN AMRO, hat er über 300 institutionelle Kunden in den USA, Europa und Asien zu allen Fragen des Investment Prozesses beraten. Zuvor war er 10 Jahre bei Salomon Smith Barney als Leiter des quantitativen Research Teams für Europa tätig, wo er Top Rankings in den großen Research Surveys erzielte. Stefan hat über 50 Research Veröffentlichungen zu allen Aspekten des Investment Prozesses in Aktien, festverzinsliche Wertpapiere und Währungen publiziert.

Aktuelle Beiträge

Eine Antwort

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Neueste Beiträge

Tags

Neuste Kommentare

Twitter

Instagram