Bei der letzten progMEET, welche von dem Thema “Zukunft & KI” handelte, hat uns Prof. Dr. Rainer Göb vom Lehrstuhl für Angewandte Stochastik der Universität Würzburg in die Portfoliooptimierung mit vielen Dimensionen eingeführt. Im Gespräch mit uns hat er erklärt, wie weit die Umsetzung der universitären Lösung in die Praxis schon ist, was es mit Augmented Intelligence auf sich hat und wie die Portfoliooptimierung nicht nur für KMUs, sondern auch für individuelle Nutzer:innen einen entscheidenden Vorteil mit sich bringt.
Für mich ist KI ein Algorithmus, der Entscheidungen übernimmt, die sonst Experten treffen würden. Die KI übernimmt also die Aufgabe der Experten. In meiner Arbeit ist aber eher Augmented Intelligence relevant. Das ist etwas anderes als Artificial Intelligence. Bei Augmented Intelligence geht es darum, alle Werkzeuge, die Menschen verwenden können, um Entscheidungen zu treffen, zu analysieren und zu optimieren. Ganz wichtig dabei: Der Algorithmus nimmt dem Menschen die Entscheidung nicht ab. Es ist also wie bei einem Auto mit Assistenzsystemen: Man bekommt Tipps, entscheidet aber selbst, ob man sie nutzt und wo man langfährt.
Die klassische Statistik gehört genau in diesen Bereich. Auch in der Statistik werden systematisch Stichproben entnommen, um z. B. die Qualität von Produkten zu überprüfen. Damit ist man schon bei Augmented Intelligence angekommen: Man hat Informationen vorliegen, auf deren Basis man Entscheidungen treffen kann. Somit ist Augmented Intelligence sehr ähnlich zur klassischen Stichprobentheorie. Das, was ich dann bei meiner Arbeit mache, ist die Weiterführung dieses Paradigmas.
So ist es. Die klassische Statistik ist die Disziplin, aus der die datenanalytische Perspektive erwachsen ist. Die Statistik ist der Ursprung der Idee, die Welt zu modellieren und auf der Basis von Daten zu analysieren.
Das Thema Investition ist vielen Menschen sehr wichtig, z. B. wegen der Altersvorsorge. Es zieht immer mehr Menschen an die Börse. Geplante Investitionsgeschäfte liegen aber immer noch in der Hand von großen Investoren mit Fonds und ETFs. Mit einer Augmented-Intelligence-Anwendung kann auf Basis von Algorithmen der gesamte Wertpapiermarkt gescreent werden, und Anwender können sich anhand der so gesammelten Informationen eine geeignete Investition aussuchen. Die von uns an der Uni entwickelte Methodik ist dabei die Graswurzelmethode, um mit Hilfe von Algorithmen aus dem gesamten Finanzmarkt die geeignetste Investition herauszusuchen.
Ja, das ist auf jeden Fall das Ziel, das ich verfolge. Es gibt schon Anbieter, die auf Basis kleinerer Universen von Wertpapieren Portfolio-Pläne anbieten. Diese sind kostenpflichtig erhältlich und analysieren eine begrenzte Auswahl von Papieren. Der Anbieter ist dabei keine Fondsgesellschaft oder Bank, sondern hat nur beratende Funktion. Unsere Innovation: Von einem kleinen Universum in ein großes Universum mit mehr Auswertungen expandieren. Am Ende könnte mit den Algorithmen der weltweite Finanzmarkt ausgewertet werden. Dafür muss die Rechenkapazität natürlich entsprechend hoch sein. Anhand der Analysen kann man dann eine kompetente Entscheidung treffen, was als Anlagemodell geeignet ist. Gerade in einem so dynamischen Geschäftsfeld kann es von großem Vorteil sein, sich selbst ein Bild von der Lage machen zu können.
Da gibt es einige Stellschrauben. Im Universum kann man einige Vorauswahlen treffen, sich z. B. auf nachhaltige Investitionen fokussieren, wenn dies dem Nutzer am Herzen liegt. Auch können Renditeerwartungen und Risikoaversionen angegeben werden und diese Vorlieben so zur Kalibrierung des Algorithmus genutzt werden. So können konservative und liberale Anlagewünsche berücksichtigt werden oder die Investitionen ausgesucht werden, die eine hohe Rendite erwarten lassen.
Wir müssen das Schema noch verfeinern, um verschiedene Investorenerwartungen abzubilden. Zudem müssen wir das Ganze rechnerisch auf eine solide Basis stellen. Bisher haben wir nur Studien vorgenommen. Man müsste das System mal live aufsetzen, Daten einlesen und dann auch live auswerten. Bisher haben wir die Analysen nur retrospektiv durchgeführt, um die Güte der Methodik zu schätzen.
Man muss sich überlegen, wie man dynamische und ungute Entwicklungen absichern kann. Da kommt das Stichwort “Monitoring” ins Spiel. Bisher ist es so, dass ein Portfolio z. B. alle zwanzig Tage automatisiert neu gerechnet wird. Das kann je nach Anwendungsfall ein ungünstiges Zeitfenster sein. Wenn man hingegen gezielt überwacht, könnte man eine gezielte Portfolio-Erneuerung anstoßen und dann akut aktualisieren, wenn sich etwas entwickelt hat. Das wäre ein wesentlicher Schritt, erfordert aber auch – und das ist der wichtigste Aspekt – die Automatisierung der Investitionstätigkeit. Dafür müssen wir raus aus der reinen Datenanalyse und uns mit Firmen zusammensetzen, die im Finanzsektor aktiv sind.
Große Unternehmen haben das Investitionsproblem prinzipiell unabhängig von Wertpapiermärkten, da sie in sehr vielen Sektoren aktiv sind und somit in viele Produktgruppen investieren. Bei kleinen Unternehmen gibt es diese Multidisziplinarität eher seltener, gerade hier kann also freier entschieden werden. Man kann also klein anfangen und dann auf Basis der Ergebnisse von Augmented Intelligence immer noch frei entscheiden. Das ist dann ein Schritt über Predictive Analytics hinaus in Richtung Prescriptive Analytics. So stellt man ein Wert-, ein Produkt- und schließlich ein Entwicklungsportfolio auf, das beinhaltet, wohin die Reise gehen soll.
Die grundsätzliche Methode beruht ja darauf, Abhängigkeiten zwischen Werten – das können viele oder wenige sein – auf sehr flexible Art und Weise zu modellieren oder anzupacken, zu analysieren und auszuwerten. Gerade bei Fabrikationsprozessen werden viele Daten simultan erfasst und sie hängen simultan zusammen. Auf Basis dieser Daten muss dann entschieden werden, ob der Prozess so in Ordnung ist oder ob an einer Stelle nachgearbeitet werden muss. Hier können Copulas angewendet werden werden. Somit ist Augmented Intelligence auch für Prozesstechnologien anwendbar: Das impliziert Monitoring und Predictive Maintenance. Die Fragestellungen in der Finanzbranche unterscheiden sich davon gar nicht so stark, die Probleme sind die gleichen. Was bei Prozesstechnologien noch zusätzlich berücksichtigt werden muss, ist, dass die Nutzung von Sensoren auch noch Probleme mit sich bringen kann, da diese mitunter unsauber arbeiten oder ausfallen. Da es das am Finanzmarkt so nicht gibt, müsste der Algorithmus noch etwas angepasst werden, kann aber grundsätzlich auch hier verwendet werden.
Meines Erachtens nach ist es wesentlich, aus der praktischen Perspektive zu denken. Ich stelle mir die Frage: “Was brauchen die Menschen in der Praxis? Was sollte ich also erforschen?” Das ist meiner Erfahrung nach besser als sich im Elfenbeinturm schlaue Dinge zu überlegen, die dann irgendwie in die Praxis gebracht werden müssen. Dabei heißt es natürlich flexibel und offen für Neues sein: Man kann nicht ewig an dem Forschungsprojekt hängen bleiben, mit dem man mal angefangen hat. Es ist also sehr wichtig, die Stimme der Kunden, so kann man die Praktiker auch nennen, zu hören und zu berücksichtigen. Die Forschung in die Praxis umsetzen ist dann letztlich “learning by doing”, da die Praktiker häufig etwas ganz anderes erwarten als “akademischen Quatsch”. Man lernt also sehr viel von deren Perspektive und wie sie Statistik im Alltag nutzen.
Ich denke, dass sie nach und nach in den Unternehmensalltag einsickern wird und somit nicht nur für große Unternehmen interessant ist, die sie ja schon nutzen, sondern auch bei KMUs ankommt. Das kann für KMUs einen Wettbewerbsvorteil darstellen, wenn wir es schaffen, die Analysetools konfektioniert und konfektionalisierbar in die Masse zu bringen. Sie müssen finanzierbar sein und ohne eigenen Data Scientist im Unternehmen selbstständig laufen, bei Bedarf natürlich mit Beratung. Bisher konnten kleinere Unternehmen solche Monitoring-Aufgaben mangels Personal eher nicht leisten, das könnte sich nun ändern.
Vor nunmehr sechs Jahren haben wir bereits eine Studie durchgeführt, die der Frage nachgegangen ist, woran es scheitert, dass KMus nicht gezielt solche Analysen betreiben. Das lag in erster Linie an einem Mangel an Fachkräften. Kein Personal, das entsprechende inhaltliche Kenntnis hatte und kein Personal, das sich mit der Implementierung der Algorithmen auseinandersetzen konnte. Im Verlauf der Jahre beobachte ich immer mehr Interesse bei Unternehmenslenkern, die hier nun ansetzen wollen. Mit geeigneten Augmented-Intelligence-Anwendungen braucht nicht mehr jedes KMU eigene Analysten, sondern kann konfektionierte Algorithmen nutzen, um gut informiert Entscheidungen zu treffen. Das erhöht auch unser Potenzial im internationalen Vergleich.
Prof. Dr. Rainer Göb ist Professor für Statistik am Institut für Mathematik der Julius-Maximilians-Universität Würzburg. Sein Forschungsinteresse gilt der industriellen Anwendung der Statistik, insbesondere der statistischen Stichprobenziehung, der Prozessüberwachung, Predictive Analytics, der Risikoanalyse und der Standardisierung statistischer Methoden. Er ist Vorsitzender der Arbeitsgruppe “Acceptance Sampling” im Technischen Komitee 69 “Application of Statistical Methods” der Internationalen Organisation für Normung (ISO).
Ihr Partner für Predictive Analytics und Data Science.
Weitere Angaben, u. a. zum Datenschutz, finden Sie in unserem Impressum und unserer Datenschutzerklärung.
© 2024 prognostica GmbH