Datenanalyse 21.06.2020, 18:31 Uhr

Neue Modelle für schnellere Prognosen

Große Mengen an Daten werden meist als Gewinn gesehen. Dennoch ist ihre Verwertung oft eine Herausforderung, denn je höher die Komplexität und Menge der Daten ist, umso komplexer und langwierig wird auch deren Verarbeitung.
Gregor Kastner ist Wissenschaftler am Institut für Statistik und Mathematik der Wirtschaftsuniversität Wien.
(Quelle: www.wu.ac.at)
Wissenschaftler Gregor Kastner vom Institut für Statistik und Mathematik der Wirtschaftsuniversität Wien arbeitet in einem FWF-geförderten Projekt daran, das Verarbeiten hochdimensionaler Daten zu vereinfachen und zu beschleunigen.
In seinen Modellen konzentrieren sich der Wissenschaftler auf die für eine Auswertung wesentlichen Daten. Vereinfachen ist das zentrale Stichwort. »Die komplexen Zeitreihen mit enormen Mengen an Daten, die wir durch langfristige Beobachtungen von Aktienkursen, Bevölkerungszahlen etc. erhalten, stellen uns statistisch gesehen vor ein hochdimensionales Problem«, erklärt der Mathematiker. »Wir brechen diesen hochdimensionalen Datenraum auf einen niedrigdimensionalen herunter, indem wir uns anschauen, welche Gemeinsamkeiten es zwischen den Zeitreihen gibt und auf welche Informationen wir verzichten können, weil sie zur Beantwortung unserer Fragen nicht wichtig sind.« Ein von Kastner mitentwickeltes Modell extrahiert die gemeinsame Dynamik dieser Zeitreihen, um die Analyse zu vereinfachen – ein Factor Stochastic Volatility Model, das den hochdimensionalen Raum zu einem niedrigdimensionalen, kleineren Raum werden lässt.
Die von Kastner entwickelten, neuen Algorithmen werden in der Open-Source-Software R zugänglich gemacht. Dies ermöglicht es anderen Wissenschaftlerinnen und Wissenschaftlern, große Informationsmengen leichter zu analysieren und zu eigenen Schlussfolgerungen und Vorhersagen zu kommen.



Das könnte Sie auch interessieren