Neue multimodale Modelle kombinieren Text und Akustik zur Vorhersage von Marktvolatilität
Ein neues Forschungsprojekt präsentiert ein innovatives multimodales Framework, das Text‑Sentiment‑Analysen mit paralinguistischen Signalen aus Unternehmensgesprächen verbindet. Durch den Einsatz eines Physics‑Informed Acoustic Models (PIAM) werden aus den Audiodaten der Earnings‑Calls emotionale Signaturen extrahiert, die selbst bei Verzerrungen wie Signal‑Clipping zuverlässig bleiben.
Die gewonnenen akustischen und textuellen Emotionen werden in einen dreidimensionalen Affekt‑Raum projiziert, der aus den Dimensionen Spannung, Stabilität und Erregung besteht. Auf Basis von 1.795 Calls – etwa 1.800 Stunden – wurden dynamische Veränderungen der Führungskräfte‑Affekte zwischen der geplanten Präsentation und der spontanen Q&A‑Phase erfasst.
Die Analyse zeigt, dass die multimodalen Merkmale zwar keine Richtung der Kursbewegungen vorhersagen, aber bis zu 43,8 % der Varianz der 30‑Tage‑realisierten Volatilität erklären. Besonders stark wirken sich emotionale Schwankungen während des Übergangs von der Skript‑ zur spontanen Rede aus: CFOs zeigen eine abnehmende textuelle Stabilität und eine steigende akustische Instabilität, während CEOs signifikante Erregungsvariabilität aufweisen.
Ein Ablationsstudie bestätigt, dass das multimodale Modell die reine Finanzdaten‑Analyse deutlich übertrifft, was die Bedeutung von Sprach‑ und Ton‑Signalen für die Marktinterpretation unterstreicht.