Werbung

Aktienhändler sagen, dass Chat GPT ihnen veraltete Informationen liefert und sie zu viel Zeit mit der Überprüfung der Fakten verschwenden

In jeder Branche wird untersucht, wie der Einsatz von KI-Tools die Arbeitseffizienz erhöhen kann. - Copyright: JOHANNES EISELE/AFP via Getty Images
In jeder Branche wird untersucht, wie der Einsatz von KI-Tools die Arbeitseffizienz erhöhen kann. - Copyright: JOHANNES EISELE/AFP via Getty Images

Seit der Publikmachung des KI-Tools Chat GPT experimentieren Menschen in jeder Branche mit dem Chatbot und testen, ob Künstliche Intelligenz ihre Arbeit erleichtern oder gar ersetzen kann – auch Aktienhändler der Finanzmärkte. Ein Bericht von "Bloomberg" zeigt Grenzen des weit und breit gefeierten Tools. Informationen sind demnach oftmals alt oder gar inkorrekt.

Aktienhändler berichteten, dass sie beim Einsatz von Chat GPT feststellen mussten, dass der Chatbot Einschränkungen aufweise. Die Daten, die Chat GPT liefern, seien veraltet oder inkorrekt und die Prüfung deswegen notwendig – aber auch zeitaufwendig.

Zu den Anwendungen, die für Finanzunternehmen interessant sind, gehört die Erstellung von Übersichten über Anlagestrategien und die Auswahlvorbereitung für Aktien.

WERBUNG

Trotzdem limitierte JP Morgan den Einsatz von Chat GPT unter Händlern. Das Unternehmen befürchte die Weitergabe sensibler Finanzinformationen, die die Alarmglocken der Regulierungsbehörden läuten lassen können. Andere Wall-Street-Banken, wie Citigroup und Goldman Sachs, sperrten Berichten zufolge die Nutzung des Tools. Die Maßnahme soll Teil der automatischen Beschränkungen für Software von Drittanbietern sein.

Aktienhändler, die mit "Bloomberg" sprachen, kämpfen allerdings mit der Genauigkeit der KI-Tools. Anstatt die mühsamere Arbeit zu reduzieren, müssen sie mit der Überprüfung der Informationen Zeit verbringen.

Pharmaunternehmen, Biontech, Sanofi, Hexal, Novartis, Astrazeneca, Jobs, Labor
Pharmaunternehmen, Biontech, Sanofi, Hexal, Novartis, Astrazeneca, Jobs, Labor

Ein Ölaktienhändlerin stellte beispielsweise fest, dass die von Chat GPT erstellten Prognosen für den Rohölmarkt veraltete Informationen enthielten, die geändert werden mussten. Ein Bankangestellter stellte fest, dass das Tool einen Überblick über einen Kunden in kürzerer Zeit erstellte als eine Internetrecherche, die gesammelten Informationen mussten aber dann gegengeprüft werden.

"Manchmal halluziniert Chat GPT"

"Wenn wir von hochpräzisen Aufgaben sprechen, müssen wir bedenken, dass Chat GPT manchmal halluziniert und Antworten generiert, die scheinbar überzeugend sind, aber in Wirklichkeit falsch sind", sagen Analysten der Investmentbank Morgan Stanley. "Zum jetzigen Zeitpunkt ist es am besten, wenn gut ausgebildete Benutzer die Fehler erkennen und generative KI-Anwendungen als Ergänzung und nicht als Ersatz für die bestehende Arbeit verwenden".

Eine im Januar von der Arizona State University durchgeführte Studie ergab, dass Chat GPT in Mathematik schlecht abschneidet: Die Trefferquote lag deutlich unter 60 Prozent. Ein Mathematikprofessor hatte dem Chatbot 1000 mathematische Textaufgaben zur Lösung vorgegeben.

Trotz der potenziellen Nachteile des Tools erwartet die Wall Street einen Aufschwung der Technologie, die bereits den algorithmischen Handel unterstützt.

Eine JPMorgan-Umfrage ergab neulich, dass etwas mehr als die Hälfte der Händler glauben, dass KI die Technologie sein werde, die den größten Einfluss auf den zukünftigen Handel habe – doppelt so viele wie bei der gleichen Umfrage im Jahr zuvor.

Dieser Artikel wurde von Amin Al Magrebi aus dem Englischen übersetzt. Das Original findet ihr hier.