Werbung
Deutsche Märkte geschlossen
  • DAX

    18.163,52
    -90,68 (-0,50%)
     
  • Euro Stoxx 50

    4.907,30
    -40,43 (-0,82%)
     
  • Dow Jones 30

    39.150,33
    +15,53 (+0,04%)
     
  • Gold

    2.334,70
    -34,30 (-1,45%)
     
  • EUR/USD

    1,0696
    -0,0010 (-0,10%)
     
  • Bitcoin EUR

    59.984,78
    -139,50 (-0,23%)
     
  • CMC Crypto 200

    1.321,52
    -38,81 (-2,85%)
     
  • Öl (Brent)

    80,59
    -0,70 (-0,86%)
     
  • MDAX

    25.296,18
    -419,62 (-1,63%)
     
  • TecDAX

    3.286,63
    -24,79 (-0,75%)
     
  • SDAX

    14.473,71
    -125,89 (-0,86%)
     
  • Nikkei 225

    38.596,47
    -36,53 (-0,09%)
     
  • FTSE 100

    8.237,72
    -34,74 (-0,42%)
     
  • CAC 40

    7.628,57
    -42,77 (-0,56%)
     
  • Nasdaq Compositive

    17.689,36
    -32,24 (-0,18%)
     

Ich habe 20 Jahre lang als Datenanalyst bei Unternehmen wie Amazon gearbeitet: Chat GPT für die Datenanalyse zu nehmen ist ein riskanter Schritt

Brandon Southern ist der ehemalige Leiter der Analyseabteilung bei Amazon. - Copyright: Brandon Southern
Brandon Southern ist der ehemalige Leiter der Analyseabteilung bei Amazon. - Copyright: Brandon Southern

Ich sehe häufig Beiträge, in denen behauptet wird, dass Chat GPT problemlos für die Datenanalyse eingesetzt werden kann, und ich höre täglich Kommentare, in denen behauptet wird, dass Chat GPT die Arbeit von Datenanalysten ersetzen wird.

Als ehemaliger Leiter der Analyseabteilung bei Amazon und 20-jähriger Tech- und Analyse-Veteran mache ich mir keine Sorgen darüber, dass Chat GPT die Arbeitsplätze von Datenanalysten ersetzen könnte. Was mich jedoch beunruhigt, ist der Glaube der Führungskräfte, dass es die Arbeitsplätze von Datenanalysten ersetzen kann oder sollte.

Das wäre eine katastrophale Entscheidung angesichts des aktuellen Stands der Analyseumgebungen und der Funktionsweise von Chat GPT. Chat GPT als Ersatz für Datenanalysten zu verwenden, wird schlechte Entscheidungen beschleunigen und schlechte Daten in Unternehmensnetzwerken mit einer Geschwindigkeit verbreiten, die wir noch nie zuvor gesehen haben. Um die Qualität von Entscheidungen zu gewährleisten, müssen Führungskräfte vermeiden, das Pferd von hinten aufzuzäumen, wenn es um KI-Tools und Modelle wie Chat GPT geht.

WERBUNG

Sie müssen sich zunächst darauf konzentrieren, die Herausforderungen innerhalb ihrer Analyseumgebungen vollständig zu verstehen und diese Herausforderungen zu lösen, bevor sie automatisierte Tools auf diesen Umgebungen aufbauen. Wenn sie dies nicht tun, wird dies mit ziemlicher Sicherheit zu schlechten Entscheidungen, unternehmerischen und finanziellen Risiken und einer Erosion des Vertrauens von Mitarbeitern und Kunden führen.

KI Chat GPT Job
KI Chat GPT Job

Chat GPT ist im Grunde ein Prädiktor

Chat GPT ist ein umfangreiches Sprachmodell, was sich schick anhört, und die Antworten, die es liefert, geben den Benutzern das Gefühl, dass es ein intelligentes Wesen ist. Aber das ist es bei weitem nicht. Im Grunde genommen nimmt das Modell eine Reihe von Informationen als Eingabe auf und sagt dann auf der Grundlage dieser Eingaben ein Ergebnis voraus.

Um eine genaue Vorhersage treffen zu können, muss das Modell aus mehreren verschiedenen Szenarien lernen und genaue Informationen erhalten. Je nachdem, wie es trainiert wurde, antwortet das Modell mit einer richtigen oder falschen Antwort. Wenn ihr dem Modell beibringt, dass 2 + 2 = 10 ist, wird es euch diese Antwort geben, auch wenn sie falsch ist. Aus diesem Grund stellt die Verwendung solcher Modelle ein großes Problem für Analyseteams dar.

Das Problem ist, dass wir mehrere Quellen der Wahrheit haben

Ich habe in den letzten 20 Jahren bei Amazon, eBay, GameStop, VMWare und einer Handvoll von Start-up-Unternehmen gearbeitet. Außerdem habe ich viele andere Unternehmen im Bereich der Analytik beraten und unterstützt. Dabei habe ich festgestellt, dass unabhängig von der Größe, dem Alter oder der Branche eines Unternehmens alle mit denselben Problemen konfrontiert sind, und eines dieser Probleme hat mit mehreren Quellen der Wahrheit zu tun.

Ein Bericht, den das Finanzteam verwendet, besagt zum Beispiel, dass das Unternehmen 10.000 neue Kunden hat. In einem Bericht, den das Marketingteam verwendet, steht jedoch, dass das Unternehmen 12.000 neue Kunden hat. Wer hat Recht? Ist eine dieser Zahlen korrekt? Gibt es für jede dieser Zahlen einen anderen Kontext, in dem beide Berichte richtig sein könnten?

Wir wissen es nicht, zumindest nicht ohne eine umfangreiche Untersuchung. Und das ist der aktuelle Stand der Analyseteams, ohne den Versuch, maschinelle Lernmodelle auf die aktuelle Umgebung anzuwenden.

Chat GPT kann nicht die Arbeit eines Datenanalysten übernehmen

Datenanalysten verfügen heute nicht über genaue und konsistente Daten sowie über den richtigen Kontext für diese Daten in ihren bestehenden Berichten, Dashboards und Datenbanken. Wenn sich Datenanalysten nicht einigen können und mehrere Quellen der Wahrheit verwendet werden, um ChatGPT oder andere großsprachige Modelle zu trainieren, können wir nicht erwarten, dass das Modell genaue Ergebnisse liefert.

Leider nutzen die Stakeholder diese inkonsistenten Informationen bereits über Self-Service-Dashboards und -Berichte, oft ohne die Hilfe von Datenanalysten. Die Rettung in der heutigen Umgebung ist der Schutz durch Datenanalysten. In der heutigen Umgebung liefern Datenanalysten zusätzlichen Kontext für die Datenausgabe, und sie navigieren diese Datenprobleme in Echtzeit, während sie ihre Datenanalyse erstellen. Da die Selbstbedienungsfunktionen zunehmen, werden Datenanalysten immer weniger in die Unterstützung der Beteiligten bei der Dateninterpretation einbezogen.

Dies führt zu einer gefährlichen Situation für das Unternehmen, da immer mehr Stakeholder Fakten aus verschiedenen Dashboards übernehmen, ohne den von einem Analysten bereitgestellten Kontext oder ohne zusätzliche Qualitätssicherungsprüfungen. Diese Situation wird durch die Benutzerfreundlichkeit von Tools wie ChatGPT und das blinde Vertrauen in die Ergebnisse noch beschleunigt, ohne dass die Herausforderungen verstanden werden, denen sich datengesteuerte Unternehmen heute gegenübersehen.

Führungskräfte sollten das Risiko, das sie eingehen, verstehen

Wenn Führungskräfte sich der Vorstellung anschließen, dass Chat GPT eine brauchbare interne Analyselösung für ihre Organisation ist, ohne zuerst die Herausforderungen innerhalb ihrer Analyseorganisationen zu lösen, setzen sie das Unternehmen einem Risiko aus.

Die Situation würde sich wahrscheinlich folgendermaßen entwickeln:

  1. Einzelne oder unternehmensweite Teams würden glauben, dass Chat GPT eine brauchbare Lösung sei und ChatGPT implementieren.

  2. Sie würden das Modell mit den heutigen internen Daten trainieren, obwohl der richtige Kontext fehlt und die aktuellen Berichte inkonsistente Ergebnisse aufweisen. Dies würde wahrscheinlich geschehen, ohne dass den Teammitgliedern überhaupt bewusst wäre, dass es sich hierbei um aktuelle Probleme handelt.

  3. Der Zugang zum Chat GPT wäre einfach, ähnlich wie die Teammitglieder bereits mit Tableau und Power BI Dashboards arbeiten.

  4. Die Stakeholder würden Chat GPT Fragen stellen, wie sie es heute schon tun, aber jetzt ohne die klärenden Folgefragen, die von Datenanalysten gestellt werden. Diese Fragen sind wichtig, um die richtige Antwort zu erhalten, werden aber häufig als selbstverständlich angesehen und bei den ersten Anfragen der Stakeholder übersehen.

  5. Die Betroffenen würden wahrscheinlich den effizientesten Weg wählen – eine nicht ausführliche Aufforderung –, ohne sich des Potenzials für ungenaue Ergebnisse bewusst zu sein.

Die Öffentlichkeit hat hinreichend bewiesen, dass sie keine Lust hat, lange E-Mails zu lesen oder zu schreiben. Stattdessen bevorzugen sie schnelle Chat-Nachrichten, die sogar so weit gehen, dass sie Emojis verwenden, anstatt explizite Wörter anzugeben. Dies gilt auch für die mündlichen Gespräche, die ich in den letzten 20 Jahren direkt mit Interessenvertretern und mit meinen Teammitgliedern geführt habe. Ausreichende und detaillierte Informationen und Anforderungen sind bei Anfragen von Interessengruppen fast immer nicht vorhanden.

Aus diesem Grund werden die Modelle nicht nur schlecht ausgebildet und laufen Gefahr, ungenaue Ergebnisse zu liefern, selbst wenn sie die genauesten und detailliertesten Aufforderungen erhalten, sondern es ist auch sehr wahrscheinlich, dass die Aufforderungen nicht ausreichend sind. Es besteht ein echtes Risiko, wenn Chat GPT in Unternehmen eingesetzt wird und dort Vertrauen genießt.

Brandon Southern ist der ehemalige Leiter der Analyseabteilung bei eBay, Amazon und GameStop. Er erstellt auch TikToks über Datenanalyse und Karriereentwicklung.

Lest den Originalartikel auf Business Insider