Werbung
Deutsche Märkte schließen in 1 Stunde 47 Minute
  • DAX

    17.814,39
    -212,19 (-1,18%)
     
  • Euro Stoxx 50

    4.924,25
    -60,23 (-1,21%)
     
  • Dow Jones 30

    37.824,00
    +88,89 (+0,24%)
     
  • Gold

    2.393,20
    +10,20 (+0,43%)
     
  • EUR/USD

    1,0645
    +0,0019 (+0,18%)
     
  • Bitcoin EUR

    58.989,21
    -3.280,36 (-5,27%)
     
  • CMC Crypto 200

    885,54
    0,00 (0,00%)
     
  • Öl (Brent)

    85,44
    +0,03 (+0,04%)
     
  • MDAX

    26.046,77
    -400,37 (-1,51%)
     
  • TecDAX

    3.298,29
    -36,03 (-1,08%)
     
  • SDAX

    14.018,43
    -239,65 (-1,68%)
     
  • Nikkei 225

    38.471,20
    -761,60 (-1,94%)
     
  • FTSE 100

    7.840,38
    -125,15 (-1,57%)
     
  • CAC 40

    7.944,66
    -100,45 (-1,25%)
     
  • Nasdaq Compositive

    15.864,13
    -20,88 (-0,13%)
     

Hype um Chat GPT verpasst? Lest hier, was ihr über den viralen Chatbot wissen müsst

Nachdem der Bot für Anwender geöffnet wurde, ging ChatGPT viral. - Copyright: Getty Images
Nachdem der Bot für Anwender geöffnet wurde, ging ChatGPT viral. - Copyright: Getty Images

Seit OpenAI seinen Blockbuster-Bot ChatGPT im November veröffentlicht hat, experimentieren die Nutzer zwanglos mit dem Tool. Auch Redakteure von Business Insider haben bereits mit der künstlichen Intelligenz experimentiert.

Für ältere Millennials, die mit Chaträumen aufgewachsen sind, kann der persönliche Ton der Gespräche mit dem Bot an die Erfahrung des Online-Chattens erinnern. Aber ChatGPT spricht nicht mit Gefühlen und „denkt“ nicht so wie Menschen. Die Technologie dahinter wird als „Large Language Model Tools“ bezeichnet.

Das bedeutet, dass ChatGPT zwar die Quantenphysik erklären oder auf Kommando ein Gedicht schreiben kann. Eine vollständige Machtübernahme durch die KI steht nach Ansicht von Experten jedoch nicht unmittelbar bevor.

Affen, Shakespeare und ChatGPT – wie es funktioniert

„Es gibt ein Sprichwort, das besagt, dass eine unendliche Anzahl von Affen irgendwann Shakespeare hervorbringt“, so Matthew Sag, Juraprofessor an der Emory University. Sag beschäftigt sich mit den urheberrechtlichen Implikationen beim Training und der Verwendung von Sprachmodellen wie ChatGPT.

WERBUNG

„Es gibt hier eine große Anzahl von Affen, die beeindruckende Ergebnisse liefern. Aber es gibt einen wesentlichen Unterschied zwischen der Art und Weise, wie Menschen Sprache produzieren, und der Art und Weise, wie große Sprachmodelle dies tun“, sagte er.

Chatbots wie GPT stützen sich auf große Datenmengen und Rechentechniken, um Vorhersagen zu treffen und Wörter sinnvoll aneinander zu reihen. Sie greifen nicht nur auf eine große Menge an Vokabeln und Informationen zurück, sondern verstehen auch Wörter im Kontext. Dies hilft ihnen, Sprachmuster nachzuahmen und gleichzeitig ein enzyklopädisches Wissen zu vermitteln.

Andere Technologieunternehmen wie Google und Meta haben ihre eigenen großen Sprachmodelle entwickelt. Die Programme nehmen menschliche Eingaben auf und entwickeln ausgefeilte Antworten. OpenAI hat in einem revolutionären Schritt auch eine Benutzeroberfläche geschaffen, die es der Öffentlichkeit ermöglicht, direkt mit ihr zu experimentieren.

Bisherige Anwendungen: Probleme und Shitstorms

Einige der jüngsten Versuche, Chatbots für reale Dienste einzusetzen, haben sich als problematisch erwiesen – mit merkwürdigen Ergebnissen. Das Unternehmen für psychische Gesundheit Koko geriet diesen Monat in die Kritik, nachdem sein Gründer darüber geschrieben hatte, wie das Unternehmen in einem Experiment GPT-3 zur Beantwortung von Nutzeranfragen einsetzte.

Rob Morris, ein Mitgründer von Koko, stellte daraufhin schnell via Twitter klar, dass die Nutzer nicht direkt mit dem Chatbot gesprochen hätten. Die KI habe lediglich geholfen, die Antworten zu verfassen.

Daneben nutzt auch der umstrittene Dienst DoNotPay einen GPT-3-gesteuerten Chatbot. Der Dienst behauptet von sich, der erste Robo-Anwalt der Welt zu sein und Nutzern bei Rechtsstreitigkeiten zu helfen – beispielsweise bei Kundendienst-Konflikten. Der Gründer behauptet allerdings auch, der KI-„Anwalt“ könne Angeklagte bei Verkehrsdelikten auch im Gerichtssaal in Echtzeit beraten. Später ruderte er angesichts der möglichen Risiken allerdings zurück.

„Solche Tools können nicht alles – es ist keine Zauberei“

Andere Forscher scheinen bei generativen KI-Tools einen gemäßigteren Ansatz zu verfolgen. Daniel Linna Jr., ein Professor an der Northwestern University, erforscht die Effektivität von Technologie im Rechtswesen. Insider erklärte er, dass er dabei hilft, mit einem Chatbot namens "Rentervention" zu experimentieren, der Mieter unterstützen soll.

Dieser Bot verwendet derzeit eine Technologie wie Google Dialogueflow, ein weiteres großes Sprachmodell-Tool. Linna sagte, dass er mit ChatGPT experimentiert, um "Rentervention" dabei zu helfen, bessere Antworten zu finden und detailliertere Briefe zu verfassen, während er gleichzeitig seine Grenzen auslotet.

„Ich denke, es gibt einen großen Hype um ChatGPT, und solche Tools haben Potenzial“, sagte Linna. „Aber sie können nicht alles – es ist keine Zauberei.“ OpenAI hat das auch eingeräumt und erklärt auf seiner eigenen Website, dass „ChatGPT manchmal plausibel klingende, aber falsche oder unsinnige Antworten schreibt.“

Dieser Artikel wurde von Steffen Bosse aus dem Englischen übersetzt. Das Original findet ihr hier.