Werbung
Deutsche Märkte schließen in 37 Minuten
  • DAX

    18.713,55
    -55,41 (-0,30%)
     
  • Euro Stoxx 50

    5.044,06
    -30,28 (-0,60%)
     
  • Dow Jones 30

    39.847,80
    +41,03 (+0,10%)
     
  • Gold

    2.432,10
    -6,40 (-0,26%)
     
  • EUR/USD

    1,0864
    +0,0002 (+0,02%)
     
  • Bitcoin EUR

    64.854,99
    +3.291,58 (+5,35%)
     
  • CMC Crypto 200

    1.540,10
    +51,56 (+3,47%)
     
  • Öl (Brent)

    79,34
    -0,46 (-0,58%)
     
  • MDAX

    27.148,65
    -333,40 (-1,21%)
     
  • TecDAX

    3.434,62
    -22,67 (-0,66%)
     
  • SDAX

    15.117,32
    -80,05 (-0,53%)
     
  • Nikkei 225

    38.946,93
    -122,75 (-0,31%)
     
  • FTSE 100

    8.420,01
    -4,19 (-0,05%)
     
  • CAC 40

    8.131,52
    -64,44 (-0,79%)
     
  • Nasdaq Compositive

    16.787,26
    -7,61 (-0,05%)
     

Studie zeigt: Darum solltet ihr keine Nachrichten von Chat GPT an eure Freunde schicken

 - Copyright: NurPhoto / Getty Images
- Copyright: NurPhoto / Getty Images

Künstliche Intelligenz (KI) ist in vielen Bereichen des Lebens nützlich geworden, sei es beim Verfassen von E-Mails, beim Programmieren oder bei der Forschung. Wenn man sie jedoch nutzt, um Nachrichten an Freunde zu verfassen, könnte dies die Beziehung schädigen, wenn diese davon erfahren, so eine neue Studie herausgefunden.

Die Studie, die am 11. September von Forschern der Ohio State University veröffentlicht wurde, fand online statt und umfasste 208 Erwachsene, die bewerten sollten, was sie von einer KI-gestützten Nachricht hielten, die sie von einem fiktiven Freund erhielten. Dabei stellte sich heraus, dass die Teilnehmer das Gefühl hatten, dass ein Freund, der KI eingesetzt hat, sich nicht so viel Mühe gegeben hat wie ein Freund, der die Nachricht selbst geschrieben hat.

"Nachdem sie eine KI-unterstützte Nachricht erhalten haben, sind die Menschen weniger zufrieden mit ihrer Beziehung zu ihrem Freund und fühlen sich unsicherer, wo sie stehen", sagte Bingjie Liu, Hauptautorin der Studie und Assistenzprofessorin für Kommunikation an der Ohio State University. „Die Menschen wünschen sich, dass ihre Partner oder Freunde sich die Mühe machen, ihre eigene Botschaft zu formulieren, ohne Hilfe von KI oder anderen Menschen.“

WERBUNG

Im Rahmen der Studie wurde den Teilnehmern gesagt, dass sie seit Jahren eine gute Freundin namens Taylor haben und ihr eine kurze Textnachricht schreiben sollten, in der sie eines von drei Szenarien beschreiben sollten: entweder, dass sie ausgebrannt sind und Unterstützung brauchen, oder dass sie einen Ratschlag für einen Konflikt mit einem Kollegen brauchen, oder dass ihr Geburtstag bevorsteht.

Alle Teilnehmer erhielten eine Antwort von der fiktiven Taylor. Einigen wurde gesagt, dass Taylor ein KI-System benutzte, um die Nachricht zu optimieren; anderen wurde gesagt, dass ein Mitglied einer Schreibgruppe die Änderungen vornahm, und der letzten Gruppe wurde gesagt, dass Taylor ihre eigene Nachricht editierte.

Die KI-Nachrichten kamen nicht so gut an

Die meisten Teilnehmer waren der Meinung, dass die von der KI verfassten Antworten weniger angemessen waren als die von Taylor selbst geschriebenen. Sie fühlten sich auch weniger unsicher darüber, wie eng ihre Beziehung zu Taylor war, als Folge davon. Interessanterweise ergab die Studie, dass die Menschen eine von einer anderen Person verfasste Nachricht ebenso negativ bewerteten.

Das heißt, KI sollte nicht für alles eingesetzt werden, und wenn man es sich leicht macht, indem man seine Nachrichten von einem System erstellen lässt, kann das für die Beziehungen eine Katastrophe bedeuten.

"Die Menschen wollen wissen, wie viel ihr bereit seid, in Ihre Freundschaft zu investieren. Wenn sie das Gefühl haben, dass ihr Abkürzungen nehmt, indem ihr KI zur Hilfe nutzt, ist das nicht gut", erklärt Liu. "Setzt die Technologie nicht ein, nur weil sie bequem ist. Aufrichtigkeit und Authentizität sind in Beziehungen immer noch sehr wichtig."

Chat GPT Investition
Chat GPT Investition

Lesen Sie den Originalartikel auf Business Insider