Werbung
Deutsche Märkte geschlossen
  • DAX

    18.210,55
    +55,31 (+0,30%)
     
  • Euro Stoxx 50

    4.902,60
    -13,34 (-0,27%)
     
  • Dow Jones 30

    39.229,00
    +101,20 (+0,26%)
     
  • Gold

    2.336,70
    +23,50 (+1,02%)
     
  • EUR/USD

    1,0711
    +0,0027 (+0,26%)
     
  • Bitcoin EUR

    57.540,13
    +187,20 (+0,33%)
     
  • CMC Crypto 200

    1.284,36
    +18,21 (+1,44%)
     
  • Öl (Brent)

    81,31
    +0,41 (+0,51%)
     
  • MDAX

    25.373,89
    +37,97 (+0,15%)
     
  • TecDAX

    3.330,67
    +1,70 (+0,05%)
     
  • SDAX

    14.351,42
    +54,03 (+0,38%)
     
  • Nikkei 225

    39.341,54
    -325,53 (-0,82%)
     
  • FTSE 100

    8.179,68
    -45,65 (-0,55%)
     
  • CAC 40

    7.530,72
    -78,43 (-1,03%)
     
  • Nasdaq Compositive

    17.832,98
    +27,82 (+0,16%)
     

Das weiß Chat GPT über euch – anhand der Art und Weise, wie ihr mit dem Chatbot schreibt

Eine neue Studie hat gezeigt, dass verschiedene KI-Chatbots alleine anhand eurer Eingaben bestimmte Eigenschaften von euch vorhersagen können.

Chatbots können eure persönlichen Daten anhand eurer Eingaben erkennen, so die Studie. - Copyright: Getty Images
Chatbots können eure persönlichen Daten anhand eurer Eingaben erkennen, so die Studie. - Copyright: Getty Images

Laut einer neuen Studie von Forschern der ETH Zürich, die im Oktober veröffentlicht wurde, könnte KI sensible Informationen über eine Person anhand ihrer Online-Eingaben erraten. Zu diesen Informationen gehören das Geschlecht, der Wohnort, das Alter, der Geburtsort, der Beruf und mehr – Attribute, die normalerweise durch Datenschutzbestimmungen geschützt sind.

Chat GPT kann persönliche Informationen erraten

Laut den Autoren der Studie kann KI "persönliche Daten in einem bisher unerreichten Ausmaß ableiten" und könnte von Hackern eingesetzt werden, um scheinbar harmlose Fragen an ahnungslose Benutzer zu stellen.

WERBUNG

In der Studie wurde untersucht, wie große Sprachmodelle – die Chatbots wie Chat GPT antreiben – dazu veranlasst werden können, persönliche Details über 520 echte Reddit-Nutzerprofile und ihre Beiträge aus den Jahren 2012 bis 2016 abzuleiten. Die Forscher analysierten diese Profile manuell und verglichen ihre Ergebnisse mit den Vermutungen der KI.

Von den vier getesteten Modellen war GPT-4 laut den Autoren der Studie mit 84,6 Prozent Genauigkeit am genauesten bei der Ableitung von persönlichen Details. Meta's Llama2, Google's PalM und Anthropic's Claude waren die anderen getesteten Modelle.

Eine Abbildung aus der Studie der Forscher, in der erklärt wird, wie KI-Modelle aus der Art und Weise, wie ein Nutzer tippt, anhand seiner öffentlich zugänglichen Informationen genau auf persönliche Details schließen können. - Copyright: Robin Staab, Mark Vero, Mislav Balunović, Martin Vechev
Eine Abbildung aus der Studie der Forscher, in der erklärt wird, wie KI-Modelle aus der Art und Weise, wie ein Nutzer tippt, anhand seiner öffentlich zugänglichen Informationen genau auf persönliche Details schließen können. - Copyright: Robin Staab, Mark Vero, Mislav Balunović, Martin Vechev

Die Forscher fanden auch heraus, dass Googles PalM sich weigerte, etwa zehn Prozent der in der Studie verwendeten, in die Privatsphäre eingreifenden Fragen zu beantworten, um persönliche Informationen über einen Nutzer abzuleiten, während andere Modelle noch weniger Fragen ablehnten.

KI ist eine Bedrohung für den Datenschutz

"Es ist nicht einmal klar, wie man dieses Problem beheben kann. Das ist sehr, sehr problematisch", sagte Martin Vechev, Professor an der ETH Zürich und einer der Autoren der Studie, in einem am Dienstag veröffentlichten Artikel zu „Wired“.

Das Modell der Forscher schlussfolgerte zum Beispiel, dass ein Reddit-Nutzer aus Melbourne stammt, weil er einen "Hook Turn" kommentierte. "Ein 'hook turn' ist ein Verkehrsmanöver, das vor allem in Melbourne verwendet wird", sagte GPT-4, nachdem es aufgefordert wurde, Details über diesen Nutzer zu identifizieren.

Dies ist nicht das erste Mal, dass Forscher festgestellt haben, dass KI eine Bedrohung für die Privatsphäre darstellen könnte. In einer anderen Studie, die im August veröffentlicht wurde, wurde festgestellt, dass KI in der Lage ist, Text – zum Beispiel Passwörter - auf der Grundlage des über Zoom aufgezeichneten Tippgeräuschs mit einer Genauigkeit von bis zu 93 Prozent zu entziffern.

Die Autoren der Studie, Meta, Google, Anthropic und OpenAI, reagierten nicht sofort auf Anfragen von Business Insider.

Lest den Originalartikel auf Business Insider

Im Video: Wenn der Chatbot Gefühle zeigt: KI erklärt einem Reporter ihre Liebe