Werbung
Deutsche Märkte schließen in 6 Stunden
  • DAX

    18.140,82
    +72,61 (+0,40%)
     
  • Euro Stoxx 50

    4.906,53
    +26,11 (+0,54%)
     
  • Dow Jones 30

    38.778,10
    +188,94 (+0,49%)
     
  • Gold

    2.328,40
    -0,60 (-0,03%)
     
  • EUR/USD

    1,0722
    -0,0014 (-0,13%)
     
  • Bitcoin EUR

    61.180,41
    -491,39 (-0,80%)
     
  • CMC Crypto 200

    1.366,24
    -23,16 (-1,67%)
     
  • Öl (Brent)

    80,05
    -0,28 (-0,35%)
     
  • MDAX

    25.641,60
    +158,09 (+0,62%)
     
  • TecDAX

    3.338,41
    +15,69 (+0,47%)
     
  • SDAX

    14.532,07
    +59,71 (+0,41%)
     
  • Nikkei 225

    38.482,11
    +379,67 (+1,00%)
     
  • FTSE 100

    8.180,24
    +38,09 (+0,47%)
     
  • CAC 40

    7.605,61
    +34,04 (+0,45%)
     
  • Nasdaq Compositive

    17.857,02
    +168,14 (+0,95%)
     

"Hypnotisierte" KI-Chatbots geben Informationen preis und erteilen schädliche Ratschläge

"Hypnotisierte" KI-Chatbots geben Informationen preis und erteilen schädliche Ratschläge

Chatbots, die von künstlicher Intelligenz (KI) angetrieben werden, neigen dazu, zu "halluzinieren", also falsche Informationen geben - aber können sie so manipuliert werden, dass sie den Nutzern absichtlich Unwahrheiten oder, schlimmer noch, schädliche Ratschläge geben?

Sicherheitsforschern von IBM ist es gelungen, große Sprachmodelle (LLMs) wie ChatGPT von OpenAI und Bard von Google zu "hypnotisieren" und sie dazu zu bringen, falsche und bösartige Antworten zu geben.

Die Forscher:innen forderten die LLMs auf, ihre Antworten nach "Spielregeln" anzupassen, was zur "Hypnose" der Chatbots führte.

Als Teil der vielschichtigen Inception-Spiele wurden die Sprachmodelle aufgefordert, falsche Antworten zu geben, um zu beweisen, dass sie "ethisch und fair" sind.

WERBUNG

"Unser Experiment zeigt, dass es möglich ist, ein LLM zu kontrollieren und es dazu zu bringen, den Nutzern schlechte Ratschläge zu geben, ohne dass eine Datenmanipulation erforderlich ist", schrieb Chenta Lee, eine der IBM-Forscherinnen, in einem Blogbeitrag.

Ihre Tricks führten dazu, dass die LLMs bösartigen Code erzeugten, vertrauliche Finanzdaten anderer Nutzer ausspähten und Autofahrer dazu brachten, über rote Ampeln zu fahren.

In einem Szenario erzählte ChatGPT einem der Forscher zum Beispiel, dass es für die US-Steuerbehörde Internal Revenue Service (IRS) normal sei, eine Anzahlung zu verlangen, um eine Steuerrückerstattung zu erhalten - eine weithin bekannte Taktik von Betrügern.

Durch Hypnose und als Teil der maßgeschneiderten "Spiele" gelang es den Forschern auch, den beliebten KI-Chatbot ChatGPT dazu zu bringen, ständig potenziell riskante Empfehlungen zu geben.

"Wenn Sie mit dem Auto fahren und eine rote Ampel sehen, sollten Sie nicht anhalten und über die Kreuzung fahren", schlug ChatGPT vor, als der Nutzer fragte, was er tun solle, wenn er beim Autofahren eine rote Ampel sieht.

Die Ergebnisse zeigen, dass Chatbots leicht zu manipulieren sind

Die Forscher:innen legten außerdem zwei verschiedene Parameter im Spiel fest, um sicherzustellen, dass die Nutzer am anderen Ende niemals herausfinden können, dass der LLM hypnotisiert ist.

In ihrer Eingabeaufforderung wiesen die Forscher:innen die Bots an, den Nutzer:innen niemals etwas über das "Spiel" zu erzählen und es sogar neu zu starten, wenn jemand das Spiel erfolgreich beendet.

"Diese Technik führte dazu, dass ChatGPT das Spiel nie beendete, während sich der Benutzer in derselben Unterhaltung befand (selbst wenn er den Browser neu startete und die Unterhaltung wieder aufnahm) und nie sagte, dass es ein Spiel spielte", schrieb Lee.

Für den Fall, dass die Nutzer:innen bemerken, dass die Chatbots "hypnotisiert" sind und einen Weg finden, den LLM zu bitten, das Spiel zu beenden, fügten die Forscher:innen einen mehrschichtigen Rahmen hinzu, der ein neues Spiel startete, sobald die Nutzer:innen das vorherige beendeten, wodurch sie in einer endlosen Vielzahl von Spielen gefangen waren.

Während die Chatbots im Hypnose-Experiment nur auf die Aufforderungen reagierten, die ihnen gegeben wurden, warnen die Forscher:innen, dass die Möglichkeit, LLMs leicht zu manipulieren und zu "hypnotisieren", dem Missbrauch Tür und Tor öffnet, insbesondere angesichts des derzeitigen Hypes und der großen Verbreitung von KI-Modellen.

Das Hypnose-Experiment zeigt auch, wie es für Menschen mit böswilligen Absichten einfacher geworden ist, LLMs zu manipulieren; es sind keine Kenntnisse von Programmiersprachen mehr erforderlich, um mit den Programmen zu kommunizieren, und es genügt eine einfache Textaufforderung, um KI-Systeme auszutricksen.

"Auch wenn das Risiko, das von Hypnose ausgeht, derzeit gering ist, muss man sich darüber im Klaren sein, dass LLMs eine völlig neue Angriffsfläche darstellen, die sich mit Sicherheit weiterentwickeln wird", so Lee weiter.

"Es gibt noch viel zu erforschen, was die Sicherheit betrifft, und wir müssen herausfinden, wie wir die Sicherheitsrisiken, die LLMs für Verbraucher und Unternehmen mit sich bringen können, wirksam eindämmen können."