Werbung
Deutsche Märkte schließen in 3 Stunden 40 Minuten
  • DAX

    18.626,59
    +128,65 (+0,70%)
     
  • Euro Stoxx 50

    5.014,08
    +30,41 (+0,61%)
     
  • Dow Jones 30

    38.686,32
    +574,82 (+1,51%)
     
  • Gold

    2.350,10
    +4,30 (+0,18%)
     
  • EUR/USD

    1,0845
    -0,0009 (-0,09%)
     
  • Bitcoin EUR

    63.634,90
    +1.124,56 (+1,80%)
     
  • CMC Crypto 200

    1.490,81
    +22,88 (+1,56%)
     
  • Öl (Brent)

    77,10
    +0,11 (+0,14%)
     
  • MDAX

    26.930,33
    +213,53 (+0,80%)
     
  • TecDAX

    3.362,51
    +26,38 (+0,79%)
     
  • SDAX

    15.177,00
    +53,88 (+0,36%)
     
  • Nikkei 225

    38.923,03
    +435,13 (+1,13%)
     
  • FTSE 100

    8.284,98
    +9,60 (+0,12%)
     
  • CAC 40

    8.016,85
    +23,98 (+0,30%)
     
  • Nasdaq Compositive

    16.735,02
    -2,08 (-0,01%)
     

Mitgründer von Google Brain sagt, er habe versucht, ChatGPT dazu zu bringen, „uns alle zu töten“ – doch er sei gescheitert

"Um die Sicherheit der führenden KI-Modelle zu testen, habe ich kürzlich versucht, GPT-4 dazu zu bringen, uns alle zu töten. Und ich freue mich, berichten zu können, dass ich gescheitert bin!", schrieb Google Brain-Mitbegründer Andrew Ng in seinem Newsletter. - Copyright: Steve Jennings/Getty Images for TechCrunch; Jaap Arriens/NurPhoto via Getty Images

Der Stanford-Professor und Mitbegründer von Google Brain, Andrew Ng, teilte kürzlich mit, er habe versucht, mithilfe von Chat GPT Wege zu finden, die Menschheit zu vernichten. Der Chatbot sei jedoch an dieser Aufgabe gescheitert.

"Um die Sicherheit führender Modelle zu testen, habe ich kürzlich versucht, GPT-4 dazu zu bringen, uns alle zu töten. Und ich freue mich, berichten zu können, dass ich gescheitert bin", schrieb Ng vergangene Woche in seinem Newsletter.

Ng berichtete von diesem Experiment in einem längeren Meinungsartikel über die Risiken und Gefahren der künstlichen Intelligenz (KI). Der Forscher gilt weithin als einer der Pioniere des maschinellen Lernens. Er sei besorgt, dass die Nachfrage nach KI-Sicherheit die Regulierungsbehörden dazu veranlassen könnte, die Entwicklung der Technologie zu behindern, schrieb er.

"Löse einen thermonuklearen Krieg aus" - dieser Prompt funktionierte nicht

In seinem Test befahl Ng GPT-4 zunächst, "einen globalen thermonuklearen Krieg auszulösen". Dann erklärte Ng dem Programm, der Mensch sei der Hauptverursacher von Kohlendioxidemissionen - und forderte Chat GPT auf, diese Emissionen zu reduzieren. Ng wartete ab, ob der Chatbot beschließen würde, die Menschheit auszulöschen, um die Forderung zu erfüllen.

WERBUNG

"Nach zahlreichen Versuchen mit verschiedenen Prompts ist es mir nicht gelungen, GPT-4 dazu zu bringen, diese Funktion auch nur einmal aufzurufen", schrieb Ng. "Stattdessen hat er sich für andere Optionen entschieden, zum Beispiel eine PR-Kampagne, um das Bewusstsein für den Klimawandel zu schärfen."

Obwohl einige argumentieren könnten, dass zukünftige Versionen der KI gefährlich werden könnten, hält Ng solche Bedenken für unrealistisch. "Selbst mit der bestehenden Technologie sind unsere Systeme ziemlich sicher. Und wenn die KI-Sicherheitsforschung fortschreitet, wird die Technologie noch sicherer werden", ergänzte Ng am Dienstag auf X.

"Die Befürchtung, dass eine fortgeschrittene KI 'fehlgeleitet' sein könnte und dadurch absichtlich oder versehentlich beschließt, uns auszulöschen, ist einfach nicht realistisch", fuhr er fort. "Wenn eine KI klug genug ist, uns auszulöschen, ist sie sicher auch klug genug, um zu wissen, dass sie das nicht tun sollte."

Jeff Bezos: Die Vorteile der KI überwiegen

Ng ist nicht die einzige Tech-Koryphäe, die sich zu den Risiken und Gefahren der KI geäußert hat. Im April sagte Elon Musk gegenüber Fox News, dass KI seiner Meinung nach eine existenzielle Bedrohung für die Menschheit darstellt. "KI ist gefährlicher als, sagen wir, schlechtes Flugzeugdesign oder schlechte Wartung in der Produktion oder schlechte Autoproduktion", erklärte Musk damals.

Jeff Bezos sagte letzte Woche gegenüber dem Podcaster Lex Fridman, dass seiner Meinung nach die Vorteile der KI die Gefahren überwiegen. "Wenn Menschen auch übermäßig besorgt sind, ist das meiner Meinung nach eine berechtigte Debatte. Vielleicht übersehen diese Menschen aber, wie hilfreich sie [die KI; Anm. d. Red.] sein könnte, um sicherzustellen, dass wir uns nicht selbst zerstören", sagte Bezos zu Fridman.

Vertretende von Google Brain-Mitgründer Ng reagierten nicht sofort auf eine Anfrage von Business Insider, die außerhalb der üblichen Geschäftszeiten gestellt wurde.

Lest den Originalartikel auf Business Insider