Werbung
Deutsche Märkte geschlossen
  • DAX

    18.002,02
    -263,66 (-1,44%)
     
  • Euro Stoxx 50

    4.839,14
    -96,36 (-1,95%)
     
  • Dow Jones 30

    38.589,16
    -57,94 (-0,15%)
     
  • Gold

    2.348,40
    +30,40 (+1,31%)
     
  • EUR/USD

    1,0709
    -0,0033 (-0,31%)
     
  • Bitcoin EUR

    61.766,43
    +285,29 (+0,46%)
     
  • CMC Crypto 200

    1.405,99
    -11,88 (-0,84%)
     
  • Öl (Brent)

    78,49
    -0,13 (-0,17%)
     
  • MDAX

    25.719,43
    -355,68 (-1,36%)
     
  • TecDAX

    3.353,26
    -47,31 (-1,39%)
     
  • SDAX

    14.367,06
    -256,23 (-1,75%)
     
  • Nikkei 225

    38.814,56
    +94,09 (+0,24%)
     
  • FTSE 100

    8.146,86
    -16,81 (-0,21%)
     
  • CAC 40

    7.503,27
    -204,75 (-2,66%)
     
  • Nasdaq Compositive

    17.688,88
    +21,32 (+0,12%)
     

Nach deutschem OpenAI-Manager Jan Leike: Weitere Mitarbeiterin verlässt das Unternehmen wegen Sicherheitsbedenken

 - Copyright: Win McNamee and Didem Mente/Anadolu Agency via Getty Images
- Copyright: Win McNamee and Didem Mente/Anadolu Agency via Getty Images

OpenAI sieht sich mit weiteren Turbulenzen konfrontiert: Eine weitere Mitarbeiterin hat ihren Rücktritt wegen Sicherheitsbedenken angekündigt.

Dies folgt auf die Rücktritte der hochrangigen Führungskräfte Ilya Sutskever und Jan Leike. Die leiteten das inzwischen aufgelöste Sicherheitsforschungsteam Superalignment.

Gretchen Krueger gab am Mittwoch in einem Thread auf X bekannt, dass sie den ChatGPT-Hersteller am 14. Mai verlassen hat. Sie sagt auch, dass es "keine leichte Entscheidung war".

Krueger schrieb: "Ich habe ein paar Stunden, bevor ich die Nachricht über @ilyasut und @janleike hörte, gekündigt und meine Entscheidung unabhängig getroffen. Ich teile ihre Bedenken. Ich habe auch zusätzliche und sich überschneidende Bedenken."

WERBUNG

Sie fügte hinzu, dass mehr getan werden müsse, um "die Entscheidungsprozesse, die Rechenschaftspflicht, die Transparenz, die Dokumentation, die Durchsetzung der Politik, die Sorgfalt, mit der wir unsere eigene Technologie nutzen, und die Abmilderung der Auswirkungen auf Ungleichheit, Rechte und die Umwelt zu verbessern."

Ehemalige Mitarbeitende stellen harte Anschuldigungen gegenüber OpenAI

Die ehemalige OpenAI-Mitarbeiterin sagte, dass Menschen und Gemeinschaften diese Sicherheitsbedenken teilen, die "beeinflussen können, wie und von wem Aspekte der Zukunft gestaltet werden können". Sie sollten "nicht als engstirnig, spekulativ oder unzusammenhängend missverstanden werden."

In einem anderen Beitrag schrieb sie: "Eine der Möglichkeiten, wie Tech-Unternehmen im Allgemeinen diejenigen entmachten können, die sie zur Rechenschaft ziehen wollen, besteht darin, Spaltung unter denen zu säen, die Bedenken äußern oder ihre Macht infrage stellen. Es liegt mir sehr am Herzen, dies zu verhindern."

Letzte Woche kündigte der Chefwissenschaftler und Mitbegründer Ilya Sutskever seinen Rücktritt an, gefolgt von Jan Leike, dem Geschäftsführer. Die beiden leiteten gemeinsam das Superalignment-Team. Dessen Aufgabe war es, Sicherheitsvorkehrungen zu treffen, um zu verhindern, dass künstliche Intelligenz abtrünnig wird.

Leike beschuldigte OpenAI, "glänzende Produkte" über die Sicherheit zu stellen. Er behauptete, dass das Superalignment-Team "um Rechenressourcen kämpfte" und dass "es immer schwieriger wurde, diese wichtige Forschung zu betreiben".

Die Ausstiege in dieser und in der letzten Woche folgten denen von zwei anderen Sicherheitsforschern, Daniel Kokotajlo und William Saunders. Die hatten in den letzten Monaten aus ähnlichen Gründen gekündigt. Kokotajlo sagte, er sei gegangen, nachdem er "das Vertrauen verloren hatte, dass es [OpenAI] sich in der Zeit von AGI verantwortungsvoll verhalten würde."

OpenAI reagierte nicht auf eine Anfrage von Business Insider nach einem Kommentar.

Lest den Originalartikel auf Business Insider