Werbung
Deutsche Märkte geschlossen
  • DAX

    18.163,52
    -90,66 (-0,50%)
     
  • Euro Stoxx 50

    4.907,30
    -40,43 (-0,82%)
     
  • Dow Jones 30

    39.139,71
    +4,95 (+0,01%)
     
  • Gold

    2.335,80
    -33,20 (-1,40%)
     
  • EUR/USD

    1,0697
    -0,0009 (-0,09%)
     
  • Bitcoin EUR

    59.914,19
    -856,32 (-1,41%)
     
  • CMC Crypto 200

    1.323,76
    -36,57 (-2,69%)
     
  • Öl (Brent)

    80,70
    -0,59 (-0,73%)
     
  • MDAX

    25.296,18
    -419,58 (-1,63%)
     
  • TecDAX

    3.286,63
    -24,79 (-0,75%)
     
  • SDAX

    14.473,71
    -125,85 (-0,86%)
     
  • Nikkei 225

    38.596,47
    -36,55 (-0,09%)
     
  • FTSE 100

    8.237,72
    -34,74 (-0,42%)
     
  • CAC 40

    7.628,57
    -42,77 (-0,56%)
     
  • Nasdaq Compositive

    17.696,01
    -25,57 (-0,14%)
     

KI-Forscher wollen vor Risiken warnen dürfen

SAN FRANCISCO (dpa-AFX) -Eine Gruppe von KI-Forschern unter anderem vom ChatGPT-Erfinder OpenAI fordert das Recht ein, die Öffentlichkeit über Gefahren der Software warnen zu dürfen. Der aktuelle Schutz für Whistleblower reiche nicht aus, betonten die Experten in einem am Dienstag veröffentlichten offenen Brief. Denn dieser sei vor allem auf illegale Aktivitäten von Firmen ausgerichtet - aber bei Künstlicher Intelligenz gebe es in vielen Fällen noch keine rechtlichen Vorgaben. "Einige von uns fürchten zu Recht Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab."

Die Forscher riefen die Unternehmen mit fortgeschrittenen KI-Modellen auf, vier Grundsätze zu befolgen. Dazu gehört, den Mitarbeiter nicht negative Äußerungen über ihre Arbeitgeber zu verbieten. Jüngst wurde bekannt, dass OpenAI ehemaligen Mitarbeitern mit dem Verfall ihrer Aktienoptionen drohte, wenn sie die Firma "verunglimpfen" sollten. OpenAI-Chef Sam Altman entschuldigte sich und ließ die Klausel, von der er nichts gewusst habe, streichen. Er behauptete auch, sie sei nie angewendet worden.

Eine weitere Forderung in dem Brief ist ein Verfahren, mit dem Mitarbeiter anonym die Verwaltungsräte von Unternehmen sowie Regulierer über aus ihrer Sicht bestehende Risiken bei KI-Software informieren können. Die müssten auch die Freiheit haben, an die Öffentlichkeit zu gehen, solange es keine internen Wege gebe.

Einige KI-Experten warnen schon lange, die rasante Entwicklung Künstlicher Intelligenz könne zu autonomer Software führen, die sich der Kontrolle der Menschen entziehe. Die Folgen könnten von der Verbreitung von Falschinformation und Jobverlusten in großem Stil bis hin zur Vernichtung der Menschen reichen, heißt es oft. Regierungen arbeiten auch deswegen daran, Regeln für die Entwicklung von KI-Software aufzustellen. OpenAI gilt mit der Software hinter ChatGPT als ein Vorreiter in dem Bereich. Eine Sprecherin von OpenAI sagte der "New York Times" zu dem Brief, das Unternehmen glaube an eine wissenschaftliche Herangehensweise an Risiken der Technologie."

Vier aktuelle und zwei frühere Mitarbeiter von OpenAI schlossen sich dem Brief nur anonym an. Unter den sieben Unterzeichnern, die ihre Namen öffentlich machten, sind fünf ehemalige Beschäftigte von OpenAI und ein früherer Mitarbeiter der Google US02079K1079-Tochter DeepMind. Neel Nanda, der derzeit bei DeepMind arbeitet und zuvor beim KI-Start-up Anthropic war, betonte zugleich, dass ihm bei seinem aktuellen und früheren Arbeitgebern nichts untergekommen sei, wovor er warnen wolle.