Werbung
Deutsche Märkte schließen in 6 Stunden 39 Minuten
  • DAX

    17.969,21
    +108,41 (+0,61%)
     
  • Euro Stoxx 50

    4.969,53
    +32,68 (+0,66%)
     
  • Dow Jones 30

    38.239,98
    +253,58 (+0,67%)
     
  • Gold

    2.317,60
    -28,80 (-1,23%)
     
  • EUR/USD

    1,0677
    +0,0020 (+0,19%)
     
  • Bitcoin EUR

    61.995,66
    +88,36 (+0,14%)
     
  • CMC Crypto 200

    1.392,79
    -21,97 (-1,55%)
     
  • Öl (Brent)

    82,81
    +0,91 (+1,11%)
     
  • MDAX

    26.561,91
    +272,18 (+1,04%)
     
  • TecDAX

    3.251,71
    +34,76 (+1,08%)
     
  • SDAX

    14.167,20
    +113,95 (+0,81%)
     
  • Nikkei 225

    37.552,16
    +113,55 (+0,30%)
     
  • FTSE 100

    8.041,95
    +18,08 (+0,23%)
     
  • CAC 40

    8.061,66
    +21,30 (+0,26%)
     
  • Nasdaq Compositive

    15.451,31
    +169,30 (+1,11%)
     

Open AI ist so besorgt über die Auslöschung der Menschheit durch KI, dass es ein Team zur Kontrolle der "Superintelligenz" zusammenstellt

Derzeit such OpenAI nach Mitarbeitern für das Team im Kampf gegen eine bedrohliche Superintelligenz. - Copyright: Beata Zawrzel/NurPhoto via Getty Images
Derzeit such OpenAI nach Mitarbeitern für das Team im Kampf gegen eine bedrohliche Superintelligenz. - Copyright: Beata Zawrzel/NurPhoto via Getty Images

Das Unternehmen Open AI, Erfinder von Chat GPT, ist extrem besorgt über die potenziellen Gefahren von Künstlicher Intelligenz (KI). Es stellt daher ein neues Team zusammen, um diese Bedrohungen zu verhindern. Das Team soll sicherstellen, dass die fortschrittlichen KI-Systeme zum Wohle der Menschen arbeiten und nicht gegen sie.

Wie ihr laut Experten KI zum Organisieren eures Alltags nutzen könnt
Wie ihr laut Experten KI zum Organisieren eures Alltags nutzen könnt

In einem Blogeintrag vom 5. Juli erklärte Open AI, dass eine "superintelligente" künstliche Intelligenz zwar noch in weiter Ferne zu liegen scheint, aber noch in diesem Jahrzehnt auf den Markt kommen könnte.

"Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird", schreiben Open-AI-Mitbegründer Ilya Sutskever und der Co-Leiter des neuen Teams, Jan Leike, in dem Blogbeitrag.

WERBUNG

Obwohl diese Technologie helfen könnte, viele der dringendsten Probleme der Welt zu lösen, könnte superintelligente KI "zur Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen", schreiben die Autoren.

Open AI sucht derzeit nach Mitarbeitern für das Team

Das neue Team heißt Superalignment. Es plant, innerhalb der nächsten vier Jahre eine KI zu entwickeln, deren Intelligenz der eines Menschen ähnelt. Sie soll in Zukunft eine superintelligente KI überwachen können. Open AI stellt derzeit Mitarbeiter für das Team ein. Laut dem Blogpost plant das Unternehmen außerdem, 20 Prozent seiner Rechenleistung für diese Forschung einzusetzen.

Der CEO von Open AI, Sam Altman, fordert seit langem, dass die Regulierungsbehörden das KI-Risiko zu einer globalen Priorität machen. Im Mai unterzeichnete Altman zusammen mit Hunderten von anderen wichtigen Persönlichkeiten aus der Tech-Branche einen offenen Brief. Dieser enthielt den Satz: "Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und eines Atomkriegs eine globale Priorität sein."

Andere wichtige Persönlichkeiten aus der Tech-Branche, darunter Elon Musk, schlugen ebenfalls Alarm, was die Regulierung der KI angeht. Musk forderte eine sechsmonatige Pause bei der KI-Entwicklung. Doch einige werteten dies als einen Trick, um aufholen zu können.

Allerdings teilt nicht jeder die Besorgnis von Open AI über künftige Probleme, die durch superintelligente KI entstehen könnten. In einem Brief, den das Distributed AI Research Institute am 31. März veröffentlichte, wiesen prominente KI-Ethiker auf konkrete und aktuelle Probleme hin, die von KI-Unternehmen derzeit verschlimmert werden.

Lest den Originalartikel auf Business Insider