Werbung
Deutsche Märkte geschlossen
  • DAX

    18.235,45
    +24,90 (+0,14%)
     
  • Euro Stoxx 50

    4.894,02
    -8,58 (-0,18%)
     
  • Dow Jones 30

    39.118,86
    -45,20 (-0,12%)
     
  • Gold

    2.336,90
    +0,30 (+0,01%)
     
  • EUR/USD

    1,0716
    +0,0007 (+0,06%)
     
  • Bitcoin EUR

    56.830,75
    +621,60 (+1,11%)
     
  • CMC Crypto 200

    1.266,46
    -17,37 (-1,35%)
     
  • Öl (Brent)

    81,46
    -0,28 (-0,34%)
     
  • MDAX

    25.176,06
    -197,83 (-0,78%)
     
  • TecDAX

    3.326,63
    -4,04 (-0,12%)
     
  • SDAX

    14.317,55
    -33,87 (-0,24%)
     
  • Nikkei 225

    39.583,08
    +241,54 (+0,61%)
     
  • FTSE 100

    8.164,12
    -15,56 (-0,19%)
     
  • CAC 40

    7.479,40
    -51,32 (-0,68%)
     
  • Nasdaq Compositive

    17.732,60
    -126,08 (-0,71%)
     

Das sind die drei größten Ängste vor KI – und wie besorgt ihr darüber wirklich sein solltet

Warnings about the potential dangers of advanced AI are on the rise. - Copyright: Malte Mueller/Getty Images
Warnings about the potential dangers of advanced AI are on the rise. - Copyright: Malte Mueller/Getty Images

Experten von Künstlicher Intelligenz halten die Technologie für genauso gefährlich wie einen Atomkrieg oder eine weltweite Pandemie. Einige der frühen Erfinder der KI haben gar gesagt, dass wir kopfüber auf die Zerstörung der Menschheit zusteuern, während andere behaupten, dass eine Regulierung dringend erforderlich ist.

Während die Gesetzgeber der Regulierung der Technologie immer näher kommen, werden einige dieser Warnungen von prominenten Stimmen aus der Branche als falsch abgetan.

Kein Wunder, dass es schwerfällt, zwischen all dieser vagen Aussagen den Überblick zu behalten. David Krueger, KI-Experte und Assistenzprofessor an der Universität Cambridge, erklärte gegenüber Business Insider, dass man sich zwar klar benannte Risiken der KI wünsche. Es sei aber immer noch schwierig, diese mit Gewissheit zu benennen. "Ich denke, wir haben nicht viel Zeit, um uns auf potenzielle künftige Bedrohungen vorzubereiten", sagte er.

WERBUNG

Hier sind einige der potenziellen Probleme, über die sich Experten Sorgen machen.

1. Eine KI-Übernahme

Eines der am häufigsten genannten Risiken besteht darin, dass die Künstliche Intelligenz der Kontrolle ihrer Schöpfer entgleitet.

Künstliche allgemeine Intelligenz (KI) bezieht sich auf KI, die in einem breiten Spektrum von Aufgaben genauso intelligent oder intelligenter ist als der Mensch. Derzeitige KI-Systeme sind nicht empfindungsfähig, aber sie werden so geschaffen, dass sie dem Menschen ähneln. ChatGPT zum Beispiel wurde entwickelt, um den Benutzern das Gefühl zu geben, mit einer anderen Person zu chatten, so Janis Wong vom Alan Turing Institute.

Experten sind sich uneinig darüber, wie AGI (Artificial General Intelligence) genau zu definieren sind. Sie stimmen aber im Allgemeinen darin überein, dass die potenzielle Technologie Gefahren für die Menschheit birgt, die erforscht und reguliert werden müssen.

Das offensichtlichste Beispiel für diese Gefahren ist laut Krueger der militärische Wettbewerb zwischen Nationen: "Der militärische Wettbewerb mit autonomen Waffen - Systemen, die von ihrer Konstruktion her in der Lage sind, die physische Welt zu beeinflussen und Schaden anzurichten - macht deutlich, wie solche Systeme am Ende viele Menschen töten könnten", sagte er.

"In einem totalen Kriegsszenario, das von KI angetrieben wird, in einer Zukunft, in der wir fortschrittliche Systeme haben, die intelligenter sind als Menschen, halte ich es für sehr wahrscheinlich, dass die Systeme außer Kontrolle geraten und infolgedessen alle Menschen töten könnten", fügte er hinzu.

2. KI verursacht Massenarbeitslosigkeit

Es gibt einen wachsenden Konsens darüber, dass KI eine Bedrohung für einige Arbeitsplätze darstellt. Abhishek Gupta, Gründer des Montreal AI Ethics Institute, bezeichnete die Aussicht auf KI-bedingte Arbeitsplatzverluste als die "realistischste, unmittelbarste und vielleicht dringlichste" existenzielle Bedrohung.

"Wir müssen uns mit der Sinnlosigkeit befassen, die die Menschen bei einem massenhaften Verlust von Arbeitsplätzen empfinden würden", sagte er gegenüber Business Insider: "Der existenzielle Teil davon ist die Frage, was die Menschen tun werden und woher sie ihren Sinn nehmen werden."

"Das heißt nicht, dass Arbeit alles ist, aber sie macht einen großen Teil unseres Lebens aus", fügte er hinzu.

CEOs fangen an, offen über ihre Pläne zur Nutzung von KI zu sprechen. So kündigte IBM-CEO Arvind Krishna kürzlich an, dass das Unternehmen die Einstellung von Mitarbeitern, die durch KI ersetzt werden könnten, verlangsamen werde. "Vor vier oder fünf Jahren hätte niemand etwas Ähnliches gesagt und wäre ernst genommen worden", sagte Gupta über IBM.

3. KI-Voreingenommenheit

Wenn KI-Systeme eingesetzt werden, um Entscheidungen in der Gesellschaft zu treffen, kann systematische Voreingenommenheit zu einem ernsthaften Risiko werden. Das sagten Experten zu Business Insider.

Es hat bereits mehrere Beispiele für Voreingenommenheit in generativen KI-Systemen gegeben. Darunter auch frühe Versionen von ChatGPT. OpenAI hat beispielsweise weitere Leitplanken hinzugefügt, um ChatGPT zu helfen, problematische Antworten von Nutzern zu vermeiden, die das System nach anstößigen Inhalten fragen.

Generative KI-Bildmodelle können zudem schädliche Stereotypen erzeugen. Wenn es Fälle von unerkannter Voreingenommenheit in KI-Systemen gibt, die dazu verwendet werden, Entscheidungen in der realen Welt zu treffen, zum Beispiel bei der Bewilligung von Sozialleistungen, könnte dies schwerwiegende Folgen haben, so Gupta.

Die Trainingsdaten basieren oft auf vorwiegend englischsprachigen Daten, und die Mittel für das Training anderer KI-Modelle mit anderen Sprachen sind laut Wong begrenzt. "Es gibt also eine Menge Leute, die ausgeschlossen sind, oder bestimmte Sprachen werden weniger gut trainiert als andere Sprachen", sagte sie.

Lesen Sie den Originalartikel auf Business Insider