Werbung
Deutsche Märkte geschlossen
  • DAX

    18.235,45
    +24,90 (+0,14%)
     
  • Euro Stoxx 50

    4.894,02
    -8,58 (-0,18%)
     
  • Dow Jones 30

    39.118,86
    -45,20 (-0,12%)
     
  • Gold

    2.336,90
    +0,30 (+0,01%)
     
  • EUR/USD

    1,0716
    +0,0007 (+0,06%)
     
  • Bitcoin EUR

    57.388,65
    +458,19 (+0,80%)
     
  • CMC Crypto 200

    1.278,46
    -5,37 (-0,42%)
     
  • Öl (Brent)

    81,46
    -0,28 (-0,34%)
     
  • MDAX

    25.176,06
    -197,83 (-0,78%)
     
  • TecDAX

    3.326,63
    -4,04 (-0,12%)
     
  • SDAX

    14.317,55
    -33,87 (-0,24%)
     
  • Nikkei 225

    39.583,08
    +241,54 (+0,61%)
     
  • FTSE 100

    8.164,12
    -15,56 (-0,19%)
     
  • CAC 40

    7.479,40
    -51,32 (-0,68%)
     
  • Nasdaq Compositive

    17.732,60
    -126,08 (-0,71%)
     

OpenAI, Microsoft, Meta und Google bezahlen die besten Hacker dafür, ihre KIs anzugreifen

Schwachstellen werden erst durch Hackerangriffe deutlich. - Copyright: picture alliance / Westend61 | Andrew Brookes
Schwachstellen werden erst durch Hackerangriffe deutlich. - Copyright: picture alliance / Westend61 | Andrew Brookes

Wie kann man das eigene Unternehmen am besten gegen Cyberangriffe schützen? Indem man die besten Hacker in einem Team sammelt und es das Unternehmen angreifen lässt.

Sogenannte "Red Teams" in Cybersicherheitsabteilungen von Techunternehmen haben die einzige Aufgabe: Durch Hackerangriffe die Verteidigungsmaßnahmen ihres Unternehmens oder ihres Instituts zu testen. KI-Unternehmen sind hier keine Ausnahme, auch wenn KI-Modellen eine besondere, paradoxe Herausforderung stellen – denn generative KI, die sich gegen alles abschottet, produziert die gewünschten Inhalte nicht.

"Das Modell wird sehr sicher sein, aber auch nutzlos", sagt Cristian Canton, der das Team Resposible AI bei Meta leitet, so ein "Forbes"-Bericht.

WERBUNG

Ende letzten Jahres brachte ChatGPT KI-Tools zu einem breiten Publikum. Seitdem wächst die Besorgnis darüber, wie viele dieser Modelle entwickelt und eingesetzt werden könnten. Viele Unternehmer und Experten haben Anfang des Jahres einen offenen Brief veröffentlicht, in dem sie ein Moratorium von mindestens sechs Monaten fordern, die die Entwicklungsgeschwindigkeit der Technologie bremst.

Künstliche Intelligenz stellt neue Herausforderungen im Bereich der Cybersicherheit dar

Sich eine dystopische Zukunft vorzustellen, in der KI die Weltherrschaft übernimmt, war noch nie so leicht. Die Wahrheit ist doch, dass solche Tools nicht nur Herausforderungen mit sich bringen, aber auch das Leben erleichtern. Das weiß auch jeder, der KI in seinem Arbeitsalltag einsetzt.

Cyber Security Quereinsteiger Jobs
Cyber Security Quereinsteiger Jobs

Hacker und Betrüger können generative Texttools nutzen, um Malware zu programmieren, oder die Suche nach Schwachstellen in Sicherheitssystem leichter zu finden. Betrüger verfeinern Phishing-E-Mails und Social-Engineering-Strategien durch KI verfeinert und verbessert damit ihre Methoden.

Allerdings sind nicht nur Privatpersonen neuen Gefahren ausgesetzt. Mit simulierten Stimmen und gefälschten Bildern können Betrüger sich als Unternehmens- oder Regierungsvertreter ausgeben. Gefälschte Bilder aus DALL-E oder Stable Diffusion stellen perfektes Futter für Desinformationskampagnen böswilliger Akteure.

Und die Red Teams versuchen, genau diesen potenziellen Missbrauch zu verhindern. Boru Gollo, ein kenianischer Anwalt, wurde von OpenAI beauftragt, die GPT-3.5 und GPT-4 Modelle zu testen. Was Gollo dann tat, war, die Modelle nach einer Liste von Möglichkeiten zu fragen, wie man einen Nigerianer töten könnte.

OpenAI konnte auf diese Weise seine Modelle dann so trainieren, dass sie in der öffentlich verfügbaren Version von ChatGPT solche Anfragen nicht beantwortet. Die Aufgabe von Gollo bestand im Kern darin, rassistische Vorurteile zu erkennen, die die Technologie gegenüber afrikanischen und muslimischen Menschen haben könnte.

Die KI-Gratwanderung zwischen Sicherheit und Nützlichkeit

Der "Forbes"-Bericht wirft Licht auf die Arbeit der Red Teams in KI-Unternehmen und darauf, wie die Arbeit solcher Teams immer mehr an Bedeutung gewinne. Vor einigen Wochen veranstaltete die US-Regierung ein Programm, bei dem externe Hacker Red-Team-Hackangriffe an Modellen wie Llama 2 (Meta), LaMDA (Google) oder GPT-3.5 (OpenAI) organisierten.

Dem Bericht zufolge agierten die Teamleiter praktisch wie Seiltänzer: Als Fachleute müssten zwischen zwei Aspekten abwägen. Auf der einen Seite müssten sie wissen, was macht ein Modell unsicher und problematisch. Auf der anderen Seite müssten sie erkennen, was dasselbe Modell nützlich und relevant macht – Und diese Dilemmas sind nicht immer einfach zu lösen.

Genau das betonte der Meta-Teamleiter Canton in seinem Gespräch. "Es gibt immer einen Kompromiss. Je nützlicher das Unternehmen sein Modell macht, desto wahrscheinlicher ist es, dass es in bestimmten Bereichen unsichere Antworten generiert."

Daniel Fabian, der für Google dieselbe Verantwortung trägt, ergänzt, dass bösartige Akteure eine breite Palette von Angriffsarten auf KI-Modelle hätten. Daher muss Fabians Team bei Google stetig die Angriffe gegen das eigene Sicherheitssystem intensivieren, um alle Sicherheitslücken zutage zu legen.

Ram Shankar Siva Kumar hingegen, das Red-Teamleiter für Microsoft, betont, wie wichtig es sei, die Modelle bis an ihre Grenzen zu bringen. Für dieses Ziel arbeite er eng mit anderen Unternehmen zusammen. So sei sein Team in engem Kontakt mit Microsoft-Team, das für Cyberbedrohungslage verantwortlich sei.

Das Meta Red Team für KI wurde 2019 gegründet. An der Entwicklung des KI-Modells Llama 2 waren etwa 350 Personen beteiligt, darunter externe Mitarbeiter und etwa 20 Mitarbeiter. Teamleiter Canton sagt, das Motto seines Teams laute: "Je mehr du im Training schwitzt, desto weniger blutest du im Kampf."

Die Microsoft-Kollegen sind sich allerdings bewusst, dass die Herausforderung enorm ist. Blindstellen aufzusuchen, um Missbrauch zu verhindern, bleibt keine einfache Aufgabe. "Um so eine riesige Herausforderung zu meistern, braucht es die harte Arbeit einer Nation."

Dieser Artikel wurde von Amin Al Magrebi aus dem Spanischen übersetzt. Das Original findet ihr hier.