Werbung
Deutsche Märkte geschlossen
  • Nikkei 225

    38.079,70
    +117,90 (+0,31%)
     
  • Dow Jones 30

    37.786,70
    +33,39 (+0,09%)
     
  • Bitcoin EUR

    59.580,45
    +2.056,88 (+3,58%)
     
  • CMC Crypto 200

    885,54
    0,00 (0,00%)
     
  • Nasdaq Compositive

    15.630,31
    -53,06 (-0,34%)
     
  • S&P 500

    5.015,09
    -7,12 (-0,14%)
     

Tödliche Algorithmen – Wie künstliche Intelligenz die Kriegsführung revolutioniert

Kampfroboter beeindrucken und verschrecken die Öffentlichkeit. Doch künstliche Intelligenz wird künftige Kriege auch auf subtilere Weise verändern.

Harmlos wie ein Spielzeug wirkt der nur einen Meter hohe unbemannte Raupenpanzer, wie er da auf dem Freigelände der Pariser Messe steht. Doch dann dreht er seinen Turm mit Kanone und aufmontiertem Maschinengewehr und zielt auf die Menschengruppe vor ihm. Es ist nur eine Vorführung, aber eine Kanone bleibt eine Kanone. Und so gehen alle vorsichtshalber einen Schritt zur Seite.

Auf dem Stand von Nexter bei der internationalen Pariser Waffenmesse Eurosatory ist der Roboter „Optio“ zu sehen, „die Antwort auf den operativen Bedarf zur Überwachung und für Kampfmissionen“, wirbt die mit Krauss-Maffei Wegmann verbundene französische Panzer- und Kanonenschmiede.

Optio ist Teil einer technologischen Revolution, die unsere Vorstellung vom Krieg völlig verändern wird. Der Mensch tötet nicht mehr, er lässt töten. Schwärme von Drohnen, autonome Panzer und andere Fahrzeuge sowie Roboterkrieger sind lernende Maschinen, die selbstständig Ziele suchen und auslöschen können. Schon heute sind sie technisch möglich.

Spät, vielleicht schon zu spät versucht die Politik, die Kontrolle zu bekommen. Bei den Vereinten Nationen wird über ein Verbot autonomer Waffensysteme verhandelt. Die Bundesregierung hat bereits 2015 zu Protokoll gegeben, es dürfe keine Waffen geben, die „autonom über Leben und Tod entscheiden, ohne irgendeine Möglichkeit für den menschlichen Eingriff in die Auswahl und Bekämpfung von Zielen“. Über den Einsatz tödlicher Waffen muss immer ein Mensch entscheiden, betont sie heute erneut.

WERBUNG

„Ein autonomes Waffensystem darf es nicht geben“, sagt auch Inspekteur Ludwig Leinhos vom Cyberkommando CIR der Bundeswehr. „Deshalb entwickeln wir es erst gar nicht“, heißt es in der deutschen Rüstungsindustrie. Bei KMW-Partner Nexter sieht man das anders: „Der Mensch muss immer die Entscheidung treffen, aber Verbote nützen nichts, wir sollten weiterentwickeln, sonst macht es nur der Gegner“, argumentiert Joël Morillon, der bei Nexter für Robotisierung zuständig ist.

Der überflüssige Mensch

Die Debatte zieht sich quer durch die Industrie. „Nexter geht da etwas forsch voran“, sagt ein Ex-Militär, der heute beim französischen Luftfahrt- und Rüstungskonzern Safran arbeitet und seinen Namen nicht gedruckt sehen möchte. „Ich sehe das sehr viel skeptischer, vor allem nachdem ein Mensch mit einem autonomen Auto von Uber gestorben ist und in den USA drei von Robotern erschossen wurden“, wendet der hagere Manager im Kampfanzug ein. „Stellen Sie sich mal vor, was los wäre, wenn ein Roboter in Afghanistan Menschen tötet“, fragt der frühere Gebirgsjäger.

Seiner Ansicht nach sind Zivilisten offener für autonome Waffen als Militärs: „Soldaten haben eine tiefe Abneigung dagegen, dass eine Maschine das Ziel für sie auswählt“, äußert er. Doch vor der Brust hat er einen Tablet-Computer, wie die französische Armee ihn schon heute beim „vernetzten Infanteristen“ einsetzt. Seine Hand ruht auf einem autonomen Fahrzeug, das Safran entwickelt hat.

Das Gefährt mit Elektroantrieb ist unbewaffnet. Noch. Auf dem Dach ein optisches Suchgerät und Mikrofone – die können allein am Pfeifen vorbeifliegender Geschosse erkennen, um welche Munition es sich handelt und von wo sie abgefeuert wurde. Science-Fiction wird Realität.

Man muss sich von der Vorstellung lösen, der automatisierte Krieg bestehe allein aus stählernen Kolossen. Autonome Systeme werden die taktische Planung auf dem Schlachtfeld übernehmen. „Den Krieg der Zukunft wird gewinnen, wer die digitale Wende beherrscht“, analysiert Alain Bouquin, als General im Ruhestand für das Hightech- und Rüstungsunternehmen Thales tätig. Wer Konnektivität, Big Data, künstliche Intelligenz und den Schutz vor Cyberattacken im Griff habe, behalte militärisch die Oberhand.

Das Internet der Dinge verbindet schon sehr bald Panzer, Funkstationen, Artillerie und die Ferngläser der Infanteristen, deren Pulsschlag und Herzfrequenz es in Echtzeit misst. Der Zentralcomputer führt nicht nur Informationen zusammen: Er wird dem Kommandanten im Feld auch gleich einen Schlachtplan anbieten, erwartet Bouquin. Der kann ihn bestätigen oder ablehnen. Der politischen Anforderung, der Mensch müsse entscheiden können, wäre damit Genüge getan. Doch es entsteht ein neuer Rechtfertigungszwang, das sieht auch Bouquin: Soldaten müssten künftig begründen, wieso sie klüger sein wollen als die Rechner.

„Wie auch immer, der Mensch muss in der Entscheidungsschlaufe sein“, wiederholt Bouquin das Mantra der Politik. Ein wenig wirkt das wie eine salvatorische Klausel, denn bei diesen Systemen könnte der Beitrag des Menschen irgendwann als so sinnvoll angesehen werden wie die Anwesenheit des Heizers auf der E-Lok.

Deutschland und Frankreich rüsten für den Krieg der Zukunft. Gemeinsam entwickeln sie ein „Future Combat Aircraft System“ (FCAS), das nur noch wenig mit heutigen Kampfflugzeugen gemein hätte. Das FCAS kombiniert bemannte und unbemannte Flieger. Ein Youtube-Film von Airbus Defence zeigt einen Lufttransporter A400M, der einen Kampfflieger und einen Drohnenschwarm in der Luft aussetzt. Die Drohnen liefern und analysieren Bilder, sie kreisen Ziele ein und werfen Bomben ab. Die Kontrolle hat der Pilot gemeinsam mit einer Bodenstation.

Technisch möglich wäre aber auch anderes: Die Drohnenschwärme eines FCAS könnten allein den Angriff auslösen. Thales-Experte Bouquin rechnet damit, dass Schwärme von Minidrohnen, die beobachten oder kleine Sprengladungen tragen, schon in drei Jahren zur Ausrüstung der Militärs zählen werden. Amerikanische Wissenschaftler https://www.youtube.com/watch?v=ecClODh4zYk weisen mit Videos im Netz auf die Gefahren der Technik hin, die ihre Militärs schon heute testen.

Fatale Fehler im System

Manche Experten trauen den vollmundigen Versprechen der Rüstungsindustrie bei künstlicher Intelligenz (KI) allerdings nicht. Die heutigen Fähigkeiten würden überschätzt, autonom agierten die wenigsten Systeme. „Künstliche Intelligenz bei Waffen ist ein Hype“, stellt Sandro Gaycken fest. Der Cybersicherheitsexperte der Managementhochschule ESMT berät die Bundeswehr. „In der Realität sind die Systeme noch exakt programmiert, auf was sie wie reagieren“, sagt er. Entscheiden können sie nicht.

Auch BDI-Rüstungsexperte Matthias Wachter sieht die KI in Waffen noch in einem frühen Stadium. „Die Anzahl der eingesetzten Anwendungen ist überschaubar“, sagt er dem Handelsblatt. Doch perspektivisch sei KI eine Schlüsseltechnologie für die Verteidigung, „deren Bedeutung nicht hoch genug eingeschätzt werden kann“.

Auch Gaycken meint deshalb, dass es „zu Recht Diskussionen darüber gibt, wie sicher KI-gesteuerte Waffen denn wären“. Er nennt ein Beispiel: „Die Taliban etwa schicken gern Kinder mit Funkgeräten, um Gegner auszuspionieren.“ Ein KI-gesteuertes System würde das Funkgerät als Bedrohung identifizieren und das Kind töten. „Ein Soldat würde anders handeln“, erwartet Gaycken.

Die Technik ist möglicherweise bald schon einen Schritt weiter und wird solche Einwände entkräften. In einer Halle von Eurosatory führt das deutsch-russische Start-up „Deep Eyes“ aus München seine Beobachtungssoftware vor. „Wir arbeiten nicht nur mit Gesichtserkennung, sondern filtern gesuchte Personen anhand ihrer Kleidung oder typischer Bewegungsmuster sogar aus einer großen Menschenmenge heraus“, erläutert Jan Wansink, Mitgründer von Deep Eyes.

Airbus habe für seine Drohnen Interesse an „Deep Eyes“ geäußert, sagt Wansink, der aber selbst feststellt: „Mit KI muss man sehr vorsichtig umgehen, damit kann man sehr gefährliche Dinge tun.“ In der Tat. Ersetzt man in der Technik für das Gefechtsfeld, wie Bouquin es beschreibt, die Augen des Soldaten durch Deep Eyes, hat man ein autonomes System.

Das Tempo bei der Rüstung rührt auch daher, dass zivile Anwendungen wie Personenkontrollen am Flughafen mit militärischen konvergieren. Das Perfektionsversprechen der Ingenieure ist verführerisch: „Unser System arbeitet zu 99,9 Prozent fehlerfrei“, verspricht Wansink. Dadurch wird KI schleichend in die Waffentechnik hineinwachsen.

Debatten bei Google

Experte Gaycken sieht noch ein anderes Risiko: „Ich fürchte, dass Demokratien bei KI generell im Nachteil sind.“ Ingenieure entwickelten eine Technik zwar meist für kommerzielle Zwecke, stellt er fest. Doch „in Diktaturen könnten Experten zu militärischen Verwendungen gezwungen werden – oder sie stehlen die Technik gleich bei Google“, sagt er.

Google kooperiert mit dem US-Militär. Sundar Pichai, der Chef des Internetkonzerns ruderte nach internen Protesten aber zurück: Vergangene Woche erklärte er, dass Googles KI-Technologie auf gar keinen Fall bei Waffen verwendet werden dürfe, nachdem Mitarbeiter gegen die Kooperation mit dem Militär protestiert hatten.

Pichai betonte, es gehe in dieser Kooperation um Cybersicherheit, die Ausbildung von Soldaten und die Gesundheitsversorgung von Veteranen. Auch Tesla- und Space-X-Chef Elon Musk warnte mehrfach vor autonomen Waffen: „Sie wären das Todesurteil für die Menschheit.“

Pichais Vorgänger bei Google Eric Schmidt wies während der Münchener Sicherheitskonferenz im Februar auf die Fehleranfälligkeit heutiger KI hin. Die Entscheidung über Leben und Tod dürfe man deshalb KI-Systemen auf keinen Fall überlassen.

Microsoft geht in die entgegengesetzte Richtung: Am Dienstag gab der Softwareriese bekannt, gemeinsam mit Thales ein „Cloud-System für die Streitkräfte“ zu entwickeln. Das diene „sowohl den Kommandozentren als auch dem Gefechtsfeld“.

Auch manche Politiker sind ohne Sorge. Mounir Mahjoubi, Frankreichs Staatssekretär für Digitales und enger Vertrauter des Staatspräsidenten, sagte auf der Eurosatory: „KI wird Soldaten nur mit zusätzlichen Informationen versorgen.“ Das wirkt so, als hätte er im wahrsten Sinne des Wortes den Schuss nicht gehört.