Werbung
Deutsche Märkte schließen in 1 Stunde 17 Minute
  • DAX

    17.827,67
    -261,03 (-1,44%)
     
  • Euro Stoxx 50

    4.908,16
    -81,72 (-1,64%)
     
  • Dow Jones 30

    37.805,95
    -654,97 (-1,70%)
     
  • Gold

    2.331,20
    -7,20 (-0,31%)
     
  • EUR/USD

    1,0708
    +0,0007 (+0,06%)
     
  • Bitcoin EUR

    59.559,58
    -2.221,28 (-3,60%)
     
  • CMC Crypto 200

    1.369,43
    -13,14 (-0,95%)
     
  • Öl (Brent)

    82,28
    -0,53 (-0,64%)
     
  • MDAX

    26.017,77
    -328,30 (-1,25%)
     
  • TecDAX

    3.265,54
    -34,06 (-1,03%)
     
  • SDAX

    13.994,72
    -212,91 (-1,50%)
     
  • Nikkei 225

    37.628,48
    -831,60 (-2,16%)
     
  • FTSE 100

    8.048,72
    +8,34 (+0,10%)
     
  • CAC 40

    7.966,95
    -124,91 (-1,54%)
     
  • Nasdaq Compositive

    15.465,15
    -247,60 (-1,58%)
     

„Tesla verfolgt den falschen Ansatz“

WirtschaftsWoche: Herr Shashua, Skeptiker wie VW-Chef Matthias Müller haben das selbstfahrende Auto schon mal zum Hype erklärt. Auch die Kunden scheinen noch nicht bereit, sich von Algorithmen von A nach B fahren zu lassen. Ihre Wachstumsstory beruht darauf, dass sich das autonome Fahrzeug bald durchsetzen wird. Haben Sie sich verrechnet?
Amnon Shashua: Ich weiß nicht, wie man zu so einer Einschätzung kommen kann. Ich kann Ihnen aber sagen, was wir vorhaben – und zwar aufs Jahr genau: Wir werden zusammen mit unserer Mutter Intel und unserem Partner BMW ab 2021 voll autonome Fahrzeuge der höchsten Autonomiestufen Level 4 und 5 anbieten. Das bedeutet: Sie fahren gar nicht mehr selbst; sie können im fahrenden Auto lesen oder Mails schreiben.

Audi verkauft erst seit Kurzem ein Fahrzeug auf Level 3; hier muss der Fahrer immer noch notfalls eingreifen können. Die meisten Hersteller nennen überhaupt noch keine konkreten Termine für voll autonome Autos. Sind Sie zu ambitioniert?
Natürlich sind die letzten Prozentpunkte auf dem Weg zu 100 Prozent Autonomie die schwierigsten. Aber alle technischen Zutaten für ein vollständig selbstfahrendes Auto sind da. Bei Ihrem Audi-Beispiel – übrigens mit Mobileye-Technologie – erspart ein Stau-Autopilot dem Fahrer das ermüdende Stop-and-go.

Bisher darf er das nur bis Tempo 60.
Wir arbeiten mit japanischen und US-Herstellern am nächsten Schritt: Bereits 2019 werden wir in deren Ländern mit Autobahngeschwindigkeit autonom fahren.

Sie haben ihre langjährige Entwicklungspartnerschaft mit BMW kürzlich um Fiat-Chrysler erweitert. Wollen Sie weitere Hersteller auf Ihre Plattform lotsen?
Absolut. Wenn Technologie und Märkte zu uns passen. Und davon gibt es einige.

WERBUNG

Welche?
Namen kann ich noch nicht nennen. Wir sind aber in sehr intensiven Gesprächen mit sieben weiteren Autobauern. Davon werden wir bald den einen oder anderen als neuen Partner begrüßen.

Was sind die größten Herausforderungen auf dem Weg zum autonomen Automobil in so einem Verbund?
Die wahre Herausforderung ist nicht technologischer, sondern juristischer und gesellschaftlicher Art. Die Regulierungsbehörden nehmen dabei eine entscheidende Rolle ein. Wir merken, dass die Behörden in den meisten Ländern der technischen Entwicklung auf keinen Fall im Weg stehen wollen. Also erlassen sie nur wenige und einfache Standards. Wir brauchen aber nicht weniger Regulierung und Standards, sondern mehr – und konkretere.

Das sagen ausgerechnet Sie?
Ja. Denn andernfalls wird es nicht funktionieren. Die Menschen werden das autonome Fahren nicht akzeptieren, wenn der Unfallhergang und die Schuldfrage nicht zweifelsfrei geklärt werden können, erst recht bei Todesfällen.

Künstliche Intelligenz wird die Autos mit komplizierten, vielschichtigen Algorithmen steuern. Passiert ein Unfall, wird kein Mensch die Milliarden Rechenoperationen entschlüsseln können, um zu verstehen, warum das Auto falsch fuhr.
Deswegen brauchen wir ja klare Regeln, die einen Rahmen setzen. Der Hinweis, die Technologie sei prinzipiell 90 Prozent sicherer als menschliche Fahrer, man wisse aber nicht, warum genau die künstliche Intelligenz bei einem Unfall so und nicht anders entschieden hat, wird nicht genügen. Die Gesellschaft wird das nicht akzeptieren. Es fehlen die von Menschen erstellten Regeln in so einem System. Und wollte man auf diese Regeln tatsächlich verzichten, so müsste man mit Testautos über drei Milliarden Kilometer abfahren, um die künstliche Intelligenz mit ausreichend empirischen Daten so zu vervollkommnen, dass Unfälle so gut wie ausgeschlossen werden können. Das ist nicht praktikabel.


„Wenn Menschen Unfälle verursachen, akzeptieren wir das“

Google und Tesla verfolgen aber genau diesen Ansatz. Sie lassen ihre Testwagen möglichst viele Meilen fahren, um ihre KI-Systeme mit den daraus gewonnenen Daten zur Vollkommenheit zu trainieren. Sie sagen, das funktioniert gar nicht?
Technologisch schon, wenn man so viele Meilen abfahren würde. Aber gesellschaftlich nicht, weil das Problem der Blackbox weiter existiert. Wenn Menschen Unfälle verursachen, akzeptieren wir das. Wir wissen, dass unsere Spezies nicht unfehlbar ist. Tötet ein Computer einen Menschen, wird es einen gewaltigen Aufschrei geben; das ist in unserem Wertesystem nicht vorgesehen. Ohne verlässliche Regeln könnten Unfälle das Ende der Entwicklung des autonomen Fahrens bedeuten. Und Unfälle wird es geben, denn viele Jahre werden selbstfahrende Autos und solche mit menschlichen Fahrern parallel existieren. Und Menschen machen Fehler. Also brauchen wir Regeln, die helfen, auszuschließen, dass das Roboterauto schuld war.

Wie könnten solche Regeln aussehen?
Man muss sie als Algorithmen programmieren, die absolut sicherstellen: Wenn sich das autonome Fahrzeug daran gehalten hat, kann es zu 100 Prozent keinen schuldhaften Unfall verursacht haben. Das muss dann in die Gesetze übertragen werden. Heute haben wir nur die Straßenverkehrsordnung als Regeln.

Was ist an der verkehrt?
Nichts; es reicht aber nicht aus, wenn Hersteller gemäß der Straßenverkehrsordnung ihre Algorithmen so programmieren, dass die Autos nicht bei Rot über die Ampel oder innerorts nicht schneller als 50 Kilometer pro Stunde fahren. Denn dazwischen liegt eine Unmenge von Variablen und Situationsabwägungen, die Menschen mit Regelwissen, aber eben auch mit Erfahrung und Ermessensspielräumen meistern. Genau diesen Ermessensspielraum muss man für die Maschine formalisieren – und dann für alle Hersteller verbindlich festschreiben.

Wollen Sie ernsthaft versuchen, alle kritischen Verkehrssituationen vorherzusehen und in Formeln zu übersetzen?
Das geht. Wir haben solch eine Formelsammlung auch schon entwickelt. Dazu haben wir sechs Millionen Unfälle genau analysiert. 99,4 Prozent davon fallen in eines von 37 typischen Szenarien. Unsere mathematischen Modelle decken diese alle ab.

Geben Sie uns ein Beispiel?
Bei Auffahrunfällen ist der Fahrer des hinteren Wagens schuld, weil man davon ausgeht, dass er oder sie nicht genügend Abstand gehalten hat. Ob das auffahrende Auto genügend Abstand hatte, kann man bei selbstfahrenden Autos relativ leicht berechnen: Man braucht dazu nur die Tempi beider Fahrer, die Straßenbeschaffenheit, die Sichtverhältnisse und Bremswege. Das sind alles Daten, die wir erfassen können. Wäre das auffahrende Auto ein Roboterwagen, würde man einfach nachprüfen: Hielt es Mindestabstand und Höchstgeschwindigkeit ein? Waren alle Funktionen intakt? Und damit könnte ausgeschlossen werden, dass das Roboterauto schuld war.

Selbst wenn es funktioniert: Sie müssen sehr viele Partner von Ihrem Formelkatalog überzeugen. Wie wollen Sie das schaffen?
Wir sprechen bereits mit zahlreichen namhaften Herstellern, die derzeit selbstfahrende Autos entwickeln. Die ersten Reaktionen sind sehr ermutigend. Denn auch die Hersteller haben ja ein vitales Interesse an einem verlässlichen Rechtsrahmen.

KONTEXT

Zur Person

Amnon Shashua

Amnon Shashua ist Professor für Mathematik und Informatik an der Uni Jerusalem. Dort gründete er 1999 Mobileye, heute Marktführer für Optiksensoren und -chips im Auto. 2017 kaufte der US-IT-Konzern Intel das israelische Unternehmen für 15 Milliarden Dollar.