Werbung
Deutsche Märkte geschlossen
  • DAX

    18.171,93
    -182,83 (-1,00%)
     
  • Euro Stoxx 50

    4.827,24
    -42,88 (-0,88%)
     
  • Dow Jones 30

    40.287,53
    -377,49 (-0,93%)
     
  • Gold

    2.402,80
    -53,60 (-2,18%)
     
  • EUR/USD

    1,0886
    -0,0014 (-0,13%)
     
  • Bitcoin EUR

    61.563,28
    -15,66 (-0,03%)
     
  • CMC Crypto 200

    1.391,30
    +60,41 (+4,54%)
     
  • Öl (Brent)

    80,25
    -2,57 (-3,10%)
     
  • MDAX

    25.343,43
    -244,01 (-0,95%)
     
  • TecDAX

    3.284,55
    -61,10 (-1,83%)
     
  • SDAX

    14.357,57
    -147,43 (-1,02%)
     
  • Nikkei 225

    40.063,79
    -62,56 (-0,16%)
     
  • FTSE 100

    8.155,72
    -49,17 (-0,60%)
     
  • CAC 40

    7.534,52
    -52,03 (-0,69%)
     
  • Nasdaq Compositive

    17.726,94
    -144,28 (-0,81%)
     

Helm.ai kündigt VidGen-1 an: hochmodernes generatives KI-Video für autonomes Fahren

VidGen-1: Generative AI Video Model for Autonomous Driving
VidGen-1: Generative AI Video Model for Autonomous Driving

REDWOOD CITY, Kalifornien, June 20, 2024--(BUSINESS WIRE)--Helm.ai, ein führender Anbieter von fortschrittlicher KI-Software für High-End-ADAS, autonomes Fahren L4 und Robotik, gab heute die Einführung von VidGen-1 bekannt, ein generatives KI-Modell, das hochrealistische Videosequenzen von Fahrszenen für die Entwicklung und Validierung von autonomem Fahren produziert. Diese innovative KI-Technologie folgt auf die Ankündigung von Helm.ai zu GenSim-1 für KI-generierte, beschriftete Bilder und ist bedeutend sowohl für Vorhersageaufgaben als auch für generative Simulationen.

Das generative KI-Videomodell von Helm.ai, das auf tausenden Stunden diverser Fahraufnahmen trainiert wurde, nutzt innovative Deep-Neural-Network-(DNN)-Architekturen in Kombination mit Deep Teaching – einer hocheffizienten, unbeaufsichtigten Trainingstechnologie –, um realistische Videosequenzen von Fahrszenen zu erstellen. Die Videos, die in einer Auflösung von 384 x 640, mit variablen Bildraten von bis zu 30 Bildern pro Sekunde und bis zu mehreren Minuten Länge produziert werden, können ohne Eingabeaufforderung oder mit einem einzigen Bild oder Eingangsvideo erstellt werden.

WERBUNG

VidGen-1 ist in der Lage, Videos von Fahrszenen in verschiedenen geografischen Regionen und für verschiedene Kameratypen und Fahrzeugperspektiven zu generieren. Das Modell erzeugt nicht nur hochrealistische Erscheinungen und zeitlich abgestimmte Objektbewegungen, sondern lernt und reproduziert auch menschliches Fahrverhalten, indem es die Bewegungen des eigenen Fahrzeugs und der umliegenden Verkehrsteilnehmer gemäß den Verkehrsregeln nachbildet. Das Modell simuliert realistische Videoaufnahmen verschiedener Szenarien in mehreren Städten weltweit, die urbane und vorstädtische Umgebungen, verschiedene Fahrzeuge, Fußgänger, Radfahrer, Kreuzungen, Kurven, Wetterbedingungen (z.B. Regen, Nebel), Beleuchtungseffekte (z.B. Blendung, Nachtfahrten) und sogar genaue Reflexionen auf nassen Fahrbahnen, reflektierenden Gebäudewänden und der Motorhaube des eigenen Fahrzeugs umfassen.

Videodaten sind die informationsreichste sensorische Modalität im autonomen Fahren und stammen von dem kostengünstigsten Sensor – der Kamera. Allerdings stellt die hohe Dimensionalität von Videodaten eine Herausforderung für die KI-Videoerzeugung dar. Es ist allgemein bekannt, dass es schwierig ist, bei der Videogenerierung sowohl eine hohe Bildqualität zu erreichen als auch die Dynamik einer sich bewegenden Szene präzise zu modellieren, um ein realistisches Video zu erzeugen.

„Wir haben einen technischen Durchbruch in der generativen KI für Videos erzielt und VidGen-1 entwickelt, womit wir einen neuen Maßstab im Bereich des autonomen Fahrens setzen. Die Kombination unserer Deep-Teaching-Technologie, die wir seit Jahren entwickeln, mit zusätzlicher hausinterner Innovation bei generativen DNN-Architekturen führt zu einer hocheffektiven und skalierbaren Methode zur Erstellung realistischer KI-generierter Videos. Unsere Technologie ist allgemein und kann ebenso effektiv auf autonomes Fahren, Robotik und jedes andere Gebiet der Videoerzeugung angewendet werden, ohne Änderungen vorzunehmen", sagte Vladislav Voroninski, Mitbegründer und CEO von Helm.ai.

VidGen-1 bietet Automobilherstellern erhebliche Vorteile in Bezug auf Skalierung im Vergleich zu traditionellen, nicht auf KI basierenden Simulationen, indem es eine schnelle Asset-Generierung ermöglicht und die Akteure in der Simulation mit ausgefeilten realen Verhaltensweisen ausstattet. Der Ansatz von Helm.ai reduziert nicht nur die Entwicklungszeit und -kosten, sondern schließt auch effektiv die Lücke zwischen Simulation und Realität und bietet eine äußerst realistische und effiziente Lösung, die die Anwendbarkeit simulationsbasierter Schulung und Validierung erheblich erweitert.

„Die Vorhersage des nächsten Bildes in einem Video ist vergleichbar mit der Vorhersage des nächsten Wortes in einem Satz, aber viel hochdimensionaler", fügte Voroninski hinzu. „Die Generierung realistischer Videosequenzen einer Fahrszene stellt die fortschrittlichste Form der Vorhersage für das autonome Fahren dar, da sie eine genaue Modellierung des Erscheinungsbildes der realen Welt erfordert und sowohl die Absichtsvorhersage als auch die Pfadplanung als implizite Teilaufgaben auf der höchsten Ebene des Stacks beinhaltet. Diese Fähigkeit ist für das autonome Fahren von entscheidender Bedeutung, da es beim Fahren im Wesentlichen darum geht, vorherzusagen, was als Nächstes passieren wird."

Über Helm.ai

Helm.ai entwickelt die nächste Generation von KI-Software für High-End-ADAS, autonomes Fahren L4 und Robotik. Das 2016 gegründete Unternehmen mit Sitz in Redwood City, Kalifornien, hat eine neue Art der Entwicklung von KI-Software eingeführt, um wirklich skalierbares autonomes Fahren Realität werden zu lassen. Weitere Informationen über Helm.ai, einschließlich der Produkte, des SDK und offener Karrieremöglichkeiten, finden Sie unter https://www.helm.ai/. Folgen Sie auch Helm.ai auf LinkedIn.

Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.

Originalversion auf businesswire.com ansehen: https://www.businesswire.com/news/home/20240620646756/de/

Contacts

Medienkontakt:
Satoko Nakayama
Helm.ai
press@helm.ai