Level 5 Fahrzeuge sind noch ganz weit weg
Wird es eines Tages eine Technik geben, die dafür sorgt, dass ein Auto selbstständig beschleunigt, bremst und lenkt, ohne dass ein Mensch eingreifen muss?
Das Verkehrsbild und die Art, wie wir uns fortbewegen, könnten sich mit den Roboterautos grundlegend verändern. Im Idealfall könnten wir unsere Zeit während der Autofahrt anders nutzen. Durch eine gesteigerte Fahrzeugauslastung könnten Staus reduziert und Unfälle vermieden werden, so der Anspruch an die Zukunft.
In den letzten 10 Jahren entwickelte sich eine große Euphorie, dass bald das sogenannte Roboterauto kommt. Doch diese Euphorie hat mittlerweile einige Dämpfer erhalten. Forscher in Unternehmen und Universitäten auf der ganzen Welt stießen auf neue technische Herausforderungen. Mittlerweile sind sich die Experten weitgehend einig, dass vollautomatisierte Roboterautos erst in ferner Zukunft über die Straßen fahren werden, wenn überhaupt.
Beim autonomen Fahren muss man zunächst einmal zwischen diversen Levels unterscheiden. Level 5 ist die höchste Autonomiestufe und bedeutet, dass das Fahrzeug alle Entscheidungen während der Fahrt übernimmt. Das Handelsblatt ging der Frage nach, was Roboterautos leisten müssen, welche Komponenten sie benötigen und welche Rolle die künstliche Intelligenz dabei spielt.
Level 1: Das assistierte Fahren
Auf diesem Level wird der Fahrer von Assistenzsystemen unterstützt, beispielsweise von einem Abstandsregelautomaten, der dafür sorgt, dass das Fahrzeug selbständig beschleunigt und bremst. Auch die Hinderniserkennung im toten Winkel ist eine Level-1-Funktion. Nah- und Fernbereichsradare ermöglichen die erste Stufe der Autonomie.
Level 2: Das teilautomatisierte Fahren
Bei Level 2 können Fahrassistenzsysteme Objekte, z.B. Straßenschilder, Ampeln oder die Straßenführung erkennen. Dafür benötigen sie neben Radaren eine Monokamera mit einer einfachen Objekterkennungssoftware, die auf Algorithmen basiert. Eine künstliche Intelligenz ist für Level 2 noch nicht nötig. Spurhaltesysteme nutzen zweidimensionale Bilddaten der Monokamera. Die Kombination aus Radar und Kamera ermöglicht teilautomatisiertes Fahren in Stausituationen. Das Fahrzeug kann zudem Gefahrenbremsungen durchführen. Mithilfe von Ultraschallsensoren können sich Level-2-Fahrzeuge selbständig in Parklücken manövrieren. Alle Level-2-Funktionen sind – bis auf den Parkassistenten – auf die Lenkführung beschränkt. Lenkentscheidungen können diese Autos nicht treffen.
Level 3: Das bedienungsautomatisierte Fahren – heutiger Stand
Während auf Level 1 und Level 2 der Fahrer unterstützt wird, erreichen Level-3-Fahrzeuge die Schwelle zum automatisierten Fahren. Level 3 bedeutet, dass man auf einer Autobahn längere Zeit die Hände vom Lenkrad nehmen kann und der Fahrer nur in Problemfällen eingreifen muss. Diese Fahrzeuge sind auch in der Lage, Spurwechsel vorzunehmen. Hierfür sind zusätzliche Komponenten nötig. Diese sind: Stereokameras, Lidar und künstliche Intelligenz. Stereokameras haben zwei Linsen und liefern im Gegensatz zur Monokamera dreidimensionale Bilddaten. Lidar ist die Abkürzung für „Light Detection and Ranging“, quasi eine Art Laserradar. Dabei werden statt Funkwellen Laserstrahlen ausgesendet, deren Reflektion ein dreidimensionales Lichtbild ergibt. Lidar liefert gegenüber Radaren höher aufgelöste Daten. Es kann Verkehrszeichen, Fahrbahnmarkierungen und Bewegungen, beispielsweise von Passanten, erkennen. Im Vergleich zur Kamera liefert ein Lidar auch nachts brauchbare Daten. Lidar ist das Bindeglied zwischen Radar und Kamera und gewinnt im Bereich des autonomen Fahrens immer mehr an Bedeutung, seitdem die Preise für die Komponenten sinken. Besonders stark steigen bei Level-3-Fahrzeugen die Anforderungen an die sogenannte ADCU, die Kontrolleinheit. Sie besteht aus der Rechnereinheit und der Software, die die Sensoreckdaten verarbeitet und Rückschlüsse daraus zieht. Die ADCU muss zwischen statischen und dynamischen Objekten unterscheiden. Bei den dynamischen Objekten muss die ADCU Vorhersagen treffen, in welche Richtung sich die Objekte wahrscheinlich bewegen könnten. Ab einem solchen Level wird laut Experten eine künstliche Intelligenz Sinn machen, weil komplexe Zusammenhänge entstehen und die künstliche Intelligenz die menschliche Intuition nachahmen könnte.
Level 4: Das hochautomatisierte Fahren
Erst ab Level 4 können folglich Roboterautos auch komplexe Verkehrsszenarien mit Hilfe der künstlichen Intelligenz bewältigen. Serienfahrzeuge des Levels 4 gibt es allerdings noch nicht, denn sie sind noch im Expermentierstadium. Doch die Realisierung der 4. Autonomiestufe scheitert bisher nicht nur an der Technik. Der e-Go-Mobile-Gründer Günther Schuh aus Aachen schätzt die Kosten für ein solches System auf 120.000 bis 140.000 Euro pro Fahrzeug und dies nur für die Komponenten. Je nach Hersteller würden solche Fahrzeuge mit bis zu zehn Radaren und Kameras, neun Lidar-Lasern und zwölf Ultraschallsensoren ausgestattet werden müssen. Außerdem müssen die Fahrzeuge mindestens über eine 4G-Datenverbindung verfügen, um auf hochaufgelöstes Kartenmaterial zurückgreifen zu können. Doch neben den Kosten gibt es auch bei der Software und den Prozessoren noch größere Defizite. Sogenannte Deep-Learning basierte Objekterkennung erfordert sehr viel Rechenleitung und damit auch viel elektrische Leistung und dies wahrscheinlich in einer Größenordnung von 100 bis 1.000 Watt, so der FU-Professor Göhring zum Handelsblatt. Außerdem müssen noch neue Hardwarearchitekturen entwickelt werden, um mit der künstlichen Intelligenz und gestützten Algorithmen zu arbeiten. Bis ein solcher Rechner entstanden ist, sollte es noch ein langer Weg sein.
Level 5: Das vollautomatische Fahren
„Level 5 wird es so schnell nicht geben, wie es oftmals in vielen Start-ups und größeren Unternehmen kommuniziert wird“, glaubt der FU-Professor Göhring. Zum einen fehlt es noch an künstlicher Intelligenz, die den menschlichen Fahrer ersetzen könnte und zum anderen müssten diese noch stromsparender arbeiten. Sowohl Radar als auch Lidar müssten noch größere Reichweiten erreichen. Die Lidar-Daten müssten noch höher aufgelöst sein und die Kameras müssten bei allen Licht- und Witterungsverhältnissen brauchbare Daten liefern, ohne dass die dabei anfallende Datenmenge steigt. Die Fahrzeuge müssten untereinander kommunizieren, was als V2V bezeichnet wird. Nur so könnten Roboterautos Entscheidungen anderer Roboterautos, aber auch von Fahrzeugen, die von Menschen gesteuert werden, antizipieren. Derzeit wird darüber diskutiert, ob das per WLAN oder 5G passieren soll. Darüber hinaus müssen Level-5-Fahrzeuge mit Ampeln, Schildern, Parkplätzen oder Gebäuden kommunizieren, im Fachjargon auch V2X genannt. Ampeln können zwar auch mit Kameras erfasst werden, allerdings besteht das Risiko, dass diese bei starker Sonneneinstrahlung rote Ampeln nicht erkennen. Kay Talmi von Hella Aglaia sieht noch eine weitere Hürde für Level 5: „Ich kann mir das in Städten wie Berlin nicht vorstellen. Man muss zum Teil Verkehrsregeln brechen, wenn man sich mit dem Auto durch die Städte fortbewegen möchte. Das würde ein autonomes System nicht tun. Allein aus Haftungsgründen.“ In diesem Zusammenhang möchten wir noch gar nicht an Städte wie Paris oder Rom denken, wo neben den offiziellen Fahrspuren schnell mal weitere Fahrspuren von den Fahrern neu erschaffen werden. Reichen für Level 3 ein paar Millionen Rechenoperationen pro Sekunde, geht es bei Level 5 in den Bereich der Tera-Operationen. Die Prozessoren müssten mehrere Billionen Rechenoperationen pro Sekunde verarbeiten und dies in einem Auto mit begrenzter Stromzufuhr.
Folglich müssen für Level 4 und Level 5 erst einmal die technischen und wirtschaftlichen Voraussetzungen geschaffen werden. Bis dahin scheint es aus heutiger Sicht noch ein langer Weg. Dass selbstfahrende Autos bis 2030 in nennenswertem Umfange eine Serienreife erlangen, ist zurzeit nicht zu erwarten. Andererseits sind die Unterstützungen, die der Fahrer heute durch Level 1 bis Level 3 erhält, schon ein echter Sicherheitsfortschritt.