Wie zuverlässig sind autonome Fahrzeuge

Screenshot jalopnik.com

An selbstfahrenden Autos wird intensive Forschung getrieben und Fahrzeuge ohne Lenkrad sollen die angestrebte Zukunft sein. Dabei sind vergleichbare autonome Systeme schon lange im Einsatz und die Erfahrungen auf diesen Gebiet lassen die Technik in keinen euphorischen Licht erscheinen.

>>WinFuture<<

„Chiphersteller Nvidia und Automobilzulieferer Continental haben eine Partnerschaft bei selbstfahrenden Autos beschlossen. Im Zentrum der Zusammenarbeit soll die Entwicklung von KI-Systemen stehen, die auch Autos ohne Pedale und Lenkräder ermöglichen. … Wie Continental auf seiner Webseite ankündigt, werden die Konzerne künftig eng zu­sam­men­arbeiten um Fahrzeuge auf der Plattform Nvidia Drive Xavier zu entwickeln. „Die Systemlösung für selbstfahrende Fahrzeuge wird die Erfahrung von Continental im Bereich System- und Software-Engineering für Sicherheitssysteme mit ASIL Stufe D – höchste Be­wer­tungs­stufe – nutzen und eine Reihe von Sensortechnologien, wie Radar, Kamera und High-Resolution 3D LIDAR von Continental integrieren“, so die Continental-Pres­se­mit­teilung. Nvidia engagiert sich seit Jahren intensiv mit der für autonomes Fahren essentiellen künst­li­chen Intelligenz.“

 

 

>>Nächste Ausfahrt Zukunft: Geschichten aus einer Welt im Wandel von Ranga Yogeshwar (Buch) <<

„Nach einer kurzen Einweisung geht es raus aus der Innenstadt von Hannover auf die Autobahn A7 in Richtung Hildesheim. Zwischen Frank und mir leuchtet ein großes Computerdisplay. Der Kofferraum des Prototyps ist derart gespickt mit Elektronik, dass nicht das kleinste Gepäckstück noch hineinpassen würde. Eine Schar von Abstands- und Radarsensoren, Laserscannern und diversen Kameras erfasst ständig das Umfeld, berechnet die Bahn sich bewegender Objekte, entschlüsselt Hindernisse und steuert so das Testfahrzeug. Zunächst fahre ich im manuellen Modus bis zur Autobahnauffahrt. Wenige Momente später betätige ich gleichzeitig zwei Knöpfe am Lenkrad. Das feine LED-Band entlang der Frontscheibe leuchtet grün auf, und das Lenkrad zieht sich zurück. Ich lasse es los und nehme die Füße von den Pedalen. Der Wagen hält zunächst Spur, bei Tempo 130, und beginnt dann den vorausfahrenden Lkw zu überholen. Der Wagen aktiviert den Blinker, und es folgt ein gespenstisches Überholmanöver. Ich verfolge angespannt die Lenkradbewegung und blicke immer wieder in den Rückspiegel. Dabei spüre ich eine Verkrampfung, wie sie auch Eltern beschleicht, wenn ihre Kinder beim begleiteten Fahren am Steuer sitzen. Dieses Einfahren ist wahrscheinlich für die Eltern stressiger als für die Kinder, und es braucht Zeit, bis sich Vertrauen einstellt. »Entspann dich«, meint Frank, »das klappt schon.« Der Wagen schließt den Überholvorgang ab und reiht sich wieder auf der rechten Spur ein. Ich merke, dass ich die ganze Zeit in Wartestellung verharrt hatte, um im Notfall schnell selbst einzugreifen. Wie kann man sich sicher sein, dass die Sensoren ihr Umfeld auch richtig interpretieren? Ungünstige Sonnenreflexe könnten den Sensor blenden, ein scheinbares Hindernis vortäuschen und zu einer Vollbremsung führen. Was, wenn das Hindernis farblich kaum vom Hintergrund zu unterscheiden ist? Würde der Wagen es übersehen? Wenige Monate später kollidiert ein selbstfahrendes Tesla-Auto mit einem quer abbiegenden Lkw. Die Seitenwand des Lastwagens war weiß, und womöglich war der Kontrast zum hellen Himmel zu gering, um von den Sensoren erkannt zu werden und eine Notbremsung einzuleiten. Offiziell, so erfahre ich, sei der Fahrer Schuld, da er zu schnell fuhr.“

 

>>Zeit<<

„Bei dem Unfall war Anfang Mai 2016 der 40-jährige Fahrer des Tesla ums Leben gekommen, als sein vom Autopilot gesteuertes Auto unter einen Lastwagenanhänger raste, der die Straße überquert hatte. Zwar habe der Lkw-Fahrer ihm die Vorfahrt genommen, befanden die NTSB-Ermittler. Zugleich habe sich der Tesla-Fahrer jedoch zu sehr auf den Fahrassistenten verlassen und den Verkehr nicht beachtet, ohne dass der Fahrassistent eingriff. Tesla schreibt grundsätzlich vor, dass der Fahrer beim Autopiloteinsatz stets den Überblick über die Situation behalten müsse. Tesla versicherte als Reaktion auf die Untersuchungsergebnisse, die Empfehlungen der Ermittler zu prüfen. Man werde aktuelle und künftige Kunden auch weiterhin „extrem deutlich“ darauf hinweisen, dass sie auch bei eingeschaltetem Fahrassistenten stets aufmerksam bleiben müssten. Tesla verschärfte nach dem Unfall die Sicherheitsvorkehrungen und machte es unmöglich, die Hände für einen längeren Zeitraum vom Lenkrad zu nehmen.“

Der tödliche Unfall mag tragisch sein, aber bei genauen Hinsehen, entpuppt sich der bedauerliche Einzelfall, eher als eine Art neuzeitliches Massenphänomen. An Berichten von Beinaheunfällen herrscht offensichtlich kein Mangel. Autonome Systeme haben sicherlich ihre Vorzüge, ein Autopilot bei einer monotonen Autobahnfahrt macht die Fahrt erheblich leichter und sicherer. Aber zugleich nimmt die Komplexität solcher Fahrzeuge enorm zu und kommt es zu einen Unfall, wird schnell die Schuld einseitig den Fahrer zugeschoben. Allein schon deshalb, weil die Hersteller vor negativer Berichterstattung zurückschrecken. Der kommerzielle Luftverkehr ist bereits genau dort angekommen: Eine Boeing 737-800 auf dem Flydubai-Flug 981 verunglückte beim Landeanflug, niemand überlebte und die Ursache war sogenanntes „menschliches Versagen„. Euphemismus, der Autopilot hatte sich bei einer schwierigen Landung abgeschaltet, die Piloten waren für diese Situation unzureichend geschult und hatten kaum Erfahrungen mit den Eigenheiten des Musters Boeing 737-800. Ähnlichkeiten beim PKW: Der Autopilot bringt den menschlichen Lenker in eine brenzlige Situation und dieser muss binnen weniger Sekunden – oder weniger – das Steuer übernehmen und retten, was womöglich gar nicht mehr zu retten ist. Auch die dazugehörigen Computerprogramme werden maßlos überschätzt. Die vielfach überzeichnete „künstliche Intelligenz“ ist in Wahrheit keine: Es sind mathematische Algorithmen, die Aufgrund vorgegebener Parameter eine Wahrscheinlichkeit errechnen und basierend auf den Ergebnissen eine Entscheidung treffen. Kommt das Programm nicht weiter, soll der menschliche Fahrer es regeln oder sein mitunter tödliches Schicksal eben akzeptieren.

 

Werbung

Loading...
Bild: nordvpn.com
Scroll Up