YouTube Screenshot
Dieser Test zeigt, warum man sich nicht auf den Autopiloten verlassen darf

Dieser Test zeigt, warum man sich nicht auf den Autopiloten verlassen darf

„Das ist ein Beispiel dafür, was passiert, wenn sich die Menschen zu sehr auf das Autopilot-System verlassen“: Dieser Test zeigt ein alltägliches Szenario, mit dem Teslas Autopilot überfordert ist.

Zuletzt aktualisiert am 31.03.2021

Irgendwann wird der menschliche Fahrer hinter dem Steuer eines Autos wohl überflüssig werden. Daran wird zumindest auf Hochtouren gearbeitet. Noch ist es aber nicht so weit. Aktuell sind Systeme für teilautonomes Fahren nicht mehr als Assistenten, die trotz beeindruckender Leistungen der ständigen Überwachung durch einen Menschen bedürfen. Trotzdem passieren immer wieder Unfälle, beispielsweise mit Teslas Autopiloten. Das Problem ist, dass die Fahrer auch bei bestem Willen unweigerlich ein wenig unaufmerksam werden, wenn sie einmal Vertrauen zu dem System gefasst haben – und dann im Notfall nicht mehr schnell genug reagieren können. Immerhin funktioniert der Autopilot über weite Strecken einwandfrei, und doch kann es zu Situationen kommen, in denen der Fahrer rasch eingreifen muss. Eines dieser Szenarien, mit dem Teslas Autopilot noch überfordert ist, zeigt ein Test des britischen Unternehmens Tatcham Research.

Plötzlich auftauchendes Problem

Der Versuch zeigt ein alltägliches Szenario: Im Kolonnenverkehr ist der Autopilot problemlos in der Lage, die Spur zu halten und die Geschwindigkeit dem vorausfahrenden Fahrzeug anzupassen. Wechselt dieses Fahrzeug jedoch plötzlich vor einem stehenden Auto die Spur, kann der Autopilot den Tesla nicht mehr rechtzeitig abbremsen. Im Test von Tatcham Research kracht das Model S in das stehende „Fahrzeug“, das die Versuchsleiter im Sinne der Schadensbegrenzung durch eine aufblasbare Attrappe ersetzt haben. „Das ist ein Beispiel dafür, was passiert, wenn sich die Menschen zu sehr auf das Autopilot-System verlassen“, so Matthew Avery von Tatcham Research im Gespräch mit der BBC.

„Wollen eine klarere Definition“

Das Problem läge darin, dass die Autofahrer bei derart fortgeschrittenen Systemen unweigerlich die Kontrolle ein Stück weit abgeben – egal, wie oft Tesla und andere Unternehmen betonen, dass die volle Verantwortung immer noch beim Fahrer liegt. „Es ist ein Problem, dass die Hersteller versuchen die Technologie einzuführen, obwohl die Kunden nicht dafür bereit sind, nicht sicher sind, ob das Fahrzeug selbständig fährt oder sie noch aufmerksam bleiben müssen“, so Avery. „Wir wollen eine klarere Definition: Entweder man fährt – assistiert – oder man fährt nicht – automatisiert.“ Zur Irreführung der Fahrer würden auch Namen wie „Autopilot“ oder „ProPilot“ beitragen, die eine Autonomie des Systems suggerieren.

Kein Problembewusstsein bei Tesla

Mit den Ergebnissen des Tests konfrontiert, gab eine Tesla-Sprecherin nur das wieder, was bereits unzählige Male gesagt wurde: „Wenn der Autopilot aktiviert ist, werden die Fahrer laufend an Ihre Verantwortung erinnert, die Hände auf dem Lenkrad zu belassen und permanent die Kontrolle über das Fahrzeug zu behalten. Tesla hat immer betont, dass der Autopilot nicht vor allen Unfällen schützt. Die Sachverhalte, die Tatcham beschreibt, sollten bei korrekter Nutzung des Autopiloten kein Problem darstellen.“

US-Behörden untersuchen derzeit mehrere Unfälle mit Tesla-Fahrzeugen, bei denen das Autopilot-System eine Rolle gespielt haben könnte. Der Elektroauto-Hersteller hat angekündigt, sein System ab August um erste autonome Funktionen erweitern zu wollen.