Tödlicher Autopilot-Unfall aus 2016: Fahrer erhielt mehrere Warnungen vom System

Im Mai letzten Jahres ist es in den USA zu einem tödlichen Unfall in einem Tesla Model S gekommen, bei dem die Autopilot-Funktion eingeschaltet war. Seither wird dieser Unfall als erster tödlicher Unfall mit eingeschaltetem Autopiloten angesehen. Die Ermittlungen haben jedoch ergeben, dass nicht der Autopilot, sondern der Fahrer, Joshua Brown, schuld am Unfall war.

Nun wurden am Montag weitere Details bekannt (via Reuters), die erneut belegen, dass Brown fahrlässig gehandelt hat. Wie es heißt, habe er während einer 37-minütigen Periode die Hände nur für insgesamt 25 Sekunden am Lenkrad gehabt, obwohl ihm das Autopilot-System mehrmals visuell und akustisch darauf hingewiesen hatte, die Hände am Lenkrad zu belassen.

Insgesamt soll es sechs Mal ein akustisches Signal gegeben haben, bei dem Brown aufgefordert wurde, die Hände am Lenkrad zu belassen. Dies tat er auch immer wieder für eine bis drei Sekunden, damit das System das wahrnimmt und das Signal bis zur nächsten Warnmeldung verstummt.

Tesla hat im September letzten Jahres mit dem Firmware-Update 8.0 einige Restriktionen bei der Nutzung des Autopiloten eingebaut, die einen solchen Unfall womöglich hätten verhindern können. Unter anderem wird der Autopilot langsam automatisch deaktiviert und bleibt bis zum nächsten Fahrzeugstillstand abgeschaltet, wenn der Fahrer auf Warnhinweise und -signale nicht reagiert.

  • Matthias Knuth

    Leider wird diese Meldung in unserer Presse nicht abgedruckt. Bei den Unentschlossenen und den Gegnern bleibt nur der tödliche Unfall mit Autopilot im Gedächtnis. Die Ursachen und Zusammenhänge werden leider nicht hinterfragt.

    • Dirk Pakosch

      z.B. in den Onlineausgaben vom Handelsblatt und N-TV gibt es Artikel darüber.

  • Mannhofer

    Hallo zusammen,
    ich habe beim Fahren mit dem Autopilot immer eine Hand am Lenkrad. Allerdings so, dass das Lenkrad sich selber bewegen kann.
    Ich kann aber bei einem Problem sofort eingreifen.
    Allerdings erhalte ich so ja auch immer alle 50sec, dass man die Hand ans Lenkrad nehmen soll.
    Ich bewege dann ganz leicht das Lenkrad und löse danach dann den Druck von meiner Hand.
    So sieht man auch einige Teslafahrer auf Youtube, die genau so mit dem Autopiloten umgehen.
    Fahren wir so alle grob fahrlässig?
    Wenn Tesla die Logs von meinem Fahrzeug auswerten würde, würde man auch sehen, dass ich eine Strecke 2 Stunden gefahren bin und immer wieder diese Meldungen erhalten habe.
    Allerdings verstehe ich dann nicht den Sinn vom Autopilot. Wenn ich beide Hände komplett am Lenkrad lassen würde und ich komplett mitlenken würde, fällt der Autopilot auch immer wieder raus.

    • Gerhard

      Klar – Du bekommst eine visuelle Meldung. Und reagierst. Mache ich auch so.
      In dem oben beschriebenen Fall hat der Fahrer aber die visuellen Meldungen ignoriert und nur auf die akkustischen Meldungen reagiert. D.h. er war vermutlich deutlich abgelenkt.

  • Sonntagskuchen

    Ich finde diese Meldung nicht unbedingt beruhigend. Es ist nur klar, dass das Fahrzeug den Fahrer die Info gegeben hat: halte das Lenkrad bitte fest.

    Ich denke, viele Teslafahrer kennen diese Situation , oder? Siehe Kommentar von Mannhofer unten.

    Ehrlich gesagt kommt ein Autopilot für mich in der jetzigen Entwicklungsphase nicht in Frage. Und ich bleibe bei meiner Aussage, dass der Autopilot „Fahrassistenz“ heissen sollte.

    Den „Autopiloten“ zu benutzen kann ich manchen Situation ein Risiko bedeuten und ich anderen Situationen vielleicht lebensrettend sein (z.B. einschlafender Fahrer). Das sollte sich jeder Fahrer bewusst sein. Ich persönlich verzichte lieber auf den Autopiloten und bin so „gezwungen“ meine volle Aufmerksamkeit auf die Strasse zu richten. Anders sieht es aus, wenn 100% der Fahrzeuge „Autopiloten“ aufweisen. Dann würde ich mich wohl auch zurücklehnen und das Fahrzeug machen lassen. Denn dann ist das SIcherheitsrisiko Mensch ausgeschaltet.

    • ice401sbb

      Das Wort „Autopilot“ steht nirgends in der Betriebsanleitung – alle Funktionen werden klar als Assistenz-Systeme bezeichnet und klar definiert: Spur-, Kollisionsvermeidungs-, Geschwindigkeits-, Abstands-, Lenk-, Spurwechsel- und Abblendassistent. Es steht auch klar beschrieben, dass die Kamera keine Redundanz zum Kollisionsvermeidungssystem hat. Genau dieses Unwissen wurde dem Unfallfahrer zum Verhängnis – die Kamera sah den Lastwagen als Verkehrsschild, konnte es jedoch nicht als solches interpretieren und wenn doch, erfolgt lediglich je nach Land eine V-Reduktion – niemals eine Vollbremsung!
      Bei uns in der Schweiz ist die Funktion insofern inaktiv, dass das Schild korrekt gelesen wird aber der Fahrer dies bestätigen muss – wenn ich ennet dem Rhein fahre erfolgt automatisch die Länderkennung und die Schilderkennung mit automatischer V-Regelung wird aktiv.
      Weil der Lastwagen keinen wie in Europa vorgeschriebenen Unterfahrschutz besass, nahmen auch die Sensoren kein Hindernis wahr. Bis dato habe ich über 60000 km gefahren, davon sicher die Hälfte mit Fahrassistent – genau so wie Mannhofer es beschrieben hat, so kann man jederzeit korrigierend eingreifen.

      • Sonntagskuchen

        Das stimmt so nicht. Gehen Sie mal in den Konfigurator. Dort steht sehr wohl das Word „Autopilot“ und das auch mehrfach.

        Insofern halte ich hier das Marketing für zu aggressiv. Es mag sein, dass es in den Unterlagen nicht steht (habe leider noch keinen Tesla), aber auf der Homepage wird der Begriff Autopilot unmissverständlich als solcher benutzt.

        • ice401sbb

          Der Einfachheit halber wird im Konfigurator von „Autopilot“ geschrieben, es wird aber ausdrücklich darauf hingewiesen, dass einzelne Systeme noch nicht freigeschaltet sind, somit autonomes Fahren nicht möglich ist. Genaue Informationen kann und muss man im Betriebshandbuch nachlesen.
          Es wird auch bei Mercedes und BMW in deren Konfigurator von autonomen Fahren geschrieben, obwohl die Entwicklung bei diesen Herstellern bei weitem noch nicht so fortgeschrittenen ist wie bei Tesla. Das einzig konkurrenzfähige System zu Tesla habe ich bis jetzt beim Volvo XC90 und S90 kennengelernt, die wohl mit Abstand besten und komfortabelsten Fahrzeuge auf unseren Strassen – leider noch nicht vollelektrisch und sehr teuer ….

        • McGybrush

          In einer „Schwimmhalle“ ist nach der Bezeichnung nach also von aus zu gehen das man dort auch als Nichtschwimmer schwimmen kann?

          • Dirk Pakosch

            So ein schwachsinniger Vergleich

  • simons700

    Kann hier kein Fehlverhalten des Fahrer´s erkennen!
    System funktioniert ja bei allen Herstellern so, dass man immer wieder die Hände ans Lenkrad nehmen muss!
    Oder will Tesla damit sagen, der Kunde hätte die Hände am Lnkrad lassen sollen um dann eben zu reagieren wenn der Autopilot versagt?

    • Skynet

      Der Fehler war, dass Tesla immer gesagt hat, dass man die Hände am Lenkrad lassen und sich auf den Verkehr konzentrieren muss. Der „Autopilot“ sollte lediglich unterstützen.

      Trotzdem kann auch ich nicht nachvollziehen, was an der Meldung jetzt neu sein soll. Dies war doch eigentlich vorher bekannt.

    • Martin

      Manche Kommentare hier sind echt unerträglich.
      Als die Polizei am Unfallort eintraf ist auf Herrn Browns Tablet immer noch Harry Potter gelaufen! Aha das ist also kein Fehlverhalten des Fahrers, soso.
      Was lernt man in der Fahrschule? Wie man Auto fährt und nicht wie man Filme ansieht!
      Wie ist es im Flugzeug? Wer ist verantwortlich bei einem Absturz, mit aktiviertem Autopilot? Der Hersteller oder der Pilot? Das internationale Recht sagt der PILOT!
      Da ist es egal ob die Hand am Lenkrad sein muss oder nicht, der Fahrer ist für das Fahrzeug verantwortlich, egal ob mit oder ohne Autopilot.
      Wer das nicht begreifen will, hat im Straßenverkehr nichts verloren.
      Ich habe bereits meinen 2. Tesla und fahre den Autopiloten von Anfang an, es ist ein richtig gutes System um entspannt von A nach B zu kommen.
      Seit der Autopilot bei Tesla aktiviert wurde, sind die Unfälle mit Teslas um 40% (!) gesunken, darüber diskutiert leider niemand. Es wird nur der Unfall einer Person diskutiert, die die eigene Dummheit mit dem Leben bezahlen musste.

      • McGybrush

        Bin zwar Rechtlich gesehen auch auf der Seite von Assistenzsystemen glaube aber das mit dem Harry Potter ist vielleicht nur ein „Missverständnis“. Soweit bekannt ist das ja die Aussage des LKW Fahrers gewesen der sichtlich unter Shock gestanden haben wird.

        Stell Dir vor Du fährst einen LKW. Hast von Tesla wohlmöglich noch nie gehört. Dann kommst es zu diesem Unfall unter Deinem Sattelzug. Du rennst zu dem Auto ohne Dach, siehst das ganze Szenario… In der Situation siehst Du ein RIESIGEN Bildschirm auf der Irgend eine Anzeige halbwegs defekt noch flackert, hörst (Betonung liegt hier auf hören) noch irgend ein Hörspiel im Hintergrund. Da kommt man unter dem Schock schnell zu so einer Aussage die Technisch vielleicht etwas abweichend war als er wahrgenommen hat. Oder ist das mit einem Videobild und einem externen zweiten Tablet betätigt? Also ich will dem Unfallopfer quasi damit nicht unterstellen das er Fern geschaut hat sondern er aus anderen Gründen den Unfall nicht verhindert hat.

  • Melone

    Leider irgendwie ein Muster bei all diesen Unfällen – am Ende bin ich als Fahrer eh Schuld, sei es wegen fahrlässiger Behandlung des Systems oder weil sich der Autopilot laut Logs Sekunden vor dem Unfall selbst deaktiviert und damit der Fahrer wieder volle Verantwortung habe. Level 2 und L3-Autonomie bringt in der Hinsicht einen Haufen Probleme. Fahrlässig ist der Umgang mit dem System seitens der Hersteller (zu offensives Marketing und verwirrende Bezeichnungen) und vor allem der Presse und gewisser Nutzer mit Reichweite. Ich kriege jedes Mal einen Anfall, wenn ich irgendwelche Videos und Fernsehbeiträge mit Leuten sehe, die offensichtlich keine Ahnung haben und dann demonstrativ die Hände vom Lenkrad nehmen und mit irgendetwas anderem rumspielen. Und im nächsten Beitrag meint man dann, dass in 20 Jahren selbst fahren nur noch mit Sondererlaubnis möglich sei. Die ganze Debatte ist davon geprägt, dass Menschen mit zu viel Einfluss zu wenig Ahnung haben. Schuld an solchen Unfällen haben am wenigsten die arglosen Benutzer.

    • Pamela

      „Schuld an solchen Unfällen haben am wenigsten die arglosen Benutzer.“

      Ich kriege jedes Mal einen Anfall, wenn ich sowas lese. Die Benutzer haben die Kindergartenreife längst hinter sich gebracht.
      „Und sie wissen nicht, was sie tun “ kann man nicht gelten lassen.

      Das System ist noch nicht perfekt und man sollte sich fragen, ob man es haben möchte, ok.
      Trotzdem ist es gut, wenn es schon genutzt wird, es gibt hier kein 0 auf 100 in der Entwicklung. Das heißt aber nicht, dass man das Recht hat, damit geistlos rumzuspielen.

      Aber wer bei Jvana Duspara Alba liked (sicher eine Grundeinstellung), sucht natürlich hier die Schuld beim Hersteller.

      • Melone

        Hallo Pamela! Das Problem ist doch, dass die richtige Benutzung solcher Systeme einfach überall anders vorgelebt wird. In diesem Forum haben Viele bereits Erfahrung mit Assistenzsystemen, wissen zumindest über deren Grenzen. Persönliche Wahrnehmung ist ein schlechter Berater, aber ich kenne privat ein paar Leute, die Assistenzsysteme haben oder schon mal damit gefahren sind. Und einige davon benutzten Sie genau so wie Herr Brown oben. Nicht aus Fahrlässigkeit, sondern, weil sie dachten, dass das Auto ja eh selbst fahren kann und das gelegentliche Lenkradanfassen nur aufgrund irgendwelcher Regularien vorgeschrieben, tatsächlich aber unnötig sei. Woher das rührt, kann man sich ja vorstellen (und die Betriebsanleitung lesen Viele wie die AGBs). Das ist mit dem aktuellen Stand der Technik einfach nur gefährlich für alle Beteiligten. :/
        Um vielleicht mal einen Vergleich zu ziehen: Dass Alkohol am Steuer verboten ist, steht auch irgendwo im Gesetz. Ohne, dass ständig darüber aufgeklärt werden würde (in Fahrschulen, Medien, Werbung etc.), würden es aber wohl weit mehr Leute machen („Was interessiert mich das, es geht ja doch meistens gut.“). Und leider ist von Unfällen meist nicht nur der Verursacher betroffen. Vielleicht verstehen Sie ja, was ich meine.

        • Pamela

          Hallo Melone, versuchen wir eine Annäherung.

          „ich kenne privat ein paar Leute, die Assistenzsysteme haben oder schon mal damit gefahren sind. Und einige davon benutzten Sie genau so wie Herr Brown oben. Nicht aus Fahrlässigkeit, sondern, weil sie dachten, dass das Auto ja eh selbst fahren“

          Ich lese das so, als ob es sich hier um verschieden Assistenzsysteme handelt von verschiedenen Herstellern. Wenn dem so wäre, zeigt es doch, dass die Endlosdiskussion um den Namen Autopilot ziemlich unnütz ist.
          Sollte es sich nur um Tesla’s handeln, vergessen Sie bitte meinen Einwand.

          Wenn wir Maschinen, technische Geräte oder Systeme innerhalb eines sozialen Raumes nutzen, sollte uns klar sein, dass wir mit unzulänglichen Kenntnissen und dem daraus folgendem Missbrauch nicht nur das eigene sondern auch das Leben anderer gefährden. Wenn wir also zu faul sind, uns selber richtig darin zu schulen, verhalten wir uns nicht sozial. Wenn einer sich betrunken ans Steuer setzt und ein Kind überfährt ist er asozial.
          Nichts davon ist zu entschuldigen.

          Das Fehlverhalten einiger (zu vieler) Menschen ist nicht das Kriterium für Grenzen im technischen Fortschritt.
          Wenn wir also als Messlatte die schwächsten Glieder der Gesellschaft nehmen sollen, würden wir uns zurück entwickeln.

          Youtube und Twitter sind keine Bildungsmedien. Ich schau mir da auch mal ein Handwerkerfilmchen an, um vielleicht ein paar gute Tipps zu bekommen, aber ein Ehepaar beim Stullen schmieren im fahrenden Tesla löst bei mir doch eine ganz andere persönliche Wahrnehmung aus, als die, dass ich das übernehme ohne zu hinterfragen.

          Eine Hilfe bei diesem Problem könnte sein, dass wenn jemand ein Auto mit Assistenzsystem kauft, er beim Hersteller/Vertragspartner eine Schulung durchlaufen könnte – ähnlich der Erste-Hilfe-Schulung zum Führerschein. Das ist zwar ärgerlich für die, die – wie hier viele im Forum – durchaus selber in der Lage waren, sich eine richtige Nutzung anzueignen und verantwortungsvoll damit umzugehen, aber es würde bei den – sagen wir mal Denkbequemen – durchaus sinnvoll sein, um Missbrauch einzuschränken.
          Kämen wir hier vielleicht zusammen ?

          • Melone

            Hallo Pamela, zum ersten Punkt: Nein, es handelt sich nicht nur um Teslas. Mir ging es auch gar nicht konkret um den Autopiloten (auch wenn er vielleicht als Beispiel taugt, die Diskussion hatten wir ja schon), vielmehr halte ich das für eine Herstellerübergreifende Problematik. Tesla hatte ich ja in meinen Kommentaren eben nicht konkret erwähnt (hätte den Kontext hier nur stärker beachten sollen).
            Mit dem letzten Absatz kommen wir durchaus zusammen, darauf wollte ich hinaus (auch wenn das im ersten Kommentar zugegebenermaßen etwas verworren formuliert war). Ob es über Schulungen funktioniert oder andere Maßnahmen, wird sich evtl. zeigen (gerade bei Mietwagen werden solche Features ja teils unkommentiert zur Verfügung gestellt, ein Aspekt, der bei der Debatte im letzten Jahr auch zu Tage kam). Aber ich denke, gerade bei einem System, bei dem jeder Teilnehmer auf Andere vertrauen muss, ist es wichtig, in dieser Hinsicht für Aufklärung zu sorgen. Ich denke, damit haben wir einen Konsens gefunden. 🙂
            Mir geht es auch gar nicht darum, Technik aufzuhalten. Ich bin ein großer Freund des autonomen Fahrens und der Elektromobilität, bin auch selbst an der Entwicklung beteiligt. Mitunter sind mir die Ansichten hier unten nur etwas zu „radikal“. Aber gut, dafür gibt es ja Diskusionen, und da freut es mich, wenn es Menschen wie Sie gibt, die sie (trotz gelegentlicher Ausfälle auch von mir) konstruktiv halten. 🙂

          • McGybrush

            Hab es öfter schon mal erwähnt. Ich bin der Meinung das man solche Assisstenzsysteme auch in den Fahrschulen erlernen sollte. Dort muss pauschal über deren Benutzung, mögliche technischen Grenzen und der jeweiligen Rechtslage aufgeklärt werden. Generell kann ich aber sagen. Ich hab mich in einem BMW mit gleichem Umfang wie bei Tesla nicht wie Bernd das Brot reingesetzt und ein auf „BMW… fahr mich nach hause“ gemacht. Sprich ich hab mir vorher Gedanken drüber gemacht, wie geht das jetzt. Wo schalte ich es ein, wann schalte ich es ein, wann wieder aus etc. Ich weiss doch auch das man so ein System nach und nach kennen lernen muss und weiss was erlaubt ist. Warum unterstellt man dann anderen Leuten das sie „dumm“ sein dürfen und dafür dann der Hersteller grade stehen soll.

            Meine Mikrowelle warnt mich ja auch nicht wenn ich im Begriff mit mein Stubentieger da rein zu stopfen. Nicht mal in den USA. Dort steht es auch nur im Handbuch. Aber rein Stopfen kann man die obligatorische Katze auch in den USA immer noch und bekommt sie anschliessend eingeschaltet obwohl die Problematik schon mal Richterlich abgearbeitet wurde. Da jetzt der Hersteller Schuld?

        • Fritz!

          „Persönliche Wahrnehmung ist ein schlechter Berater, aber ich kenne
          privat ein paar Leute, die Assistenzsysteme haben oder schon mal damit
          gefahren sind. Und einige davon benutzten Sie genau so wie Herr Brown
          oben. Nicht aus Fahrlässigkeit, sondern, weil sie dachten, dass das Auto
          ja eh selbst fahren kann und das gelegentliche Lenkradanfassen nur
          aufgrund irgendwelcher Regularien vorgeschrieben, tatsächlich aber
          unnötig sei. Woher das rührt, kann man sich ja vorstellen (und die
          Betriebsanleitung lesen Viele wie die AGBs). Das ist mit dem aktuellen
          Stand der Technik einfach nur gefährlich für alle Beteiligten. :/“

          Dann handelt es sich bei diesen Leuten leider um „dumme Leute“ oder „Idioten“, denen dieses System, welches sie falsch benutzen (ich denke und hoffe mal, aus Dummheit/Faulheit und nicht wider besseren Wissens), weggenommen oder zumindest die Funktion deaktiviert werden sollte. Eine Waffe gehört nicht in die Hände von Leuten, die damit nicht umgehen können. In dem Fall ist die Idee einer zwingenden Zusatzschulung seitens des Herstellers bei Erwerb oder Mietung eines solchen Autos durchaus eine gute Idee. Ansonsten hat sich die Menschheit ja so weit entwickelt, weil sich die Dummheit rausmendelt und die besseren/klügeren überleben (klappt nicht immer, manchmal schlägt die Natur sich selbst ein Schnippchen und bringt einen CSU-Verkehrsminister zu Tage).

          Ich will Ihre Bekannten da jetzt nicht beleidigen, aber mit einer solchen Einstellung stellen die sich selbst ein Armutszeugnis aus, finde ich.

          • Melone

            Ist ja auch so (leider), muss man ja gar nicht böse meinen. Stichwort DAU – irgendeine Mischung aus Unwissenheit, blindem Vertrauen in die Technik und Faulheit, sich näher mit dem Thema auseinanderzusetzen. Das trifft man ja leider oft an in dieser immer schneller werdenden Welt. Nur dass man mit seinem Auto versehentlich eben weit mehr kaputtmachen kann als mit seinem Laptop (wenn wir mal vom gewöhnlichen Anwender ausgehen).

  • McGybrush

    Mein Auto hat mich noch nie dazu aufgefordert die Hände an Lenkrad zu nehmen. Frechheit. Dabei kann mein Auto mit Tempomat auch solange alleine fahren bis es auf ein Hindernis trifft. Und ich muss sogar selber bremsen wenn eins da ist. Dabei dachte ich ich kann im Schneidersitz sitzen.

    Dummheit schützt vor Strafe nicht. Autos mit Assistenzsystemen können im Notfall mehr als mein Auto je in einem Notfall selbst können wird. Da bin ich zu 100% gefordert. Bei Assistenzsystemen hat man in zweiter Instanz evtl noch ein Helfer. Aber nur wenn die erste Instanz (der Fahrer) versagt.

    Und wie gesagt. Bei besagtem Unfallopfer brauch mir keiner von ahnungslosen Fahrer erzählen. Er war Tesla Fan. Man kauft sich derzeit nicht für 100.000$ ein Vollelektrisches Auto einer Marke die man nicht in der nächsten Automeile über den Weg läuft.

    Es ist derzeit ein seltenes Auto.
    Es wird daher meist gezielt danach gesucht.
    Es wird anschliessend ganz bewusst gekauft.
    Zumindest in dem Jahrgang wo das Opfer Ihn gekauft hat.

    Wenn der Serienmässige Autopilot im Dacia Sandero bei Oma Hilde versagt dann lass ich nochmal zum Thema Unwissenheit mit mir reden.

  • Melone

    Vielen Dank, Pamela!
    Es freut mich, dass Sie meine Sichtweise nachvollziehen können. Es ist ein Zulieferer, und wir liefern auch an Tesla (nein, nicht Grohmann und ich werde ansonsten nicht zu stark ins Detail gehen oder hier irgendwelche Betriebsgeheimnisse ausplaudern. ;)).
    Es ist in der Tat gelegentlich frustrierend, wenn eine Entwicklung, hinter der man eigentlich steht (und ich denke ich spreche hier zu einem gewissen Grad für einen Großteil der Ingenieure) befeuert und einem im gleichen Atemzug die Firmenpleite gewünscht wird. Zum Glück kommt das aber nicht so häufig vor, zumindest hier nicht.
    Und der alte Kampf Ing vs. BWLer, hach ja. Oft genug ist Wahres dran, aber ganz ohne den Anderen funktioniert es dann auch oft nicht. 😉
    Es ist in diesem Punkt wichtig, nicht alle über einen Kamm zu scheren. In den Vorstandsetagen gibt es überall ein paar Ignoranten oder Chaoten, aber die meisten leisten dennoch hervorragende Arbeit (vor allem auf mittlerer Ebene). Es gibt viele Unternehmen in DACH (v.a. KMU), die seit Jahren Dank gutem Management gesund funktionieren und wachsen und gut für die Zukunft aufgestellt sind. Aber von denen hört man öffentlich leider viel zu selten, meistens verbindet man mit dem Wort Manager eben doch einen Winterkorn inklusive aller negativen Konnotationen. Im Hintergrund aber läuft weit mehr, als man öffentlich so mitbekommt. Und so mag die Arbeit manchmal frustrierend sein, aber wegen ein paar Leuten, die Mist bauen, muss man den Automobil- und Ingenieurstandort DACH nicht gleich abschreiben. Bei VW arbeiten keine 600.000 Verbrecher, nur weil im Management und einer Abteilung gepfuscht wurde.
    Und in diesem Sinne auch Ihnen viel Erfolg und den anderen Fans und Entwicklern, die hier so mitlesen. 🙂

  • Nelkenduft / AHF

    Möbelgeeks ist doch auch nicht ernstzunehmen, wundert mich dass du überhaupt solche fragwürdigen Seiten besuchst.

    • Pamela

      Ja, ich kam an „Radfahrer werden sterben“ nicht vorbei und dann brauch ich manchmal ein bisschen, bis ich merke, dass es sinnlos ist … 😉

  • Luganorenz

    Es gibt ja nicht nur eine Wahrheit. Juristisch ist Tesla sicher auf der sicheren Seite. Alleine das amerikanische Schadensersatzrecht zwingt jeden Produzenten, sich mittels Warnhinweisen abzusichern.
    ABER: Im Vorfeld des Unfalls waren schon etliche YouTube-Videos online, die den Missbrauch des Systems dokumentierten.
    Spätestens da hätte Tesla den AP umprogrammieren können, so, wie er heute ist. Es musste, wie immer, etwas passieren, bevor etwas passiert.
    Aber offensichtlich war man bei Tesla selbst zu technikgläubig.
    MORALISCH hat somit schon auch Tesla eine Mitschuld. Man kommt aber dann sofort auf ganz glattes Eis.

  • Skynet

    Ich finde ein paar Sachen müssen klargestellt werden.

    Fakt ist, dass Herr Brown (einschließlich dem LKW-Fahrer) selber für den Unfall verantwortlich ist. Auch bei den anderen Unfällen (aller Hersteller) mit vermeintlich eingeschalteten Autopiloten ist der Fahrer jeweils selbst verantwortlich.

    Aber Tesla kann zumindest ich keinen „Persilschein“ ausstellen. Herr Brown und auch andere haben vor dem Unfall unzählige Videos ins Internet gestellt, wie sie freihändig mit Autopilot fahren, essen oder sogar auf die Rückbank klettern. Bis zum Unfall erfolgte durch Tesla Null Reaktion. Man hat es wohl eher als kostenlose Werbung betrachtet. Nach dem Unfall erfolgten Klarstellungen und Änderungen an der Software. In einigen Ländern hat man – gezwungener Maßen – den Begriff Autopilot geändert. Richtig von Tesla reagiert aber zumindest für Herrn Brown zu spät.

    Fakt ist auch, dass der Notbremsassistent in dem Fall versagt hat. Ein Radarsignal wurde durch das Kamerabild überstimmt. Für mich als Techniker ein Unding, eigentlich sollte es immer in die sichere Richtung gehen, sprich im Zweifel wird gebremst. Letztlich hat auch da im nachhinein Tesla reagiert aber musste es erst soweit kommen? Ich konnte nirgend lesen, dass dies nur eine Betaversion ist, die nur unzureichend getestet wurde. Fahrer und möglicherweise auch Herr Brown haben sich fälschlicherweise auf etwas verlassen, was nicht in allen Situationen funktionierte.

    Nach diesen und anderen Vorfällen hat man bei Tesla eigentlich vorbildlich reagiert, klargestellt was das System kann und die Software geändert. Wo ich nur Bauchschmerzen habe ist die Aussage, der AP2 könnte vollkommen autonom sogar mit Level 5 demnächst fahren.

    Level 4: Vollautomatisierung. Die Führung des Fahrzeugs wird dauerhaft vom System übernommen. Werden die Fahraufgaben vom System nicht mehr bewältigt, kann der Fahrer aufgefordert werden, die Führung zu übernehmen.

    Level 5: Kein Fahrer erforderlich. Außer dem Festlegen des Ziels und dem Starten des Systems ist kein menschliches Eingreifen erforderlich.

    Es wurden ja schon diverse Beiträge veröffentlicht, was die Kameras vom AP2 zeitgleich sehen. Das mag ja zusammen mit dem Radarsensor irgendwann ausreichen um auf der Autobahn zu 99,9% autonom zu fahren. Aber spätestens bei Fragen der Vorfahrt in Städten oder engen Straßen wo man jemanden auch mal die Vorfahrt lassen oder gar rückwärts fahren muss stößt man an Grenzen. Selbst auf der Autobahn gibt es jetzt und auch in Zukunft spätestens bei Baustellen Probleme. Dies wird noch ein sehr sehr langer Weg und man sollte sich hüten etwas zu versprechen, dass definitiv nicht gehalten werden kann. Vor allem müsste erst einmal der Bremsassistent bei jeder Geschwindigkeit zu 100% funktionieren und nicht nur die Folgen mindern sondern bremsen bevor es kracht. Ich würde sogar soweit gehen, dass gemäß der Definition Level 4 nur eingeschränkt erreichbar ist. Wenn ich z. B. an jeder belebten Straße, Autobahnbaustellen oder in den Bergen selber eingreifen muss, ist dass für mich kein Level 4.

    • W. Müller

      Sie als Techniker sollten auch wissen, dass das Problem der Radarerfassung bei schrägstehenden Brücken und anderen unklaren Hindernissen, wie Brücken mit schräg zur Fahrbahn stehenden Pfeilern, zu sehr vielen Fehlbremsungen führen würde weshalb in der Regel eine Kombination aus Radarsignal und Kamera-Input mittels festgelegten Algorithmus verarbeitet wird.

      Das betrifft sämtliche Systeme. Alle Systeme haben ein Problem mit stehenden Hindernissen und der Unterscheidung zwischen einer Brücke, sei es auch einer Schilderbrücke, und anderen Hindernissen quer zur Fahrbahn, die sich nicht bewegen.
      Das gilt ebenso bei Mercedes, Audi etc. Gäbe es die Verbindung mit dem Kamerasignal nicht, würden wir bei den Notbremsassistenten vor jeder Brücke, die nicht 90° zur Fahrbahn steht, einen Vollbremsung erleben. Da möchte ich nicht der hinter dem Fahrzeug fahrende sein.

      Ein Versagen des Notbremsassistenten kann ich nicht erkennen. Die Problematik des stehenden resp. querstehenden Hindernisses ist mit deutlichen Warnhinweisen im Handbuch beschrieben.

      Tesla hat insofern reagiert, dass die Abfrageintervalle beispielsweise
      bei Nichtbedienung des Lenkrades verkürzt und die Konsequenzen aus
      mehrfachem Ignorieren des Warnsignals verschärft worden sind. Die Thematik der gemischten Interpretation der Signale bleibt bestehen.

      • Skynet

        Es gibt aber einen deutlichen Signalunterschied zwischen einem Hindernis in (großzügig) 1,5m (LKW ohne Unterfahrschutz) und einer Brücke oder einem Schild von min. 4,5m Höhe. Dazu hat sich der LKW bewegt und die Achsen Zugmaschine/Anhänger wurden mit Sicherheit auch erfasst. Die fehlprogrammierte Kamera hat es als stehendes Schild aufgefasst und den Radarsensor überstimmt, zwei Fehler die nicht sein dürfen. Soweit ich mich an die damalige Diskussion erinnere ist der Tesla sogar noch weiter gefahren und hat ohne zu bremsen Zäune durchbrochen und kam nur durch die massiven Beschädigung zum Stillstand.

        Und da reden wir bisher nur vom Notbremsassistenten, der primär die Folgen mindern soll. Für das autonome Fahren braucht es aber einen verlässlichen Bremsassistenten der alles richtig erkennt und immer rechtzeitig bremst. Erst vor kurzem gab es einen Beitrag von einem „Experten“ der meinte das solche autonomen Systeme (speziell auch von Tesla) zu massenweise Unfällen mit Zweiradfahrern führen werden, da diese unzureichend erkannt werden. Unabhängig wie glaubwürdig diese Einschätzung ist, halte ich selbst Level 4 in der bisherigen Form seitens Tesla oder anderen Herstellern für ganz weit weg.

        • Fritz!

          Ein Software-Update vor ein paar Wochen hat sich um diese Zweiradproblematik gekümmert und da nach Aussage von Experten auch massiv was verbessert. Habe aber die Details nicht mehr im Kopf, aber sie arbeiten kontinuierlich dran. Der Notbremsassistent sollte in der Tat am besten funktionieren.

        • W. Müller

          Es gibt eben genau keinen Signalunterschied bei den heutigen Radarsystemem zwischen einer Brücke mit schrägstehendem Pfeiler und einem stehendem Hindernis. Um dieses Problem zu umgehen muss das Kamerabild als Zusatzinformation hinzugenommen werden.
          Erkennt die Kamera eine Lücke unter dem Hinderniss oder „sieht“ die Kamera das Hinderniss erst gar nicht, kommt es zu diesen tragischen Fehl-Interpretationen.

          Das ist bei anderen Herstellern nicht anders. Ansonsten dieser Unfall mit dem Mercedes gar nicht passiert wäre.

          http://www.shz.de/lokales/flensburger-tageblatt/mercedes-faehrt-in-grenz-stau-fahrer-stirbt-auf-der-a7-id12871576.html

          • Skynet

            Das hier weiter zu vertiefen bringt nichts. Ich habe deshalb bei Interesse zum Verständnis mal einen Teil kopiert, der noch nicht einmal der neuste Stand ist. Ein vernünftiger Radarsensor mit entsprechender Software kann natürlich erkennen, ob sich auf oder neben der Straße ein Hindernis befindet und in welcher Höhe. Letztlich ist genau dies und deren Verbesserung eine Grundvoraussetzung, dass dies auch mal zuverlässig z. B. bei Dunkelheit (wo die Auffassunggabe von Kameras deutlich sinkt) funktioniert. Kameras ergänzen natürlich die Daten aber dürfen den Radarsensor nicht einfach überstimmen. Das Tesla auch beim AP2 nur einen Radarsensor verbaut hat, erscheint mir für das Ziel Level 4/5 deutlich zu wenig zu sein. Letzlich will man sich dadurch z. B. beim Thema Vorfahrt an Kreuzungen und Auffahren auf Autobahnen etc. ausschließlich auf die Kameras verlassen. Wenn dann mal ein unbeleuchteten Spinner von der Seite oder hinten heranrast (alles selber schon erlebt) krachts unweigerlich und das Thema Schuldfrage ist dann möglicherweise für einen persönlich schon nicht mehr relevant.

            Das es andere Hersteller nicht besser machen / können bringt ja nichts, wenn man mal zuverlässig und sicher Level 4 oder 5 erreichen will. Ich denke dazu ist halt viel mehr notwendig als bisher gedacht / kommuniziert. Und der erneute Personalwechsel bei der AP-Abteilung lässt mich vermuten, dass es für EM alles zu langsam geht.

            http://www.bosch-presse.de/pressportal/de/de/bosch-praesentiert-neuen-radarsensor-42312.html

            …Die größte technische Änderung beim neuen LRR 4 ist die Zahl der eingesetzten Radarkeulen. Vier schauen wie beim Vorgänger gebündelt nach vorne. Sie können andere Fahrzeuge bereits bei einem Abstand von rund 250 Metern erfassen. Dadurch lässt sich die Adaptive Cruise Control (ACC) auch bei Geschwindigkeiten von über 160 Kilometern pro Stunde nutzen und es werden auch hohe Differenzgeschwindigkeiten ganz ohne Zutun des Fahrers ausgeglichen. Zwei zusätzliche Radarkeulen erweitern den Öffnungswinkel auf 40 Grad – ein Plus von zehn Grad gegenüber dem Vorgänger. Einscherende Fahrzeuge lassen sich so noch früher erkennen, und das ACC kann dadurch schneller reagieren. Zusätzliche Informationen bietet ein weiterer nach oben gerichteter Radarstrahl: im Zusammenspiel mit den sechs Basiskeulen ermöglicht er eine Höhenschätzung der erfassten Objekte im Nahbereich, was deren Klassifikation verbessert…

    • Fritz!

      „Aber Tesla kann zumindest ich keinen „Persilschein“ ausstellen. Herr
      Brown und auch andere haben vor dem Unfall unzählige Videos ins Internet
      gestellt, wie sie freihändig mit Autopilot fahren, essen oder sogar auf
      die Rückbank klettern. Bis zum Unfall erfolgte durch Tesla Null
      Reaktion.“

      Das ist ja definitv falsch. Ganz am Anfang war es bei Tesla in den USA möglich, so einen Bockmist zu bauen, den Sitz zu verlassen und das Lankrad lange nicht anzufassen. Bereits vor dem Unfall von Herrn Brown wurde die Software dergestallt geändert, daß das System nach kurzen Intervallen erst optisch und dann akustisch den Fahrer aufforderte, die Hände ans Lenkrad zu legen. Wie Sie dem Bericht entnehmen können, kam diese Aufforderung etliche Male in der Zeitspanne 37 Minuten vor dem Unfall, Herrn Brown hat dann ohne sich um einen Blick auf die Straße zu richten oder sonstwie das Auto zu überwachen die Hände kurz ans Lenkrad gelegt und etwas gewackelt, der Wagen/die Software hat reagiert, der Fahrer lebt noch, also weiter. Das der Fahrer dabei Gerüchten zufolge einen Film auf einem iPad schaute und nie die Straße gesehen hat, wußte das System (wei auch kein anderes aktuell existierendews System) nicht.

      Die Problematik des überstimmenden Radars wurde unten schon beantwortet. Und inzwischen werden da ja auch DEUTLICH mehr Sensoren eingebaut und benutzt.

      Es ist also leider primär der Fahrer und dann der LKW-Fahrer Schuld. Das Tesla danach die Regeln noch mal deutlich verschärft hat, was die Lenkradberührung angeht ist löblich, hätte aber tatsächlich auch früher kommen können. Aber sie haben reagiert und alle betroffenen Tesla Autos diesbezüglich kostenlos nachgerüstet.