Tagespolitik allgemein

Mein Vertrauen in ein Fahrzeug, das selbsttätig über längere Zeit Entscheidungen trifft, reicht so weit, wie ich es werfen kann. Man stelle sich nur einen Computer vor, der 2 Tonnen wiegt und mit 80 Stundenkilometern auf ein Stauende zufährt während das Betriebssystem wegen eines nicht vorhersehbaren Ereignisses* in ein mangelhaftes Exceptionhandling gerät und undefiniertes Verhalten des Fahrzeugs die Folge ist.

*Die prinzipiellen Ursachen für kritische Fehler sind gigantisch und extrem komplex und meiner Ansicht nach zwingende Folgen der zugrunde liegenden Computertechnik:
Das geht mit der Hardware los, die bereits fehlerhaft vom Fließband läuft und pflanzt sich über die grundsätzlichen Sorgenkinder "Montage und Qualitätsmanagement" weiter fort.
Während des Betriebs erleidet die mobile Computertechnik durch stete Vibrationen und Temperaturen mit der Zeit schleichenden Schaden, das ist überhaupt nicht vermeidbar.
Und dann ist da natürlich noch die Software selbst, die ebenfalls niemals wirklich fehlerfrei sein kann.

Vor allem stört mich, dass viele - auch hier schon - die Terrorangriffe mit Fahrzeugen als Argument für das autonome Fahren verwendet haben. Das mag ja alles auch stimmen, abgesehen von der Gefahr, dass sich irgendwer Kontrolle über das Bordsystem eines oder mehrerer Fahrzeuge (@David Somerset hatte ja vorgeschlagen, alle Autos miteinander zu vernetzen - aus meiner Sicht ein guter Gedanke, aber auch gefährlich!) verschafft, die ich niemals hundertprozentig ausschließen würde. Doch damit dieses Argument funktionieren würde, müsste JEDES Fahrzeug autonom fahren und somit gesetzlich festgelegt sein, dass ein Kraftfahrzeug nur noch dann bewegt werden darf, wenn KEIN Mensch die Verantwortung am Steuer tragen kann. Und das ist vom heutigen Standpunkt aus ein völlig unrealistischer Gedanke.
 
Mein Vertrauen in ein Fahrzeug, das selbsttätig über längere Zeit Entscheidungen trifft, reicht so weit, wie ich es werfen kann. Man stelle sich nur einen Computer vor, der 2 Tonnen wiegt und mit 80 Stundenkilometern auf ein Stauende zufährt während das Betriebssystem wegen eines nicht vorhersehbaren Ereignisses* in ein mangelhaftes Exceptionhandling gerät und undefiniertes Verhalten des Fahrzeugs die Folge ist.

*Die prinzipiellen Ursachen für kritische Fehler sind gigantisch und extrem komplex und meiner Ansicht nach zwingende Folgen der zugrunde liegenden Computertechnik:
Das geht mit der Hardware los, die bereits fehlerhaft vom Fließband läuft und pflanzt sich über die grundsätzlichen Sorgenkinder "Montage und Qualitätsmanagement" weiter fort.
Während des Betriebs erleidet die mobile Computertechnik durch stete Vibrationen und Temperaturen mit der Zeit schleichenden Schaden, das ist überhaupt nicht vermeidbar.
Und dann ist da natürlich noch die Software selbst, die ebenfalls niemals wirklich fehlerfrei sein kann.

Und die "Hardware" und die "Software" von Menschen ist immer fehlerfrei?
 
Die Argumentation wäre vielleicht bei vollautonomen Fahrzeugen möglich (*), bei teilautonomen aber nicht, weil der Fahrzeugführer ja immerhin die Möglichkeit und damit auch die Pflicht hat, einzugreifen (oder eben nicht einzugreifen). Und das ist ja die Krux an der Sache, weil der Fahrer schlecht voraussagen kann, wann die Technik versagt oder ein Unfall droht, der mithilfe der Technik vermieden werden kann.

(*) Wobei sich hier dann bspw. die Frage stellt, ob Hersteller überhaupt autonome Fahrzeuge produzieren und verkaufen würden, wenn sie für die Schäden aus technischem Versagen haftbar gemacht werden würden. Darum ja die Überlegung, Fahrzeuge zu einem eigenen Rechtssubjekt zu erklären.

Ich dachte jetzt auch eher an vollautonome Fahrzeuge als teilautonome, denn da muss man natürlich immer schauen, inwieweit der Fahrer selbst verantwortlich war. Aber gerade wenn es um vollautonome Fahrzeuge geht, sehe ich eigentlich keinen Unterschied zum bisherigen Technikversagen und Autos stellt man ja auch ganz generell her, obwohl diese Fehler haben können, die sich entweder kurz- oder langfristig auswirken können, genau wie mit allen anderen technischen Geräten.

@icebär
Na ja, ein autonomes Auto ist jetzt aber auch kein fahrender Computer-Tower mit Windos 10, immerhin gibt es wie gesagt ja schon längst Computertechnik in den Autos, die umfangreich mit der funktionsweise des Autos verknüpft ist. Sprich, funktioniert die Technik nicht, funktioniert auch das Auto nicht (oder nicht richtig). Wenn es rein um Software und Elektrik geht, muss man einfach festhalten, dass wir da nicht über etwas sprechen, das in der Zukunft liegt, sondern etwas das bereits in millionen von Fahrzeugen integriert ist.

@Augustin
Was den Status Quo angeht ist das natürlich unrealistisch aber was die Zukunft angeht, dürfte es wohl Sinn machen, vorausgesetzt man kann tatsächlich Unfälle durch diese Technologie so erheblich minimieren, wie erhofft. Im ersten Halbjahr letzten Jahres gab es eine Million Verkehrsunfälle in Deutschland und laut der Statistik war die Verteilung mit Personenschaden 2016 so:
Verkehrsunfaelle_Fehlverhalten.png;jsessionid=A99BA0DC831AF67FBC1D5BA8FEAE304A.InternetLive2


Ich weiß nicht was Sonstiges ist aber bei 75% kann man wohl klar menschliches Versagen anlasten. Ich denke, wenn sich die Technologie bewährt, geben die Zahlen genug Grund, dass man Menschen nicht mehr an das Steuer lässt. Den Geschwindigkeitsrausch kann man dann ja immer noch über Jochen Schweizer befriedigen.^^
 
Wenn es um die Fehler der... menschlichen Unvollkommenheit geht, dann "braucht" es aber wahrscheinlich bald überall Roboter.
Als Ätzte, als Bahnfahrer, als Köche... und nicht zuletzt als Geschlechtspartner (ohne Witz, die sind ja nun auch voll im Kommen, die Dinger).

@Ben Mir ging es auch weniger um Fahrlässigkeit, sondern darum, dass wahrscheinlich ein neuer Paragraph entstehen müsste...
 
Und die "Hardware" und die "Software" von Menschen ist immer fehlerfrei?

Brich es doch soweit runter, dass alles Fehler an der Software des Menschen ist, immerhin hat sich die Technik ja nicht selbst erschaffen, ihre Qualität kontrolliert oder sein Programm geschrieben.

Wichtig für mich wäre die Frage ob man im Notfall bei einem vollautonomen Auto eingreifen kann oder ob dies vom System verhindert wird.


Geschlechtspartner [...] voll im Kommen

 
Ich weiß nicht was Sonstiges ist aber bei 75% kann man wohl klar menschliches Versagen anlasten. Ich denke, wenn sich die Technologie bewährt, geben die Zahlen genug Grund, dass man Menschen nicht mehr an das Steuer lässt. Den Geschwindigkeitsrausch kann man dann ja immer noch über Jochen Schweizer befriedigen.^^

Okay, ich lehne mich mal ganz weit aus dem Fenster und behaupte, dass wir das wohl nicht mehr miterleben werden^^
 
Und die "Hardware" und die "Software" von Menschen ist immer fehlerfrei?

Nein. Aber ein Mensch gibt deutliche Signale von sich, wenn er das Funktionieren einstellt. Er schreit vor Schmerzen wenn er verletzt ist, verweigert die Fahrt bei schwerer Krankheit und schielt, torkelt & lallt, wenn er besoffen ist.

Das technische Gegenmodell: Im Frühling fährt das Auto durch ein Schlagloch. Ein Haarriss in einer PCB-Leiterbahn entsteht und das fällt den ganzen Sommer lang nicht auf, weil es keinen erkennbaren Fehler gibt, da die Platine warm und ausgedehnt ist. Bis es dann zum ersten Mal im Herbst friert und es stellenweise Glatteis gibt.
Die besagte Leiterbahn war dummerweise der Wärmebildsensor in Fahrtrichtung, der den Fahrvektoralgorithmus deswegen nun mit falschen Daten über die Fahrbahnbeschaffenheit füttert. Das Auto fährt 15 Stundenkilometer zu schnell in die Kurve, weil es denkt, die Straße wäre +10° Celsius warm.

Wenn es rein um Software und Elektrik geht, muss man einfach festhalten, dass wir da nicht über etwas sprechen, das in der Zukunft liegt, sondern etwas das bereits in millionen von Fahrzeugen integriert ist.

Der Punkt ist, dass die Elektronik trotz aller Komfortschaltungen und Sensorgimmicks zur Abgasoptimierung nicht das Kommando über Fahrtrichtung, Spurwechsel, Geschwindigkeit und Routenplanung hat.
 
Was Fehlerhafter Input von Sensoren angeht, könnte man sich bei den Lehren aus der Luftfahrt bedienen und redundante Systeme aufbauen die einen Totalausfall durch Defekte auffangen können.
 
Was Fehlerhafter Input von Sensoren angeht, könnte man sich bei den Lehren aus der Luftfahrt bedienen und redundante Systeme aufbauen die einen Totalausfall durch Defekte auffangen können.

Aber hat uns nicht gerade die Luftfahrt in letzter Zeit des öfteren gelehrt das eben @icebär Recht hat was das sich verlassen auf Computer angeht ?
Z.B. der Lufthansa Jet der wohl abgestürzt wäre wenn der Kapitän den Computer nicht abgeschaltet hätte und die Maschine in die Handsteuerung genommen hätte.
Ich für meinen Teil werde so lange es möglich ist beim Autofahren immer selber das Steuer in der Hand haben und Gas und Bremse selber bedienen.

Apropos Computer in der Luftfahrt.
War es nicht Niki Lauda der vor kurzem gesagt hat Computer wären die besseren Piloten ?
Der müßte es doch wirklich besser wissen seit Flug 004. Damals hat der Computer in der Luft bei einem Triebwerk die Schubumkehr aktiviert. 223 Tote.

Klar auch in der Luftfahrt machen die Computer einen großen Teil der Arbeit.
Aber es sollte m.E.n. ein Mensch daneben sitzen und das letzte Wort haben.
Ebenso beim Autofahren.
 
Aber hat uns nicht gerade die Luftfahrt in letzter Zeit des öfteren gelehrt das eben @icebär Recht hat was das sich verlassen auf Computer angeht ?

Man sollte sich vielleicht mal grundlegend davon verabschieden, dass ein Computer fehlerlos ist. Es reicht aber schon wenn ein Computer weniger Fehler macht als ein Mensch und genau das wird letztendlich das Kriterium sein.
Schon heute setzen wir uns in Fahrzeuge und vertrauen darauf das invasive Sicherheitsprogramme wie ESP den Fehler von Menschen ausbessern. Sollte ESP ausfallen und der Fahrer baut deswegen einen Unfall ist das ja auch kein Argument gegen ESP, weil es eben im großen Rahmen Tausendfach Leben gerettet hat.

Der müßte es doch wirklich besser wissen seit Flug 004. Damals hat der Computer in der Luft bei einem Triebwerk die Schubumkehr aktiviert. 223 Tote.

Hat da der Computer einen Steuerbefehl zum ausfahren der Schubumkehr gegeben? Alles andere wäre nicht ursächlich durch den Computer sondern fehlerhafte Elektrik bzw. Hydraulik.

EDIT:


"So wurde durch einen zweiten, in Österreich in Auftrag gegebenen Bericht zum Absturz von Lauda Air-Flug 004 publik, dass die Fehlermeldung, welche die Auslösung der Schubumkehr auslöste, in der betreffenden Maschine bereits mehrmals aufgetreten war. Massnahmen der Lauda Air-Techniker lösten das Problem nicht, die in diesem Falle erforderliche Konsultation des Herstellers Boeing fand jedoch nicht statt, was den Regeln und Normen widerspricht. Grund dafür war, dass ein längerfristiger Ausfall einer der beiden 767-300 für eine solch kleine Flotte wie derjenigen der Lauda Air für massive Auswirkungen im Verkehr und auch im wirtschaftlichen Bereich gesorgt hätte."

https://caboruivo.ch/2013/11/01/lauda-air-flug-004-wie-fahrlaessigkeit-zum-unglueck-fuehrte/
 
Zuletzt bearbeitet:
Was Fehlerhafter Input von Sensoren angeht, könnte man sich bei den Lehren aus der Luftfahrt bedienen und redundante Systeme aufbauen die einen Totalausfall durch Defekte auffangen können.

Wenn es nicht ein Sensor ist, ist es vielleicht vergessender Speicher oder die Stromversorgung verreckt oder abgeplatzter Schutzlack lässt Bauteile korrodieren oder oder oder...

Solange massenproduzierte Geräte immer noch regelmäßig dadurch auffallen, dass z.B. deren Akkus platzen, solange kann man an dieser Technologie einfach keine Menschenleben dran aufhängen. Da muss behördlich reguliert werden (z.B. https://de.wikipedia.org/wiki/MIL-STD-810), sonst wird halt technisch minderwertiges Zeug im großen Stil verbaut.
 
Die Frage ist, wer ist effizienter. Nur weil ein Flugzeug durch fehlerhafte Technik abstürzt, macht das die Technik (oder das Computersystem) ja nicht an sich schlechter, schliesslich kann man sich umgekehrt Fragen, wieviele Flugzeuge ohne die ganze Technik abstürzen würden. So muss man es am Ende auch im Bodenverkehr betrachten. Bei Menschen kennen wir die Zahlen, 3000+ Tote (und eine Million Tote global) jedes Jahr und Millionen Unfälle. Hundertprozentige Sicherheit wird es natürlich nie geben aber ich sehe einen großen Unterschied zwischen ausgebildeten Piloten, deren Job es ist ein Flugzeug zu lenken, entsprechend geschult sind, möglicherweise auch noch die Reaktionszeit sowie Tower und Checkliste haben und Autofahrern. Letztere scheinen mir da eher ein unnötiger Risikofaktor zusein, langfristig zumindest.
 
Wie ich finde ist doch die massive Überlastung der Autobahnen das größere Problem.
Ich entsinne mich vor vielen Jahren im PM
über ein System gelesen zu haben welches sich Convoy nannte.
Es ging darum das 4 - 6 Fahrzeuge in gleichbleibenden Abstand zueinander über eine Zentralsteuerung des vordersten Fahrzeugs gelenkt und mit optimaler Geschwindigkeit fahren. An Auf und Abfahrten übernimmt dann der menschliche Fahrer. Die Straße wäre damit optimal genutzt und Auffahrunfälle praktisch ausgeschlossen.
Ich war damals von der Idee sehr angetan und denke zumindest für die BAB wäre das eine gute Lösung.
 
Zurück
Oben