Autonome Autos taugen nichts. Sie haben nicht die Marktreife, sie scheitern an total albernen Banalitäten…
… haben aber im Gegensatz zu “herkömmlicher Beta-Software” die Möglichkeit, einen Roboter mit 200 Sachen in eine Gruppe von Kindern steuern zu können.
Wir haben doch eigentlich schon beim Thema Smarthome gelernt, dass Cloud-Zwang nicht klug ist. Es ist echt beachtlich wie störrisch die Automobil-Branche glaubt, die Regeln der Software-Entwicklung würden für sie nicht gelten.
Menschen taugen als Autofahrer nicht. Scheitern an Banalitäten. Fahren in Kindergruppen. Lernen fast nie aus Fehlern und lassen andere nicht an Fehlern teilhaben. Außerdem erkennen Sie nicht wann sie zu alt sind oder fahren besoffen.
Menschen - nicht alle, aber viele - haben die Möglichkeit auf Probleme zu reagieren, mit denen sie vorher nie konfrontiert waren. Software kann das nicht: sie interpretiert Muster, die ihr beigebracht worden. Fehlt ein Muster, kann sie auf ein Problem nicht reagieren…
… und vorallem funktionieren wir ohne Cloud-Anbindung.
Es mag schon sein, dass autonome Fahrzeuge eine ganze Reihe von Problemen lösen (können), mit denen der Mensch zu kämpfen hat. Aber sie bringen zugleich eine große Vielzahl davon mit - und die werden aktuell konsequent ignoriert. Und solange das so ist, werden sie die schlechteren Fahrer sein.
Und ja, Menschen rasen auch in Kindergruppen. Weil ein Mensch unter vielen einen Dachschaden hat. Hat die Software eines autonomen Fahrzeugs hingegen einen “Dachschaden”, dann hat man da ein viel größeres Problem.
Den Argumentationssprung verstehe ich jetzt nicht (aus deiner Sicht): wenn Menschen sich nicht an Regeln halten (also Fehler machen), dann muss die Software in Autos folglich fehlerbehaftet sein, wodurch sie nicht einwandfrei funktioniert…
Verstehe deine Logik nicht. Was hat die Software damit zu tun dass Menschen Fehler machen? Sie kommt mit den gemachten Fehlern nicht klar, weil Fehler unbekannte Muster sind.
… weil Menschen es sind, welche die Software schreiben. Folglich machen Menschen auch Fehler bei der Entwicklung der Software.
Jede (komplexe) Software enthält technische und/oder logische Fehler. Gerade die letzteren sind enorm schwer zu finden und zu beheben. Vorallem dann, wenn man die Software auf (neue) Anwendungsfälle loslässt, für die sie ursprünglich nicht geschrieben wurde.
Joa,haste recht. Es sind aber viele Menschen und die ki lernt ja auch mit. Die Software kann man ja testen.
Bei Menschen lernt jeder fahrer nur einmal wenn es ganz blöd läuft.
Mischbetrieb sehe ich aber kurzfristig auch nicht. Wenn man alle Menschen den Führerschein wegnehmen würde und ki alles machen lässt, würde sich die unfallrate auf fast 0 reduzieren. Ki hält sich halt an regeln und säuft nicht. Aber hätte hätte fahrradkette…
Ja, deshalb sagte ich ja: vereinzelte Menschen bauen Mist; die Software aber würde als Ganzes Mist bauen (jedes Kfz mit der Software-Version wäre bei einem Fehler betroffen). Dann gäbe es keine 3 oder 4 Geisterfahrer mehr sonntags in Deutschland, sondern wenn es richtig scheiße läuft tausende oder Millionen (je nach Verbreitungsgrad - nicht wörtlich nehmen).
Die Software kann man ja testen.
Nur zu einem gewissen Teil. Man kann die Software nur gegen Situationen testen, die man voraussieht. Beispiel: ein Flugzeug muss eine Notlandung auf einer Autobahn machen. Glaubst du, ein Software-Tester hat geprüft, ob die Standard-Ausweich-Routinen ausreichen in diesem Fall? Kann wohl auch sein, dass das Auto einfach stehen bleibt. Wäre eher uncool. Wie räumen die Einsatzkräfte die Straße frei, sodass das Auto versteht (mit einem Megafon wohl kaum).
Bei Menschen lernt jeder fahrer nur einmal
Dieses Argument ist falsch. Der Mensch lernt bei jeder Autofahrt. Sonst dürftest du dein “die KI lernt ja auch mit”-Argument auch nicht bringen. Den Multiplikationseffekt hat der Mensch zwar nicht - aber dafür kann der Multiplikator auch nicht nach hinten losgehen.
Wenn man alle Menschen den Führerschein wegnehmen würde und ki alles machen lässt, würde sich die unfallrate auf fast 0 reduzieren.
Das ist eine steile These, zu der jegliche Beweisführung fehlt und der ich vehement widerspreche. Das will ich erst mal in einem groß angelegten Test mit einigen hunderten Fahrzeugen sehen (und zwar nicht nur kreisförmig um den Block als Taxis: richtig mit Straßensperre, Verfolgungsjagd mit der Polizei, Überschwemmungen usw.).
Ki hält sich halt an regeln und säuft nicht.
Na dann hoffen wir mal, dass niemand eine Regel vergessen oder falsch implementiert hat. KI säuft zwar nicht, dafür halluziniert sie gerne mal.
Ich finds halt witzig: einerseits stellst du den Menschen als absolut unfähig dar, was die Kfz-Führung anbelangt. Andererseits bescheinigst du dem Menschen eine perfekte Software schreiben zu können. Bisschen arg widersprüchlich. 🤷🏻♂️
Ich glaube, du nutzt den Begriff KI hier falsch. Was du vermutlich meinst ist schlicht ‘Software’. Würdest du ein Auto nach dem Modell von ChatGPT ‘trainieren’, wäre das Verhalten am Ende quasi genauso unvorhersehbar wie das eines Menschen.
In Deutschland betrifft die Rexhtsprechung bis jetzt aber quasi nur Teilautonomes fahren. Ich glaube nicht, dass Autokonzerne noch in irgendeiner Form belangt werden möchten, wenn autonomes Fahren überwiegt. Den Passagier für Fahrfehler des Fahrzeugs haftbar zu machen ist aber auch Quark.
Menschen halten sich an Regeln, weil sie sie im Idealfall als sinnvoll erachten oder Angst vor den Konsequenzen haben. Eine Maschine kann beides nicht, die versucht sich nur so gut es geht sich an Regeln zu halten.
Wenn sich in ein Autonomes System ein Fehler einschleicht, hat man den gleich tausendfach auf den Straßen. Irgendwie beunruhigend.
Dass hohe Strafen nach Verletzungen oder Todesfällen da einen merklichen Einfluss haben werden glaube ich nicht. Autos in den 1970ern waren extrem unsicher, die Leute sind aber nicht vorsichtiger gefahren als heute, sondern wir hatten einfach 20.000 Verkehrstote pro Jahr allein im Westen, bei viel weniger KFZ und Personenkilometern. Individuen gehen immer davon aus, dass sie schon keinen Unfall haben werden. Viel wichtiger ist, risikoreiches Verhalten konsequent zu ahnden.
Perverserweise kann ich mir sogar vorstellen, dass die eiskalten Produktionskosten-vs-Schadenersatz-Berechnungen der BWL-Abteilungen ein effektiv größeres Interesse an der Unfallvermeidung haben als Privatpersonen.
Wenn sich in ein Autonomes System ein Fehler einschleicht, hat man den gleich tausendfach auf den Straßen. Irgendwie beunruhigend.
Menschen haben auch haufenweise Fehler, und die haben wir millionenfach auf den Straßen. Bei Schnee und Nebel sind wird blind, wir werden müde und gestresst und abgelenkt, spielen am Handy, überschätzen uns und versuchen andere zu beeindrucken. Die Hürde fürs autonome Fahren ist nicht “fehlerlos”, sondern “besser als der Mensch”.
Ich glaube mein Problem ist größtenteils fehlendes Vertrauen in Hersteller und Bedenken, dass sich Hersteller nicht damit zufrieden geben wollen, für Fehler zu haften. Da mag die Parteispende günstiger sein.
Autonome Autos taugen nichts. Sie haben nicht die Marktreife, sie scheitern an total albernen Banalitäten…
… haben aber im Gegensatz zu “herkömmlicher Beta-Software” die Möglichkeit, einen Roboter mit 200 Sachen in eine Gruppe von Kindern steuern zu können.
Wir haben doch eigentlich schon beim Thema Smarthome gelernt, dass Cloud-Zwang nicht klug ist. Es ist echt beachtlich wie störrisch die Automobil-Branche glaubt, die Regeln der Software-Entwicklung würden für sie nicht gelten.
Menschen taugen als Autofahrer nicht. Scheitern an Banalitäten. Fahren in Kindergruppen. Lernen fast nie aus Fehlern und lassen andere nicht an Fehlern teilhaben. Außerdem erkennen Sie nicht wann sie zu alt sind oder fahren besoffen.
Menschen - nicht alle, aber viele - haben die Möglichkeit auf Probleme zu reagieren, mit denen sie vorher nie konfrontiert waren. Software kann das nicht: sie interpretiert Muster, die ihr beigebracht worden. Fehlt ein Muster, kann sie auf ein Problem nicht reagieren…
… und vorallem funktionieren wir ohne Cloud-Anbindung.
Es mag schon sein, dass autonome Fahrzeuge eine ganze Reihe von Problemen lösen (können), mit denen der Mensch zu kämpfen hat. Aber sie bringen zugleich eine große Vielzahl davon mit - und die werden aktuell konsequent ignoriert. Und solange das so ist, werden sie die schlechteren Fahrer sein.
Und ja, Menschen rasen auch in Kindergruppen. Weil ein Mensch unter vielen einen Dachschaden hat. Hat die Software eines autonomen Fahrzeugs hingegen einen “Dachschaden”, dann hat man da ein viel größeres Problem.
Das größte Problem für Software in autos sind Menschen die sich nicht an regeln halten.
Den Argumentationssprung verstehe ich jetzt nicht (aus deiner Sicht): wenn Menschen sich nicht an Regeln halten (also Fehler machen), dann muss die Software in Autos folglich fehlerbehaftet sein, wodurch sie nicht einwandfrei funktioniert…
… was irgendwie - nun ja - meine Aussage ist.
Verstehe deine Logik nicht. Was hat die Software damit zu tun dass Menschen Fehler machen? Sie kommt mit den gemachten Fehlern nicht klar, weil Fehler unbekannte Muster sind.
… weil Menschen es sind, welche die Software schreiben. Folglich machen Menschen auch Fehler bei der Entwicklung der Software.
Jede (komplexe) Software enthält technische und/oder logische Fehler. Gerade die letzteren sind enorm schwer zu finden und zu beheben. Vorallem dann, wenn man die Software auf (neue) Anwendungsfälle loslässt, für die sie ursprünglich nicht geschrieben wurde.
Joa,haste recht. Es sind aber viele Menschen und die ki lernt ja auch mit. Die Software kann man ja testen. Bei Menschen lernt jeder fahrer nur einmal wenn es ganz blöd läuft. Mischbetrieb sehe ich aber kurzfristig auch nicht. Wenn man alle Menschen den Führerschein wegnehmen würde und ki alles machen lässt, würde sich die unfallrate auf fast 0 reduzieren. Ki hält sich halt an regeln und säuft nicht. Aber hätte hätte fahrradkette…
Ja, deshalb sagte ich ja: vereinzelte Menschen bauen Mist; die Software aber würde als Ganzes Mist bauen (jedes Kfz mit der Software-Version wäre bei einem Fehler betroffen). Dann gäbe es keine 3 oder 4 Geisterfahrer mehr sonntags in Deutschland, sondern wenn es richtig scheiße läuft tausende oder Millionen (je nach Verbreitungsgrad - nicht wörtlich nehmen).
Nur zu einem gewissen Teil. Man kann die Software nur gegen Situationen testen, die man voraussieht. Beispiel: ein Flugzeug muss eine Notlandung auf einer Autobahn machen. Glaubst du, ein Software-Tester hat geprüft, ob die Standard-Ausweich-Routinen ausreichen in diesem Fall? Kann wohl auch sein, dass das Auto einfach stehen bleibt. Wäre eher uncool. Wie räumen die Einsatzkräfte die Straße frei, sodass das Auto versteht (mit einem Megafon wohl kaum).
Dieses Argument ist falsch. Der Mensch lernt bei jeder Autofahrt. Sonst dürftest du dein “die KI lernt ja auch mit”-Argument auch nicht bringen. Den Multiplikationseffekt hat der Mensch zwar nicht - aber dafür kann der Multiplikator auch nicht nach hinten losgehen.
Das ist eine steile These, zu der jegliche Beweisführung fehlt und der ich vehement widerspreche. Das will ich erst mal in einem groß angelegten Test mit einigen hunderten Fahrzeugen sehen (und zwar nicht nur kreisförmig um den Block als Taxis: richtig mit Straßensperre, Verfolgungsjagd mit der Polizei, Überschwemmungen usw.).
Na dann hoffen wir mal, dass niemand eine Regel vergessen oder falsch implementiert hat. KI säuft zwar nicht, dafür halluziniert sie gerne mal.
Ich finds halt witzig: einerseits stellst du den Menschen als absolut unfähig dar, was die Kfz-Führung anbelangt. Andererseits bescheinigst du dem Menschen eine perfekte Software schreiben zu können. Bisschen arg widersprüchlich. 🤷🏻♂️
Ich glaube, du nutzt den Begriff KI hier falsch. Was du vermutlich meinst ist schlicht ‘Software’. Würdest du ein Auto nach dem Modell von ChatGPT ‘trainieren’, wäre das Verhalten am Ende quasi genauso unvorhersehbar wie das eines Menschen.
= Menschen allgemein.
Wenn wir jetzt den Faktor Mensch raus haben wollen bräuchten wie in der Konsequenz Beschrankte Zebrastreifen und müssen Radfahren verbieten.
Ampeln? Fahrradwege?
Menschen kann ich für ihre Untaten aber belangen. Autonome Autos nicht.
Schwachsinn.
Deswegen wird Tesla auch alle Nase wegen des Autopilots verklagt. In Deutschland haftet primär der Halter für Unfälle im autonomen Modus.
Juristische Personen und Versicherungen sind keine neue Erfindung.
In Deutschland betrifft die Rexhtsprechung bis jetzt aber quasi nur Teilautonomes fahren. Ich glaube nicht, dass Autokonzerne noch in irgendeiner Form belangt werden möchten, wenn autonomes Fahren überwiegt. Den Passagier für Fahrfehler des Fahrzeugs haftbar zu machen ist aber auch Quark.
Also, Schwachsinn würde ich dazu nicht sagen.
Mercedes haftet bereits jetzt für ihr (stark eingeschränktes) Level 3 System.
Sehr interessanter Artikel, danke dafür! War mir gar nicht so bewusst, dass das tatsächlich schon möglich ist.
Das bringt den Toten dann aber auch nichts mehr.
Kann aber dabei helfen mehr Tote zu verhindern.
Menschen halten sich an Regeln, weil sie sie im Idealfall als sinnvoll erachten oder Angst vor den Konsequenzen haben. Eine Maschine kann beides nicht, die versucht sich nur so gut es geht sich an Regeln zu halten.
Wenn sich in ein Autonomes System ein Fehler einschleicht, hat man den gleich tausendfach auf den Straßen. Irgendwie beunruhigend.
Und dafür haftet dann der Hersteller.
Dass hohe Strafen nach Verletzungen oder Todesfällen da einen merklichen Einfluss haben werden glaube ich nicht. Autos in den 1970ern waren extrem unsicher, die Leute sind aber nicht vorsichtiger gefahren als heute, sondern wir hatten einfach 20.000 Verkehrstote pro Jahr allein im Westen, bei viel weniger KFZ und Personenkilometern. Individuen gehen immer davon aus, dass sie schon keinen Unfall haben werden. Viel wichtiger ist, risikoreiches Verhalten konsequent zu ahnden.
Perverserweise kann ich mir sogar vorstellen, dass die eiskalten Produktionskosten-vs-Schadenersatz-Berechnungen der BWL-Abteilungen ein effektiv größeres Interesse an der Unfallvermeidung haben als Privatpersonen.
Menschen haben auch haufenweise Fehler, und die haben wir millionenfach auf den Straßen. Bei Schnee und Nebel sind wird blind, wir werden müde und gestresst und abgelenkt, spielen am Handy, überschätzen uns und versuchen andere zu beeindrucken. Die Hürde fürs autonome Fahren ist nicht “fehlerlos”, sondern “besser als der Mensch”.
Ich glaube mein Problem ist größtenteils fehlendes Vertrauen in Hersteller und Bedenken, dass sich Hersteller nicht damit zufrieden geben wollen, für Fehler zu haften. Da mag die Parteispende günstiger sein.
Aber ja, grundsätzlich hast du da schon Recht.