Ja, deshalb sagte ich ja: vereinzelte Menschen bauen Mist; die Software aber würde als Ganzes Mist bauen (jedes Kfz mit der Software-Version wäre bei einem Fehler betroffen). Dann gäbe es keine 3 oder 4 Geisterfahrer mehr sonntags in Deutschland, sondern wenn es richtig scheiße läuft tausende oder Millionen (je nach Verbreitungsgrad - nicht wörtlich nehmen).
Die Software kann man ja testen.
Nur zu einem gewissen Teil. Man kann die Software nur gegen Situationen testen, die man voraussieht. Beispiel: ein Flugzeug muss eine Notlandung auf einer Autobahn machen. Glaubst du, ein Software-Tester hat geprüft, ob die Standard-Ausweich-Routinen ausreichen in diesem Fall? Kann wohl auch sein, dass das Auto einfach stehen bleibt. Wäre eher uncool. Wie räumen die Einsatzkräfte die Straße frei, sodass das Auto versteht (mit einem Megafon wohl kaum).
Bei Menschen lernt jeder fahrer nur einmal
Dieses Argument ist falsch. Der Mensch lernt bei jeder Autofahrt. Sonst dürftest du dein “die KI lernt ja auch mit”-Argument auch nicht bringen. Den Multiplikationseffekt hat der Mensch zwar nicht - aber dafür kann der Multiplikator auch nicht nach hinten losgehen.
Wenn man alle Menschen den Führerschein wegnehmen würde und ki alles machen lässt, würde sich die unfallrate auf fast 0 reduzieren.
Das ist eine steile These, zu der jegliche Beweisführung fehlt und der ich vehement widerspreche. Das will ich erst mal in einem groß angelegten Test mit einigen hunderten Fahrzeugen sehen (und zwar nicht nur kreisförmig um den Block als Taxis: richtig mit Straßensperre, Verfolgungsjagd mit der Polizei, Überschwemmungen usw.).
Ki hält sich halt an regeln und säuft nicht.
Na dann hoffen wir mal, dass niemand eine Regel vergessen oder falsch implementiert hat. KI säuft zwar nicht, dafür halluziniert sie gerne mal.
Ich finds halt witzig: einerseits stellst du den Menschen als absolut unfähig dar, was die Kfz-Führung anbelangt. Andererseits bescheinigst du dem Menschen eine perfekte Software schreiben zu können. Bisschen arg widersprüchlich. 🤷🏻♂️
Ja, deshalb sagte ich ja: vereinzelte Menschen bauen Mist; die Software aber würde als Ganzes Mist bauen (jedes Kfz mit der Software-Version wäre bei einem Fehler betroffen). Dann gäbe es keine 3 oder 4 Geisterfahrer mehr sonntags in Deutschland, sondern wenn es richtig scheiße läuft tausende oder Millionen (je nach Verbreitungsgrad - nicht wörtlich nehmen).
Nur zu einem gewissen Teil. Man kann die Software nur gegen Situationen testen, die man voraussieht. Beispiel: ein Flugzeug muss eine Notlandung auf einer Autobahn machen. Glaubst du, ein Software-Tester hat geprüft, ob die Standard-Ausweich-Routinen ausreichen in diesem Fall? Kann wohl auch sein, dass das Auto einfach stehen bleibt. Wäre eher uncool. Wie räumen die Einsatzkräfte die Straße frei, sodass das Auto versteht (mit einem Megafon wohl kaum).
Dieses Argument ist falsch. Der Mensch lernt bei jeder Autofahrt. Sonst dürftest du dein “die KI lernt ja auch mit”-Argument auch nicht bringen. Den Multiplikationseffekt hat der Mensch zwar nicht - aber dafür kann der Multiplikator auch nicht nach hinten losgehen.
Das ist eine steile These, zu der jegliche Beweisführung fehlt und der ich vehement widerspreche. Das will ich erst mal in einem groß angelegten Test mit einigen hunderten Fahrzeugen sehen (und zwar nicht nur kreisförmig um den Block als Taxis: richtig mit Straßensperre, Verfolgungsjagd mit der Polizei, Überschwemmungen usw.).
Na dann hoffen wir mal, dass niemand eine Regel vergessen oder falsch implementiert hat. KI säuft zwar nicht, dafür halluziniert sie gerne mal.
Ich finds halt witzig: einerseits stellst du den Menschen als absolut unfähig dar, was die Kfz-Führung anbelangt. Andererseits bescheinigst du dem Menschen eine perfekte Software schreiben zu können. Bisschen arg widersprüchlich. 🤷🏻♂️