Dem Fahry kann man ins Gesicht schauen und feststellen, ob er eine rote Nase (Weihnachtsmann oder Alkoholeinfluss) oder irre Augen hat.
Im Gegensatz dazu hat das autonome System einen Aussetzer, weil auf beide Kameras gerade Hundekacke gespritzt ist oder die KI noch nie erlebt hat, dass der Bordstein knallpink gestrichen ist.
du kannst einem Taxi- oder Busfahrer auf Anhieb ansehen, ob er ein Psychopath oder sonstwie unberechenbar ist?
Falls ja, solltest du dich unbedingt an einer entsprechenden Stelle bewerben. DAS können nämlich selbst die besten Experten nicht auf Anhieb.
Und ein autonomes System - sorry, aber DAS ist der typische Claim, der leider immer wieder von Unwissenden durch die Medien getreten wird und zu dämlichen Diskussionen geführt hat. Effekt ist es nämlich bei wirklich vollautonomen Systemen so: Geraten sie in eine Situation, in der sie sich nicht 100%ig sicher sind, bleiben sie STEHEN und WARTEN. Und wenn die Wartezeit ZU LANG wird, ruft das Fahrzeug daheim um Hilfe, schaltet sich aus der Ferne wieder ein Mensch auf und schaut, was denn los ist.
So läuft es bspw. in den USA bereits bei Cruise und bei Waymo alltäglich. In den Medien sieht man dann lediglich Autos, die komisch rumstehen. Einfach, weil der Mensch nicht versteht, dass manche Risiken nicht eingenommen werden sollten bzw. eingenommen werden.
du kannst einem Taxi- oder Busfahrer auf Anhieb ansehen, ob er ein Psychopath oder sonstwie unberechenbar ist?
Habe ich nicht gesagt.
Geraten sie in eine Situation, in der sie sich nicht 100%ig sicher sind, bleiben sie STEHEN und WARTEN.
Sollten sie. Und tun sie, je nach System, sicher in den meisten Fällen auch. Aber was genau ist dann bei Cruise in SF gelaufen? Und was genau läuft in Elmo seiner wilden Ideenbude?
Aktuell sind wir jedenfalls nicht an einem Punkt, wo Normalbürgys irgendwie beurteilen können, ob sie gerade in ein einigermaßen sicheres System wie von Waymo oder in ein Katastrophensystem wie von Tesla steigen. Kein Zweifel, dass das besser wird und die schlechten Systeme irgendwann wegreguliert werden.
Das wesentliche Problem bei KI-gestützten Anwendungen ist aber, dass nicht mal die Entwicklys richtig gut reinschauen können, was das System macht, geschweige denn Regulierungsbehörden. (Und Regulierungsbehörden sind ja schon überfordert von dEn AlGoRiThMeN.)
keine Ahnung, was genau bei Cruise passiert sein soll. Bei Waymo gab es eine Situation, dass ein Wagen einen Passanten, der von einem von einem Menschen gesteuerten Pickup umgefahren und vor den Wagen geschleudert wurde, fast selbst überrollt hätte, weil besagter Mensch zwischen die Achsen geschleudert wurde.
Und was Tesla angeht - verlinke mir bitte einen Hinweis darauf, dass die Firma bereits Level 4 oder gar 5-Fahrzeuge im Einsatz hat. Kenn ich nämlich keine
Ergo: 100% Meinung, genau 0 Ahnung. Wieder mal