La Google self-driving car causa per la prima volta un incidente
Nessuno è perfetto, neanche le intelligenze artificiali create a tavolino: o forse si, ma soltanto algoritmicamente parlando e non nella vita reale.
Perché la “causa” del primo incidente stradale provocato dalla Google Self-driving car è proprio questa: il comportamento dell’automobile faccia a faccia con l’imprevisto è stato corretto se si considera l’algoritmo di gestione ma imprevedibile se si tiene conto dello scenario reale con cui questo è avvenuto.
Innanzitutto, non ci sono stati feriti. In secondo luogo, chiariamo che non si tratta del primo incidente per le self-driving Car, ma del primo “provocato” da una di esse in modalità di guida autonoma – dunque, in pratica, da una intelligenza artificiale.
E adesso, la dinamica: secondo il report, la collisione è avvenuta poiché la Google Lexus ha trovato sul suo percorso alcuni sacchi di sabbia a protezione di un tombino aperto, si è fermata ed ha cercato di immettersi nella corsia centrale. Il guidatore a bordo della Lexus, che non aveva il controllo – affidato al pilota automatico – del veicolo, ha pensato che l’autobus che occupava la corsia centrale si sarebbe fermato – o avrebbe quantomeno rallentato – per permettere il cambio alla Lexus, così come l’algoritmo stesso, dunque non ne ha assunto il controllo manuale.
Ciò non è successo, l’autobus non si è fermato né ha rallentato ma la Google Lexus ha tentato comunque di immettersi in corsia dunque tre secondi dopo c’è stato l’impatto tra la fiancata dell’automobile e quella del bus.
Un classico incidente stradale evitabile sia nel caso che l’autobus avesse rallentato sia nel caso che la Google Car si fosse fermata e ne avesse atteso il passaggio; secondo il codice della strada, l’autobus non aveva nessun obbligo a cambiare la sua marcia – dunque, di fatto, l’incidente è stato provocato dal non-fermarsi della Lexus.
Morale della favola: un incidente che non sarebbe avvenuto sia se da ambo le parti ci fosse stato il controllo umano sia se da ambo le parti ci fosse stato il pilota automatico – il tentativo di immissione della Lexus sarebbe stato visto come un ostacolo dal bus, che l’algoritmo di controllo avrebbe bloccato automaticamente.
Trattasi quindi della dimostrazione che la convivenza tra pilota automatico e pilota umano non è assolutamente sinonimo di perfezione né di sicurezza assoluta.
Almeno non ancora.
L’articolo La Google self-driving car causa per la prima volta un incidente appare per la prima volta su Chimera Revo – News, guide e recensioni sul Mondo della tecnologia.
Se vuoi sostenerci, puoi farlo acquistando qualsiasi cosa dai diversi link di affiliazione che abbiamo nel nostro sito o partendo da qui oppure alcune di queste distribuzioni GNU/Linux che sono disponibili sul nostro negozio online, quelle mancanti possono essere comunque richieste, e su cui trovi anche PC, NAS e il ns ServerOne. Se ti senti generoso, puoi anche donarmi solo 1€ o più se vuoi con PayPal e aiutarmi a continuare a pubblicare più contenuti come questo. Grazie!
Hai dubbi o problemi? Ti aiutiamo noi!
Se vuoi rimanere sempre aggiornato, iscriviti al nostro canale Telegram.Se vuoi ricevere supporto per qualsiasi dubbio o problema, iscriviti alla nostra community Facebook o gruppo Telegram.
Cosa ne pensi? Fateci sapere i vostri pensieri nei commenti qui sotto.
Ti piace quello che leggi? Per favore condividilo con gli altri.