Un altro esempio molto concreto di questi edge case viene successivamente pubblicato con clamore e divertimento su Reddit: un camion ha dei cartelli di stop dipinti sul portellone posteriore, e il sistema di riconoscimento ottico dei cartelli di una Tesla li etichetta e li mostra come se fossero cartelli reali.
Cosa succede se il sistema di decisione dell’auto ritiene che quei cartelli disegnati siano reali e quindi inchioda in mezzo alla strada, creando la situazione perfetta per un tamponamento a catena?
Ìl sistema è sufficientemente sofisticato da tenere conto del contesto e quindi “sapere” che i cartelli stradali normalmente non si muovono lungo le strade, e quindi è in grado di rigettare il riconoscimento e ignorarlo nelle sue decisioni di guida?
Un conducente umano, avendo conoscenza del mondo, non avrebbe la minima esitazione: “sono chiaramente cartelli dipinti sul retro di un camion, li posso tranquillamente ignorare”. Un sistema di guida autonoma o assistita non è necessariamente altrettanto consapevole. E soprattutto il conducente potrebbe essere in difficoltà nell’anticipare questi possibili errori che lui non commetterebbe mai.
Si potrebbe pensare che incontrare un veicolo con dei cartelli stradali disegnati sul retro sia un caso raro. Ma è stato pubblicato online un altro caso ancora più bizzarro: una Tesla Model 3 viaggia a 130 km/h e mostra un flusso costante di semafori che appaiono dal nulla sulla corsia del conducente.
Un essere umano sa in un millisecondo che questo è impossibile, perché ha conoscenza del mondo e sa che i semafori non volano e non compaiono dal nulla; il sistema di guida assistita no, perché non “sa” realmente che cosa sono i semafori nel mondo reale e quindi non “sa” che non possono apparire dal nulla a 130 km/h.
Che cosa ha causato questo clamoroso errore di riconoscimento? Un camion che trasportava semafori.
E non è l’unico caso segnalato dagli utenti di queste auto: altri conducenti hanno citato addirittura camion che trasportavano semafori accesi, che sono stati riconosciuti come impossibili semafori volanti dalle loro auto.
Per non parlare delle bandiere verticali della Coop, nelle quali la forma circolare delle lettere viene scambiata per quella delle luci di un semaforo.
[Ho aggiunto l’esempio seguente, che mostra la Luna scambiata per un semaforo, dopo la chiusura della registrazione del podcast]
Questo è esattamente il tipo di errore che un conducente umano non commetterebbe mai e che invece un sistema di guida basato esclusivamente sul riconoscimento delle immagini farà, e farà in circostanze imprevedibili. Con conseguenze potenzialmente mortali. Se state valutando un’auto dotata di questi sistemi, pensateci bene. Se ne avete una, pensateci ancora di più.
Certo, gli umani commettono altri tipi di errori, per cui alla fine l’obiettivo di questi sistemi non è creare una soluzione di guida assolutamente infallibile, ma semplicemente una che fallisca mediamente meno (ossia causi meno incidenti) della media dei conducenti umani.
Ma tutto questo vuol dire che la guida autonoma basata sul riconoscimento puro degli schemi è impossibile? Non è detto.
Una soluzione potrebbe essere semplificare l’ambiente operativo, creando strade su misura, rigidamente normate, accessibili soltanto a veicoli autonomi o assistiti. Per esempio, un ascensore (che in sostanza è un treno verticale in una galleria verticale chiusa) è un sistema di “guida autonoma” affidabilissimo, che richiede pochissima “intelligenza” grazie a un ambiente operativo ipersemplificato.
Allo stesso tempo, va notato che ci sono esempi di sistemi che interagiscono egregiamente con un ambiente operativo complesso pur avendo una “intelligenza” molto limitata: le api. Con un solo milione di neuroni riescono a navigare, interagire con i fiori, comunicare con le altre api, gestire gli aggressori e avere una società complessa e organizzata. hanno persino delle “votazioni”).
Noi abbiamo cento miliardi di neuroni, cioè centomila cervelli d’ape, a testa e a volte non riusciamo a capire come indossare una mascherina o perché. Chiaramente c’è un margine di ottimizzazione che le api sfruttano e noi no, ma è anche vero che un’ape va in crisi quando incontra l’edge case di una cosa che non esiste in natura, tipo una barriera trasparente: il vetro di una finestra.
È anche possibile che estendendo il concetto di riconoscimento degli schemi all’asse del tempo (ossia imparando a riconoscere come cambia un oggetto nel corso del tempo) ed estendendo il concetto di schema a oggetti complessi come incroci, rotatorie e attraversamenti pedonali, si riesca a ottenere risultati accettabili.
Ma tutto questo richiede un database di esempi colossale, una classificazione vastissima e una potenza di calcolo ancora più colossale. Nessuno dei sistemi attualmente in commercio ci si avvicina. Siate prudenti e non fidatevi dei video su YouTube.



