BENVENUTO   |   Login   |   Registrati   |
Imposta Come Homepage   |   Ricerca Avanzata  CERCA  

IL CASO/ Le domande che "fermano" le auto a guida autonoma

Pubblicazione:

La Tesla S  La Tesla S

Il fondatore di Tesla, Elon Musk, ha detto che l’incidente non sarebbe mai capitato se il sistema avesse avuto gli ultimi aggiornamenti. Questo sarebbe uno splendido epitaffio per la lapide sulla tomba di Joshua D. Brown, l’ex marine americano di 40 anni che questa primavera si è infilato a tutta velocità sotto un camion mentre percorreva un’autostrada in Florida. Joshua stava guardando un film e la sua auto, una Tesla S, aveva inserito l’autopilota. Insomma, guidava da sola. Nessuno ha ancora capito cosa sia successo davvero e le indagini sulla morte dell’uomo dell’autorità americana, che ha tenuto segreta la notizia per mesi, non sembra abbiano portato dei risultati. L’azienda californiana ha spiegato sul suo sito web che il sistema non ha visto l’ostacolo perché è stato ingannato dal colore bianco del tir, che è stato scambiato dai sensori per il cielo che, citiamo testualmente, “in quel momento era particolarmente luminoso”.

L’incidente, le giustificazioni di Tesla, che è un’azienda che vuole essere sempre all’avanguardia e per questo si muove più in fretta di altri, e, soprattutto, il recente ridimensionamento dei programmi di Apple nel settore, ci fanno capire quanto siamo lontani dalla guida autonoma e quanti problemi devono essere affrontati prima di poter seriamente pensare che non si tratti di un sogno. Alcuni problemi, poi, sono difficilmente affrontabili, impossibili, direi, da risolvere; e non parliamo di quelli tecnologici legati ai sensori alla capacità di memoria o al software da installare nelle auto.

Il problema principe si può racchiudere in una sola domanda: sareste disposti a spendere decine di migliaia di euro in un’automobile che potrebbe decidere di uccidervi? Non credo siano in molti a volerlo fare, ma la guida autonoma è anche questo. Immaginate una situazione limite in cui l’auto dovesse decidere se investire qualcuno o schiantarsi contro un muro: il software deciderebbe in base a parametri logici come la vostra età e quella, presunta, del possibile investito, le conseguenze fisiche delle due alternative e altri decine di parametri. E potrebbe logicamente scegliere di schiantarsi contro un muro e uccidervi o farvi molto male. Il punto è che il guidatore non può farci proprio niente. Magari sta guardando un film come Joshua oppure sta guardando la strada, ma, in ogni caso, non può farci niente Conosco molte persone che non vanno volentieri in auto quando guida qualcun altro o frenano anche quando sono sedute sul sedile del passeggero. Comprerebbero un’auto che guida da sola? Non credo.

L’altro argomento che non viene considerato abbastanza è economico. Se l’auto guida da sola in base a un software elaborato dalla casa automobilistica, chi paga l’assicurazione e i danni che la guida software provoca? Se il software non viene aggiornato è colpa del proprietario e paga lui i danni o è un problema del costruttore? In un mondo perfetto non ci sarebbero incidenti perché tutto sarebbe collegato, compresi le persone, i bambini, gli animali, domestici e non. Ma, anche ammesso che questo obiettivo fosse condiviso e fattibile, cosa improbabile, occorre considerare un lunghissimo periodo in cui le auto a guida autonoma dovrebbero vivere in un mondo “imperfetto” in cui gli incidenti, lo dimostrano quelli inanellati dalla Google car, non solo saranno possibili ma anche frequenti. E in questo caso chi paga?



  PAG. SUCC. >