• Dagospia

    "SALVO I MIEI PASSEGGERI O I PEDONI?" – I SOFTWARE NELLE AUTO DEL FUTURO POTREBBERO AVERE QUESTI DILEMMI DAVANTI A UN INCIDENTE INEVITABILE – LA GERMANIA CORRE AI RIPARI E VARA PER PRIMA UN CODICE ETICO PER I PRODUTTORI DI AUTOMOBILI – “LA GUIDA AUTOMATICA NON HA SENSO SE NON PER EVITARE VITTIME SULLE STRADA”: OGNI ANNO UN MILIONE E 250MILA MORTI


     
    Guarda la fotogallery

    Jaime D' Alessandro per La Repubblica

     

    auto con guida automatica auto con guida automatica

    Sacrificare la madre con la bambina sulla destra o la coppia di anziani sulla sinistra? O ancora: andare fuori strada e rischiare la vita dei tre adulti a bordo o frenare ma probabilmente colpire i due adolescenti che stanno attraversando anche se per loro il semaforo è rosso? Una macchina a guida autonoma potrebbe trovarsi davanti a scelte atroci in situazioni dove l' incidente è inevitabile. E così in Germania hanno deciso di stabilire venti principi etici per marcare i confini oltre i quali i programmatori non dovranno mai spingersi quando si tratterà di scrivere il codice delle vetture e dei robot del futuro.

     

    Li ha messi nero su bianco la Commissione etica sulla guida autonoma e connessa voluta dal ministro dei trasporti Alexander Dobrindt. Tra i quattordici membri anche un teologo, quattro professori di etica, uno di informatica, un ex giudice costituzionale. «Questo sono al mondo le prime linee guida sul tema con una forte impronta etica», racconta Christoph Luetge, professore di Business Ethics al Politecnico di Monaco e membro della commissione. «Principi fondanti che un domani potrebbero essere alla base di un nuovo quadro di leggi ».

    auto con guida automatica 5 auto con guida automatica 5

     

    Si parte dalla sicurezza: l' automazione non ha senso se non salva vite, considerando che sulle strade muoiono ogni anno un milione e 250mila persone e nel 93 per cento dei casi l' errore umano svolge un ruolo essenziale nel causarli. Non solo. Si stabilisce il primato della libera scelta e questo si traduce nel rifiuto dei mezzi a guida autonoma totale, il cosiddetto "Livello 5" delle Google Car prive di volante e pedali. E ancora: il software di un autobus, auto o aereo, non potrà decidere chi sacrificare fra pedoni, guidatore e passeggeri nelle collisioni inevitabili scegliendo in base al genere, all' età o al numero. «La tecnologia deve esser progettata per non arrivare mai a casi simili », prosegue Luetge.

     

    auto con guida automatica 4 auto con guida automatica 4

    Le "situazioni dilemma", sulle quali tanto ci si è interrogati in ambito accademico in questi anni di ascesa delle macchine capaci di apprendere, vengono rifiutate in blocco. E riguardo le responsabilità oggettive, legali e assicurative, la commissione chiarisce che cambieranno volta per volta, a seconda che l' incidente sia stato provocato da una rottura di un componente, da un errore del software mentre guidava o da quello del conducente. Non è la sola iniziativa ufficiale sui temi dell' automazione. La commissione giuridica del Parlamento europeo a febbraio e a novembre la Direzione generale per i trasporti della Commissione Ue, avevano trattato l' argomento da punti di vista diversi. Negli Stati Uniti a settembre anche il Dipartimento dei trasporti ha stilato delle linee guida, ma per evitare il caos normativo.

     

    auto con guida automatica 3 auto con guida automatica 3

    «Il peggior scenario possibile è arrivare ad un puzzle di leggi diverse per la guida autonoma che cambiano di Stato in Stato», ha sintetizzato Robert Grant, uno dei dirigenti del servizio Lyft, il maggiore concorrente di Uber oltreoceano. Ma del "dilemma etico" nessuno aveva ancora parlato fino a poco fa. Oggi l' Institute of Cognitive Science dell' Università di Osnabrück, sempre in Germania, pubblicherà i risultati di una sua ricerca sulle scelte degli automobilisti davanti a collisioni impossibili da evitare, condotta usando visori per la realtà virtuale. La maggior parte degli individui nelle varie situazioni ha reagito sempre alla stessa maniera. Secondo i ricercatori, le nostre scelte morali sarebbero dunque traducibili in algoritmi e trasferibili alle macchine.

     

    «Non conosco programmatori che abbiano già affrontato il problema », spiega Danny Shapiro, a capo della divisione automotive di Nvidia, azienda californiana che fornisce processori e software per intelligenza artificiale e guida autonoma a colossi come Audi, Toyota, Tesla, Mercedes- Benz, Volvo, Honda, Bmw.

    auto con guida automatica 2 auto con guida automatica 2

     

    «La guida di livello 4 arriverà solo nel 2019. È presto. E poi i sistemi digitali hanno tempi di reazione immediati e non soffrono la stanchezza. È improbabile arrivino a trovarsi davanti a scelte simili ». Il "dilemma" quindi è una possibilità molto remota, come ammette la stessa commissione voluta da Berlino. Ma in Germania pensano comunque che non spetterà a Silicon Valley dover decidere quale strada prendere.

    Guarda la fotogallery


    ultimi Dagoreport