DAGOREPORT - COME MAI I CAMERATI VIA DELLA SCROFA HANNO MESSO SU UNA SCENEGGIATA PER SPUTTANARE LA…
INTELLIGENZA ARTIFICIALE MA UN FILO RAZZISTA - L'ALGORITMO DI FACEBOOK HA SCAMBIATO I NERI PER GORILLA E IL SOCIAL DOPO LA FIGURACCIA SI E' SUBITO SCUSATO: "UN ERRORE INACCETTABILE" - LA VICENDA E' EMERSA PERCHE' SOTTO A UN VIDEO DEL DAILY MAIL CHE RIPRENDEVA UN GRUPPO DI PERSONE BIANCHE DISCUTERE CON ALTRE DI COLORE FACEBOOK HA SUGGERITO: "CONTINUA A GUARDARE VIDEO SUI PRIMATI" - E NON E' LA PRIMA VOLTA CHE SUCCEDE...
Dal Corriere.it
Il «colpevole» è un video di un tabloid britannico, il Daily Mail, che risale al 27 giugno 2020. Si intitola «L’uomo bianco chiama i poliziotti contro gli uomini di colore al porto turistico». Il filmato mostra un gruppo di persone di colore che discutono con altri uomini bianche e con degli agenti di polizia.
Nessun riferimento a scimmie o gorilla. Eppure l’algoritmo di Facebook ha pensato di suggerire, a chi aveva guardato questo post, dei video relativi ai primati. C’era scritto proprio così: «Continua a guardare video sui primati». Inevitabile lo scoppio di una polemica contro questa intelligenza artificiale che non è stata allenata in modo sufficiente - a quanto pare - a distinguere un nero da una scimmia.
Facebook ha subito avviato un’indagine interna e ha disabilitato l’algoritmo. Per poi scusarsi: un portavoce ha definito l’errore «inaccettabile» e assicura che si sta facendo il possibile perché questo «non succeda di nuovo». E ancora. «Mentre abbiamo fatto dei miglioramenti alla nostra intelligenza artificiale, sappiamo che non è perfetta e che dobbiamo fare altri progressi».
Non è però un caso isolato quello relativo al video del tabloid britannico. Da anni i sistemi di intelligenza artificiale delle grandi società tecnologiche, da Facebook a Google a Amazon, sono sotto osservazione in particolare per i pregiudizi sulla questione di razza.
Diversi studi hanno dimostrato come, ad esempio, il riconoscimento facciale abbia molte più difficoltà a identificare le persone di colore rispetto ai bianchi. Portando a incidenti spiacevoli, come quello capitato al 31enne Nijeer Parks. Assomigliava a un ricercato: l’intelligenza artificiale lo ha identificato come colpevole e lui è finito in carcere. E andando indietro al 2015, c’è stato il caso dei tag di Google che identificavano come «gorilla» due persone di colore.
DAGOREPORT - COME MAI I CAMERATI VIA DELLA SCROFA HANNO MESSO SU UNA SCENEGGIATA PER SPUTTANARE LA…
FLASH! – L’INCAZZATURA DI MELONI CON ROBERTO CINGOLANI? FOLLOW THE MONEY! L’IRRITAZIONE DELLA…
FLASH! – ARICICCIA ''LO STALLONE DI SUBIACO''! COSA INTENDE FRANCESCO LOLLOBRIGIDA QUANDO, OSPITE…
DAGOREPORT – COSA DIRÀ DONALD TRUMP NEL DISCORSO DI STANOTTE? LE CANCELLERIE EUROPEE PREPARANO…
DAGOREPORT – CHI SI ASPETTAVA UNA REAZIONE FURIOSA DI TRUMP AL “NO” ITALIANO ALL’ATTERRAGGIO DI DUE…
DAGOREPORT - IL “NON POSSUMUS” DI GIORGIA MELONI ALL’ATTERRAGGIO DEGLI AEREI STATUNITENSI ALLA BASE…