• Dagospia

    LA POLIZIA DELL’INFORMAZIONE – LA NUOVA STRATEGIA DI GOOGLE CONTRO LE FAKE NEWS? SMETTERE DI DARE RISULTATI SE LI RITIENE NON AFFIDABILI. BRAVI, BRAVISSIMI, BIS: MA CHI DECIDE COSA È ATTENDIBILE E CHI NO? UN ALGORITMO? E SE VIENE ISTRUITO A CENSURARE SOLO CERTE OPINIONI SOLO PERCHÉ CONSIDERATE SCORRETTE? ALTRO CHE FAKE NEWS: È UN BAVAGLIO...


     
    Guarda la fotogallery

    Caterina Soffici per “La Stampa”

    google google

     

    Google ha imparato a dire «non lo so». Una buona cosa, se non fosse che la nuova funzione arriva con 24 anni di ritardo, essendo la società californiana nata nel 1998. In questi 24 anni, prima di rendersi conto che i suoi intelligentissimi algoritmi non erano poi così perfetti e soprattutto prima che i capoccioni di Menlo Park decidessero di intervenire, il motore di ricerca più cliccato del mondo, nel rispondere alle domande più assurde, ha diffuso un sacco di notizie false e dato risposte senza senso.

     

    SUNDAR PICHAI GOOGLE SUNDAR PICHAI GOOGLE

    Certo, era programmato per dare una riposta immediata, un frammento capace di inchiodare l'utente e di non farlo andare su altri siti e non si preoccupava della domanda. Se per esempio si immetteva nella barra di ricerca questa frase: «In che anno Snoopy ha assassinato Abramo Lincoln?», l'algoritmo avrebbe risposto tranquillamente «1865», che è la data giusta, ma avrebbe avallato implicitamente l'assassino sbagliato.

     

    francia google facebook cookies francia google facebook cookies

    Adesso, se la domanda è troppo stupida o palesemente fuorviante, Google farà scena muta. Apparirà la scritta: «Dati assenti». E non mostrerà più frammenti fuorvianti in primo piano. L'annuncio è stato dato da Pandu Nayak, vice presidente della società e responsabile della sezione ricerche, che sulla questione Snoopy-Lincoln e la data 1865 ammette: «Chiaramente non è il modo più utile per visualizzare questo risultato».

     

    Chiaramente no, infatti. Ma per 24 anni milioni di utenti in tutto il mondo avrebbero potuto cadere nell'inganno che è stato Snoopy ad uccidere Lincoln. Ora il signor Pandu Nayak spiega in un post che annuncia la novità (riportato dal quotidiano britannico The Guardian): «Abbiamo addestrato i nostri sistemi a migliorare il rilevamento di questo tipo di false risposte, che non sono molto comuni, ma ci sono casi in cui non è utile dare una risposta incompleta in primo piano. Con questo aggiornamento - aggiunge - abbiamo ridotto del 40 per cento questo tipo di visualizzazioni».

    google 4 google 4

     

    Meglio tardi che mai, si dirà. Ed è vero. Però queste continue modifiche e aggiustamenti dovrebbero far riflettere su almeno un paio di cose. Primo: il potere assoluto che i signori del Web hanno sulle nostre vite e sulla nostra conoscenza. Fate il conto di quante volte consultate Google in una giornata per chiedere qualunque tipo di informazione, dalle date di nascita ai nomi propri ai nomi di luoghi ai fatti storici.

     

    Chi controlla più un dizionario o un'enciclopedia? Ci affidiamo a Google come ci affidavamo alla mamma quando da bambini chiedevamo i famosi «perché?». E infatti il nuovo programma, addestrato a non rispondere, si chiama MUM, che sta per Multitasking Unified Model, e sembra strano che l'acronimo sia solo una coincidenza.

     

    google 2 google 2

    O forse sì, vai a sapere, forse l'ironia non è una dote richiesta ai programmatori delle intelligenze artificiali. Comunque sia, adesso MUM non risponderà più a certe domande. Lo farà solo se nel vasto oceano di informazioni online si imbatterà in siti che la sua nuova intelligenza artificiale, ancora più intelligente di prima, giudicherà attendibili.

     

    Secondo: quali sono i criteri con cui MUM sceglierà l'attendibilità delle notizie. E quindi, quante delle informazioni e delle domande e delle risposte che cerchiamo costantemente nella rete, sono veramente attendibili. Sono questioni enormi, di cui si è già parlato in abbondanza, ma ogni volta che si torna sull'argomento tremano un po' i polsi a pensare che ci siano delle macchine e degli scambi di impulsi elettrici dietro la nostra conoscenza delegata.

     

    In fondo questa dell'incertezza di Google è un'ottima notizia. Era impensabile eh, che la nostra mamma tecnologica, a cui ci affidiamo per ogni tipo di richiesta e informazione, potesse ammettere la propria inadeguatezza di fronte alla complessità del mondo?

    google 1 google 1

     

    Non dovrebbe stupirci troppo, perché il mondo non è binario come un circuito di microchip. Invece continuiamo a stupirci quando ne scopriamo le falle, anche se già da un po' di anni Google è al centro di polemiche per le visualizzazioni fallaci nella sua barra di ricerca.

    Per esempio, nel 2017, la società è stata accusata di aver diffuso fake news su Obama. Alla domanda: «Obama sta pianificando un colpo di Stato?», il sistema ha riposto tranquillamente agli utenti: «Obama potrebbe pianificare un colpo di stato comunista alla fine del suo mandato nel 2016». Purtroppo, le informazioni venivano da un sito web di teorici della cospirazione.

     

    Altre volte gli errori sono stati più comici, come quando Google ha riposto che le scale sono state inventate nel 1946 (notizia trovata su un sito web di regolamentazione di sicurezza urbanistica).

     

    google 2 google 2

    Insomma, come le mamme che di fronte a certi «Perché?», non sapevano a che santo appellarsi, anche Google alza le mani. Certe volte una buona risposta potrebbe semplicemente non esistere. E così dovremmo abituarci a non fare domande stupide per non incappare nella scritta «Assenza di dati», un fatto nuovo e totalmente destabilizzante per la maggior parte degli utenti. Forse, disattivando certi automatismi, si potrebbe attivarne altri, per esempio l'uso di un dizionario o di un'enciclopedia cartacea. Perché se neanche Google, certe volte, lo sa, stiamo entrando in un mondo distopico terrorizzante per i più: quello dove la realtà prevale sul virtuale.-

    Guarda la fotogallery


    ultimi Dagoreport