![francesco gaetano caltagirone alberto nagel andrea orcel generali](/img/patch/05-2021/francesco-gaetano-caltagirone-alberto-nagel-andrea-orcel-generali-1462671_600_q50.webp)
FLASH! - SIAMO UOMINI O GENERALI? PER L'OTTUAGENARIO CALTAGIRONE LA CATTURA DEL LEONE DI TRIESTE E'…
Fabio Chiusi per “la Repubblica”
Chi non farebbe volentieri a meno delle bufale di ogni sorta che circolano su Facebook, tante da costringere il rapporto 2013 del World Economic Forum a concludere che è proprio la “disinformazione digitale di massa” a costituire “uno dei principali rischi per la società moderna”?
Nessuno, devono aver pensato Mark Zuckerberg e soci. E così, da qualche giorno, tra le opzioni per motivare la segnalazione di un post indesiderato se ne è aggiunta, silenziosamente, una che consente di nascondere le “notizie false”.
L’espressione è insieme precisa e vaga, e il social network ne fornisce esempi non risolutivi: “una notizia deliberatamente falsa”, si legge, o “una truffa smascherata da una fonte affidabile”. Non esattamente lo stesso, e in ogni caso resta da capire cosa significhi “smascherata”, e cosa “una fonte affidabile”; soprattutto, chi lo valuti e secondo quali criteri.
Interpellato da Repubblica , un portavoce di Facebook Italia risponde che quella per rimuovere le “notizie false” è una opzione in fase di sperimentazione; in altre parole, uno degli infiniti test che la piattaforma compie sui suoi utenti, e che il grande pubblico ha cominciato a conoscere con l’esperimento, divulgato lo scorso giugno e molto discusso, sulle emozioni di 700 mila iscritti. “Segnalare storie che non si desidera vedere”, scrive ancora Facebook Italia, “aiuta il News Feed a fare un lavoro migliore per mostrare contenuti più rilevanti in futuro”.
La ratio, insomma, è la stessa di sempre: massimizzare l’esposizione a ciò che ci piace, e minimizzare quella a ciò che non ci piace; solo a questo modo gli utenti aumenteranno tempo trascorso sul sito e interazioni, con la speranza — questo l’obiettivo — che prima o poi clicchino su contenuti pubblicitari, o quantomeno producano informazioni utili a crearne di nuovi sempre più mirati ed efficaci. Nell’attesa di scoprire dai data scientist di Menlo Park come vi hanno reagito gli iscritti, Facebook tiene a precisare di non stare operando alcun giudizio di merito sui contenuti segnalati.
Ma sembra una contraddizione in termini, quando ci sono di mezzo il vero e il falso. Soprattutto, la posizione giustifica una preoccupazione, che poi è la stessa ogniqualvolta si parli di segnalazione di contenuti su Facebook: e se gruppi organizzati di utenti, magari a scopi di propaganda politica, si decidessero a segnalare in massa un contenuto vero, ma scomodo, per farlo passare come falso e dunque renderlo meno visibile, per al limite farlo scomparire? La posizione di Facebook è che le segnalazioni «vengono trattate da un team dedicato composto da esperti qualificati in ambito sicurezza».
Ma equivale a dotarsi di un pugno di factchecker , di giornalisti che scandaglino per bene la veridicità dei contenuti segnalati? Perché, ed è il risvolto potenzialmente positivo, di questo si tratta: di una introduzione graduale e sperimentale di una sorta di verifica dal basso della bontà delle notizie che circolano sul social network, in modo distribuito e collaborativo.
Contrariamente ad altri tentativi, la massa critica c’è, suggerisce Sergio Maistrello, autore di “Fact-checking, dal giornalismo alla rete” (Apogeo). E potrebbero darsi sviluppi interessanti, come la possibilità di riconoscere ed evidenziare le bufale più note prima della pubblicazione.
«Tuttavia come verrebbero trattati i contenuti deliberatamente falsi, ma satirici?», si chiede Maistrello. Inoltre, la verifica delle notizie «il più delle volte è questione di sfumature». Walter Quattrociocchi, dell’Institute for Advanced Studies dell’Università di Lucca, concorda sulla base degli studi che ha condotto proprio sulle modalità di diffusione e fruizione della disinformazione su Facebook. Una questione, precisa lo studioso, «non tanto su ciò che è vero e su ciò che non lo è, quanto sullo scontro partigiano tra visioni diverse del mondo».
E in un contesto in cui complottisti e non complottisti non dialogano, questo uno dei risultati sperimentali, la nuova funzione di Facebook «porterà a una maggiore acredine tra fazioni, non facendo che rafforzare le credenze di chi è tacciato di credere in notizie false, e quindi la loro diffusione e fruizione » . L’ennesimo esempio di come un impercettibile cambiamento alla piattaforma possa comportare conseguenze sociali tutt’altro che secondarie.
FLASH! - SIAMO UOMINI O GENERALI? PER L'OTTUAGENARIO CALTAGIRONE LA CATTURA DEL LEONE DI TRIESTE E'…
CACCIA ALLA TALPA! - DIVERSI ESPONENTI DI FRATELLI D'ITALIA AVREBBERO INTENZIONE DI RIVOLGERSI AL…
DAGOREPORT - DOPO APPENA TRE SETTIMANE ALLA CASA BIANCA, TRUMP HA GIA' SBOMBALLATO I PARADIGMI…
FLASH! - CERCASI TRADITORE URGENTEMENTE! I BOMBASTICI MESSAGGI DEI FRATELLINI D’ITALIA, SCODELLATI…
DAGOREPORT – SE C’È UNO SPIATO, C’È ANCHE UNO SPIONE: IL GOVERNO MELONI SMENTISCE DI AVER MESSO…
DAGOREPORT - BERLUSCONI ALLA SCALA SI È VISTO UNA SOLA VOLTA, MA IL BERLUSCONISMO SÌ, E NON AVEVA…