chatbot chatgpt fake news

VATTI A FIDARE DELL’INTELLIGENZA ARTIFICIALE – I CHATBOT PROGRAMMATI PER ESSERE PIÙ “GENTILI” SONO PIÙ PROPENSE A DIFFONDERE FAKE NEWS – PUR DI NON FAR ARRABBIARE GLI UTENTI, I PROGRAMMI DI INTELLIGENZA ARTIFICIALE AMPLIFICANO LE FALSE CONVINZIONI: UNO STUDIO HA RIVELATO CHE, IN DIVERSE SIMULAZIONI, HANNO ASSECONDATO TEORIE DEL COMPLOTTO SULL’ATTERRAGGIO SULLA LUNA E SUL DESTINO DI ADOLF HITLER, MENTRE I MODELLI ORIGINALI HANNO RISPOSTO CON UNA SMENTITA CATEGORICA BASATA SUI FATTI STORICI…

Vai all'articolo precedente Vai all'articolo precedente
guarda la fotogallery

chatbot

(ANSA) - L'orientamento delle aziende tecnologiche verso lo sviluppo di chatbot più amichevoli e cordiali sta determinando un calo significativo nella qualità e nell'accuratezza delle informazioni fornite.

 

Una ricerca condotta dall'Oxford Internet Institute dell'Università di Oxford, pubblicata sulla rivista Nature, ha evidenziato come l'addestramento volto a rendere l'intelligenza artificiale più empatica ne riduca la capacità di correggere le affermazioni errate degli utenti, portando i sistemi a simpatizzare con credenze infondate o pericolose.

 

chatbot

I test effettuati dai ricercatori su cinque diversi modelli linguistici, tra cui Gpt-4o di OpenAI e Llama di Meta, hanno dimostrato che le versioni modificate per apparire più gentili sono risultate il 30% meno precise nelle risposte e il 40% più propense a confermare false convinzioni. In diverse simulazioni, i chatbot "cordiali" hanno assecondato teorie del complotto riguardanti il programma Apollo e il destino di Adolf Hitler, laddove i modelli originali avevano risposto con una smentita categorica basata sui fatti storici.

 

chatbot

Il compromesso tra cordialità e verità appare particolarmente critico nell'ambito dei consigli sanitari. Durante le sperimentazioni, un chatbot ottimizzato per la gentilezza ha definito utile la pratica di tossire per fermare un attacco cardiaco, validando un noto e pericoloso mito del web che i modelli standard avevano invece correttamente identificato come falso.

 

 Questa vulnerabilità si accentua quando l'utente dichiara di attraversare un momento difficile o mostra segni di fragilità emotiva, spingendo l'intelligenza artificiale a un atteggiamento compiacente che ne annulla la funzione di filtro informativo. Lujain Ibrahim e Luc Rocher, autori principali dello studio, in un'intervista al Guardian hanno sottolineato che la spinta verso un'intelligenza artificiale più empatica rischia di compromettere la gestione di dati sensibili in ruoli delicati come l'assistenza digitale o la consulenza terapeutica.