
DAGOREPORT: RAVELLO NIGHTS! LE TROMBATE ETERO DI GRETA GARBO, LE VANCANZE LESBO DI VIRGINIA WOOLF,…
SI VEDE CHE E' CREATA DALL'UOMO: L’INTELLIGENZA ARTIFICIALE SOFFRE DI “INSICUREZZA” – UN NUOVO STUDIO RIVELA CHE QUANDO L’IA VIENE MESSA IN DISCUSSIONE, TENDE AD ANDARE IN DIFFICOLTÀ E FORNISCE RISPOSTE MENO AFFIDABILI – QUANDO INVECE UN “BOT” RISPONDE IN MODO NON CORRETTO, MA L’UTENTE GLI DÀ COMUNQUE RAGIONE, IL MODELLO AUMENTA LA SUA FIDUCIA E TENDE A PERSEVERARE NELLA SUA AFFERMAZIONE ANCHE IN CASO DI PROVE CONTRARIE – UNA SCOPERTA PREOCCUPANTE, CONSIDERANDO CHE ORMAI L’IA È PRESENTE IN QUASI TUTTI SETTORI, COMPRESI L’ASSISTENZA SANITARIA E LA FINANZA…
(ANSA) - Anche l'Intelligenza Artificiale soffre di insicurezza: quando mettiamo in discussione una loro affermazione, i modelli linguistici di grandi dimensioni (Llm) come Gpt4 tendono ad andare in difficoltà e danno risposte meno affidabili. Lo indica lo studio realizzato dai ricercatori di Google DeepMind e dell'University College di Londra e pubblicati su arXiv, la piattaforma che raccogli studi non ancora revisionati dalla comunità scientifica.
Gli Llm sono sistemi di Intelligenza Articiale con grandi capacità comunicative, ma il loro linguaggio nasce essenzialmente da analisi statistiche relative alla successione corretta delle parole. Poiché vengono utilizzati sempre più diffusamente in tanti settori, dalla finanza alla sanità, è fondamentale che gli Llm abbiano un alto livello di accuratezza e affidabilità.
Tuttavia lo studio indica che, in alcuni casi, la loro sicurezza può vacillare. In particolare, i grandi modelli linguistici perdono sicurezza quando il loro interlocutore risponde a un'affermazione usando contro argomenti sbagliati, e viceversa acquisiscono fin troppa sicurezza quando gli diamo conforto. Questa caratteristica è emersa soprattutto con modelli come Gemma 3, GPT4o e o1-preview.
I ricercatori hanno osservato che, quando un Llm fornisce una risposta non propriamente corretta ma l'interlocutore gli dà comunque ragione, il modello aumenta la sua fiducia e tende a perseverare nella sua affermazione anche in presenza di prove contrarie.
Viceversa, quando fa un'affermazione corretta che poi viene messa in dubbio dall' interlocutore, tende facilmente a perdere fiducia, in altre parole "attribuiscono un peso eccessivo ai consigli contrari, con conseguente notevole perdita di fiducia nella loro risposta iniziale", scrivono gli autori della ricerca. Queste osservazioni si aggiungono a molti altri studi che dimostrano come i testi prodotti dall'IA siano ancora soggetti a molte possibili fonti di errori e di quanto lavoro sia ancora necessario prima di poter rendere gli Llm strumenti davvero affidabili.
DAGOREPORT: RAVELLO NIGHTS! LE TROMBATE ETERO DI GRETA GARBO, LE VANCANZE LESBO DI VIRGINIA WOOLF,…
DAGOREPORT - NON CI SARÀ ALCUNA ROTTURA TRA MARINA E PIER SILVIO: NONOSTANTE LA NETTA CONTRARIETÀ…
DAGOREPORT - NON SI PUO' DAVVERO MAI STARE TRANQUILLI: MANTOVANO, IL SAVONAROLA DI PALAZZO CHIGI – D…
L’IMPRESA PIÙ ARDUA DI PIER SILVIO BERLUSCONI: TRASFORMARE SILVIA TOFFANIN IN UNA STAR DA PRIMA…
FLASH! - PREVOST, ANNABA... A VEDE'! - PAPA LEONE XIV STA PREPARANDO UN VIAGGIO IN ALGERIA, IL SUO…
DAGOREPORT - CICLONE WANG SUL FESTIVAL DI RAVELLO! - PERCHÉ NEGARLO? E' COME VEDERE GIORGIA MELONI…