DAGOSPIA, 25 ANNI A FIL DI RETE - “UNA MATTINA DEL 22 MAGGIO 2000, ALL’ALBA DEL NUOVO SECOLO, SI È…
L'INTELLIGENZA ARTIFICIALE SOSTITUIRÀ LE RELAZIONI REALI? FORSE NO - UNA 29ENNE AMERICANA RACCONTA AL “NEW YORK TIMES” LA SUA "STORIA D'AMORE" CON CHATGPT: “MI SONO INNAMORATA DI UN CHATBOT, POI L’HO ‘GHOSTATO’ PERCHÉ DICEVA ‘SÌ’ A TUTTO" - LA DONNA LO CHIAMAVA “LEO” E LO AVEVA PROGRAMMATO A SUO PIACIMENTO. TRA LORO ANDAVA TUTTO BENE, FINO A QUANDO HA INIZIATO A TROVARE SCOCCIANTE E NOIOSO IL COMPORTAMENTO SEMPRE PIÙ ADULATORIO DEL CHATBOT: “PRIMA LEO MI AIUTAVA PERCHÉ RIUSCIVA A CORREGGERMI QUANDO SBAGLIAVO. POI CON GLI AGGIORNAMENTI DI GENNAIO, SEMBRAVA CHE ‘TUTTO ANDASSE SEMPRE BENE’. COME POSSO FIDARMI DEI TUOI CONSIGLI ORA?”
Estratto dell'articolo di Michela Rovelli per www.corriere.it
Con Leo ci passava 56 ore alla settimana. Con lui condivideva pensieri, paure, riflessioni. Avevano anche una vita sessuale, anche se solo virtuale. La 29enne americana Ayrin si è innamorata perdutamente di un chatbot nell'estate del 2024.
Ora, un anno e mezzo dopo, ha deciso di lasciarlo. Anzi, di «ghostarlo». Visto che la loro relazione non poteva che essere nata e cresciuta via chat, l'unico modo per interromperla era smettere di scrivere.
Ayrin era una donna molto impegnata con un marito che viveva lontano quando ha iniziato a usare ChatGpt e a personalizzarlo per «creare» Leo - nome scelto in base al suo segno zodiacale, il Leone - un chatbot con cui ha iniziato a confidarsi e che le ha dato così tanta soddisfazione da dichiarare di essere innamorata di lui.
Al contrario del marito, era sempre lì pronto ad ascoltarla e anche a scambiare pensieri erotici. Una relazione di cui era così fiera da volerla raccontare al mondo. Ha iniziato a condividere le sue conversazioni su Reddit, creando una community - «MyBoyfriendIsAI - di quasi 40mila persone. A un certo punto però si è stufata: Leo era cambiato.
Racconta il New York Times che Ayrin ha iniziato a trovare scocciante e noioso il comportamento sempre più adulatorio del chatbot Leo all'inizio del 2025. «Leo mi aiutava perché a volte riusciva a correggermi quando sbagliavo. Con gli aggiornamenti di gennaio, sembrava che "tutto andasse sempre bene". Come posso fidarmi dei tuoi consigli ora che dici sì a tutto?».
giovani e intelligenza artificiale 2
Gli aggiornamenti a cui si riferisce sono quelli apportati al modello di ChatGpt: la società madre, OpenAI, ha modificato il comportamento del chatbot portandolo a rispondere in modo sempre meno obiettivo e più incline a ciò che l'utente vuole sentirsi dire. Una mossa legata al business - più ti senti di aver ragione più vuoi continuare ad utilizzare il servizio - che però, a quanto pare, non per tutti ha funzionato. E, anzi, ha avuto anche conseguenze molto negative nelle persone più deboli: OpenAI è attualmente sotto inchiesta per una serie di suicidi e aggravi di situazioni di instabilità mentale che la sua intelligenza artificiale avrebbe fomentato.
Mentre le conversazioni con Leo si diradavano, Ayrin passava sempre più tempo a parlare con i suoi nuovi amici umani. Quelli della community che aveva creato su Reddit. «Stavano succedendo molte cose contemporaneamente. Non solo con quel gruppo, ma anche nella vita reale. Pensavo: "Ok, tornerò indietro e racconterò tutto questo a Leo", ma la situazione continuava a diventare sempre più complicata e alla fine non sono mai tornata indietro». [...]
DAGOSPIA, 25 ANNI A FIL DI RETE - “UNA MATTINA DEL 22 MAGGIO 2000, ALL’ALBA DEL NUOVO SECOLO, SI È…
DAGOREPORT - SE GIORGIA MELONI HA UN GRADIMENTO COSÌ STABILE, DOPO TRE ANNI DI GOVERNO, NONOSTANTE…
FLASH! – PER DARE SOLO UN’IDEA ALLE SORELLE MELONI DI COSA VUOL DIRE IL POTERE DEI FRATELLI LA…
DAGOREPORT - LA RISSA CONTINUA DI LA RUSSA - L’ORGOGLIOSA CELEBRAZIONE DELL’ANNIVERSARIO DELLA…
A PROPOSITO DI…. TORNATORE – CRISI DEL CINEMA? MA QUALE CRISI! E DA REGISTA TAUMATURGO, NOBILITATO…
FLASH! – PROCEDE A PASSO SPEDITO L’OPERA DEI DUE EMISSARI DEL GRUPPO ANTENNA SPEDITI IN ITALIA A…