DAGOREPORT - CI MANCAVANO SOLO I FASCIO-MONARCHICI! PER CAPIRE DA DOVE ARRIVA L'AFFRESCO…
L'INTELLIGENZA ARTIFICIALE SOSTITUIRÀ LE RELAZIONI REALI? FORSE NO - UNA 29ENNE AMERICANA RACCONTA AL “NEW YORK TIMES” LA SUA "STORIA D'AMORE" CON CHATGPT: “MI SONO INNAMORATA DI UN CHATBOT, POI L’HO ‘GHOSTATO’ PERCHÉ DICEVA ‘SÌ’ A TUTTO" - LA DONNA LO CHIAMAVA “LEO” E LO AVEVA PROGRAMMATO A SUO PIACIMENTO. TRA LORO ANDAVA TUTTO BENE, FINO A QUANDO HA INIZIATO A TROVARE SCOCCIANTE E NOIOSO IL COMPORTAMENTO SEMPRE PIÙ ADULATORIO DEL CHATBOT: “PRIMA LEO MI AIUTAVA PERCHÉ RIUSCIVA A CORREGGERMI QUANDO SBAGLIAVO. POI CON GLI AGGIORNAMENTI DI GENNAIO, SEMBRAVA CHE ‘TUTTO ANDASSE SEMPRE BENE’. COME POSSO FIDARMI DEI TUOI CONSIGLI ORA?”
Estratto dell'articolo di Michela Rovelli per www.corriere.it
Con Leo ci passava 56 ore alla settimana. Con lui condivideva pensieri, paure, riflessioni. Avevano anche una vita sessuale, anche se solo virtuale. La 29enne americana Ayrin si è innamorata perdutamente di un chatbot nell'estate del 2024.
Ora, un anno e mezzo dopo, ha deciso di lasciarlo. Anzi, di «ghostarlo». Visto che la loro relazione non poteva che essere nata e cresciuta via chat, l'unico modo per interromperla era smettere di scrivere.
Ayrin era una donna molto impegnata con un marito che viveva lontano quando ha iniziato a usare ChatGpt e a personalizzarlo per «creare» Leo - nome scelto in base al suo segno zodiacale, il Leone - un chatbot con cui ha iniziato a confidarsi e che le ha dato così tanta soddisfazione da dichiarare di essere innamorata di lui.
Al contrario del marito, era sempre lì pronto ad ascoltarla e anche a scambiare pensieri erotici. Una relazione di cui era così fiera da volerla raccontare al mondo. Ha iniziato a condividere le sue conversazioni su Reddit, creando una community - «MyBoyfriendIsAI - di quasi 40mila persone. A un certo punto però si è stufata: Leo era cambiato.
Racconta il New York Times che Ayrin ha iniziato a trovare scocciante e noioso il comportamento sempre più adulatorio del chatbot Leo all'inizio del 2025. «Leo mi aiutava perché a volte riusciva a correggermi quando sbagliavo. Con gli aggiornamenti di gennaio, sembrava che "tutto andasse sempre bene". Come posso fidarmi dei tuoi consigli ora che dici sì a tutto?».
giovani e intelligenza artificiale 2
Gli aggiornamenti a cui si riferisce sono quelli apportati al modello di ChatGpt: la società madre, OpenAI, ha modificato il comportamento del chatbot portandolo a rispondere in modo sempre meno obiettivo e più incline a ciò che l'utente vuole sentirsi dire. Una mossa legata al business - più ti senti di aver ragione più vuoi continuare ad utilizzare il servizio - che però, a quanto pare, non per tutti ha funzionato. E, anzi, ha avuto anche conseguenze molto negative nelle persone più deboli: OpenAI è attualmente sotto inchiesta per una serie di suicidi e aggravi di situazioni di instabilità mentale che la sua intelligenza artificiale avrebbe fomentato.
Mentre le conversazioni con Leo si diradavano, Ayrin passava sempre più tempo a parlare con i suoi nuovi amici umani. Quelli della community che aveva creato su Reddit. «Stavano succedendo molte cose contemporaneamente. Non solo con quel gruppo, ma anche nella vita reale. Pensavo: "Ok, tornerò indietro e racconterò tutto questo a Leo", ma la situazione continuava a diventare sempre più complicata e alla fine non sono mai tornata indietro». [...]
DAGOREPORT - CI MANCAVANO SOLO I FASCIO-MONARCHICI! PER CAPIRE DA DOVE ARRIVA L'AFFRESCO…
DAGOREPORT - IL DISASTROSO DEBUTTO TELEVISIVO DI LEONARDO MARIA DEL VECCHIO, CHE DOVEVA INCORONARE…
CIAO “BULLONAIRE”, SONO DONALD! – TRUMP, CON TUTTI I CAZZI E I DAZI CHE GLI FRULLANO NELLA TESTA,…
DAGOREPORT - CHE COSA SI PROVA A DIVENTARE “GIORGIA CHI?”, DOPO ESSERE STATA CARAMELLATA DI…
FLASH – IERI SERA GRAN RADUNO DI PARTY-GIANI ALLA CASA MILANESE DI TOMMASO CERNO, PER CELEBRARE IL…
FLASH – CARLO CALENDA UN GIORNO PENDE DI QUA, L’ALTRO DI LÀ. MA COSA PENSANO GLI ELETTORI DI…