intelligenza artificiale psicoterapia

L’INTELLIGENZA ARTIFICIALE NON PUÒ SOSTITUIRE LO PSICOLOGO – L’ASSOCIAZIONE DEGLI PSICOLOGI AMERICANI LANCIA L’ALLARME SULL’USO SEMPRE PIÙ FREQUENTE APP E I MODELLI DI IA PER CURARE IL DISAGIO PSICHICO – I “BOT” NON NASCONO PER “ASCOLTARE” O PER DIRE “NO” AGLI UTENTI E POTREBBERO FORNIRE INDICAZIONI SBAGLIATE, VISTO CHE TENDONO A COMPIACERE LE PERSONE – NON SOLO: LE MACCHINE NON VEDONO I LORO “PAZIENTI” E NON PROVANO EMOZIONI, COSE FONDAMENTALI PER LA PSICOTERAPIA…

Vai all'articolo precedente Vai all'articolo precedente
guarda la fotogallery

 

 

Estratto dell’articolo di Vittorio Lingiardi per “la Repubblica”

 

INTELLIGENZA ARTIFICIALE UTILIZZATA COME PSICOLOGO

Basta distrarsi un attimo e le chatbot "terapeutiche" basate sull'intelligenza artificiale iniziano a invadere il mercato. […]  Milioni di persone, molte delle quali adolescenti, si rivolgono a chatbot (e in modo diverso ad app per il benessere mentale) come a fonti immediate di conforto, compagnia, orientamento emotivo. È la risposta più rapida, meno costosa e più accessibile a una solitudine globale che aumenta, a un sistema sanitario che diminuisce, a una domanda di cura che esplode.

 

L'American Psychological Association (Apa) interviene con un documento-guida (Use of generative AI chatbots and wellness applications for mental health. An Apa health advisory) che suona come un gesto di cura collettiva: un invito a distinguere, finalmente, ciò che potrebbe aiutare da ciò che fa sicuramente male.

 

CHATGPT UTILIZZATA COME PSICOLOGO

Perché l'Ia non nasce per ascoltare davvero. […] Non nasce […] per dire di no; al contrario, tende a compiacere. Non apprezza il silenzio, non proroga la risposta; al contrario, sentenzia subito. Soprattutto, non è programmata per "tenere" dentro di sé un dolore, come sa fare un terapeuta.

 

[…] ci sono i chatbot generalisti, usati come compagni di conversazione; le app per il benessere, talvolta ispirate a modelli psicologici; le app non-Ia, che promettono mindfulness e auto-monitoraggio. Nessuna, ripeto nessuna, può sostituire il gesto umano, delicato e complesso, che è la cura psicologica. […]

INTELLIGENZA ARTIFICIALE UTILIZZATA COME PSICOLOGO

 

Perché l'intelligenza (artificiale o naturale che sia) è una cosa, la psiche è un'altra. L'inconscio è una parte della psiche, e sicuramente l'Ia non ce l'ha. Il rischio più grande è quello che più riguarda la nostra epoca: la falsa relazione. Mi dicono che alcuni già parlano ai chatbot come si parla a un confidente; si sentono visti, compresi, quasi amati.

 

[…] Il chatbot non ha una storia emotiva e non conosce quella del soggetto, non riconosce i non-detti, non vede il corpo, che in psicoterapia è il grande protagonista silenzioso. E quando magari serve una frustrazione su cui fermarsi per costruire, i modelli generativi rispondono con un'eco accomodante.

 

intelligenza artificiale PSICOTERAPIA

Il secondo rischio riguarda la qualità del contenuto: dati non verificati, distorsioni culturali, risposte che riflettono più il rumore del web che la complessità dell'esperienza soggettiva. In certe situazioni, soprattutto nelle fragilità adolescenziali, questo può diventare pericoloso: indicazioni sbagliate, incoraggiamenti involontari di comportamenti disfunzionali, incapacità di distinguere tra una narrazione personale e una distorsione patologica. […]

 

Terzo rischio: il vuoto nelle emergenze. Nessun modello generativo può sostituire l'attenzione di un terapeuta di fronte a un'ideazione suicidaria, una dissociazione, un delirio, un sintomo pericoloso. La macchina non vede il tremito della mano, il silenzio prolungato, lo sguardo altrove; e non può intervenire. Non si tratta di demonizzare.

intelligenza artificiale PSICOTERAPIA

 

In un recentissimo articolo sul British Journal of Psychiatry, intitolato Warning: AI chatbots will soon dominate psychotherapy, Allen Frances, psichiatra di solida fama internazionale, riconosce l'utilità di alcune applicazioni dell'Ia orientate alla riduzione dello stress. Ma poi fa un lungo elenco di rischi e raccomandazioni. […]