
Sono sempre di più i giovanissimi che cercano supporto psicologico nelle chat basate sull’intelligenza artificiale. Lo stato del Texas apre un’indagine su Meta e Character.ai, piattaforme accusate di promuovere chatbot ricreativi come se fossero strumenti terapeutici senza credenziali cliniche né supervisione. L’intervista del Salvagente al fondatore di una piattaforma del genere
Sono sempre di più i giovanissimi che cercano supporto psicologico nelle chat basate sull’intelligenza artificiale. Lo stato del Texas apre un’indagine su Meta e Character.ai, piattaforme accusate di promuovere chatbot ricreativi come se fossero strumenti terapeutici senza credenziali cliniche né supervisione.
Character.ai, in particolare, è una piattaforma fondata da ex ricercatori Google che permette di creare e usare chatbot con personalità simulate, da personaggi storici a terapeuti virtuali. Per questo, l’ufficio del procuratore generale Ken Paxton ha aperto un procedimento per possibili pratiche commerciali ingannevoli. L’accusa è di aver presentato le chatbot come strumenti “professionali” di aiuto emotivo, rivolti anche a minori, pur non avendo alcun titolo a supporto di ciò.
L’intervista al fondatore della piattaforma di psicologi virtuali
Negli ultimi anni, la psicoterapia ha iniziato a spostarsi sempre più spesso on line. A dimostrazione di quanto il fenomeno sia già avanzato c’è il servizio specifico di OpenAI, Therapist GPT, che si presenta come “un’Ia progettata per offrire comfort, consiglio e supporto terapeutico a coloro che cercano una guida per il benessere mentale”, si legge sul sito della piattaforma. Lo ha raccontato Maurizio Bongioanni nel numero di agosto del Salvagente,intervistando anche il fondatore di una piattaforma. Riportiamo l’intervista a seguire.
“Terapia per soli 19,75 euro a settimana. Fai oggi il nostro breve quiz e inizia subito a parlare con il tuo terapeuta IA personale. Disponibile 24 ore su 24, ogni volta che hai bisogno di supporto”. Potrebbe sembrare l’incipit di un episodio di Black Mirror, la celebre serie britannica dedicata alle distopie tecnologiche in onda su Netflix. In realtà, è la proposta di Therapeak, un servizio olandese presente in diversi paesi europei che offre psicoterapia tramite intelligenza artificiale. Therapeak è solo uno tra i tanti servizi simili presenti on line, spesso pubblicizzati sui social con messaggi come “molti migliorano dopo un solo colloquio”. Ma è davvero così? Per capirlo, abbiamo parlato con Sarp Derinsu, fondatore della piattaforma, che ci ha spiegato cosa offre il servizio, qual è il suo obiettivo e in che modo l’intelligenza artificiale può contribuire a migliorare la pratica terapeutica. Non tutti, infatti, sono convinti che l’intelligenza artificiale rappresenti solo un rischio in questo ambito: secondo Derinsu, può anche essere un’opportunità per rendere il supporto psicologico più accessibile ed efficace.
Derinsu, chi c’è dietro Therapeak e chi lavora nel team?
Il team principale è composto da me e mia moglie. Lei è consulente psicologica e io sono uno sviluppatore software. Anche se alla base siamo solo noi due, stiamo preparando collaborazioni estese con terapeuti e medici per il futuro. Mia moglie è sempre stata appassionata di terapia e la psicologia è un suo interesse fin dall’infanzia. Allo stesso modo, i miei principali interessi fin da piccolo sono stati la psicologia e l’intelligenza artificiale.
Perché state rivolgendo la vostra attenzione al pubblico italiano?
Non puntiamo specificamente al mercato italiano più di altri. Therapeak è disponibile in molti paesi e in molte lingue. Tuttavia, quando offriamo la nostra piattaforma in un paese – non importa quanto sia piccolo o quanto lavoro di adattamento sia richiesto – cerchiamo di adattarci completamente a quel paese e offrire i nostri servizi come se fossero nativi di quel mercato. Quindi, anche se può sembrare che stiamo puntando specificamente all’Italia, ci presentiamo con la stessa dedizione in Finlandia, ad esempio, come in Italia.
Perché pagare per i vostri servizi? Qual è la differenza tra voi e ChatGPT?
Per comprendere veramente la differenza, incoraggiamo a provare in prima persona la nostra piattaforma – offriamo una sessione gratuita di 10 minuti proprio per questo motivo. La distinzione fondamentale è che ChatGPT è un modello di intelligenza artificiale generale, mentre Therapeak è una piattaforma terapeutica completa costruita attorno a molteplici tecnologie di intelligenza artificiale. Abbiamo iniziato Therapeak proprio dopo aver sperimentato ChatGPT per la terapia su noi stessi. Inizialmente siamo rimasti piacevolmente sorpresi perché mostrava un vero potenziale per le conversazioni terapeutiche. Tuttavia, continuando a usarlo, abbiamo scoperto dei limiti significativi che lo rendevano inadatto a una terapia vera e propria senza modifiche sostanziali.Il primo grande problema è apparso dopo circa 20 risposte: ChatGPT dimenticava completamente tutta la nostra storia. Anche se l’interfaccia di ChatGPT di OpenAI ha alcune capacità di memoria, non è progettata specificamente per la terapia – il suo obiettivo è rispondere a domande generiche, non ricordare dettagli terapeutici fondamentali. Quando ha dimenticato chi eravamo, mi sono sentito personalmente ferito, come se ChatGPT non mi capisse davvero. E questo spezza completamente la relazione terapeutica. Abbiamo anche sperimentato con molti altri modelli di intelligenza artificiale e ci siamo resi conto che un’IA generale da sola non è sufficiente, serve un intero ambiente e uno sviluppo specializzato per creare un’esperienza terapeutica efficace. ChatGPT funziona brillantemente per molte cose. Ha sostituito gran parte delle ricerche che le persone facevano su Google. È eccellente nel fornire informazioni, rispondere a domande fattuali, aiutare con compiti creativi, programmare e persino spiegare concetti di salute mentale come “quali sono i sintomi dell’ADHD?” o “come funziona la CBT?”. Per queste domande informative, è davvero ottimo. Tuttavia, quando si passa dall’informazione alla terapia vera e propria, emergono diversi problemi pericolosi: innanzitutto, c’è il problema dell’autodiagnosi. Gli utenti possono iniziare a elencare i loro sintomi e, inconsciamente, convincere ChatGPT che hanno una certa condizione. Possono dire ‘mi sento stanco, non riesco a concentrarmi e sono triste’ e portare la conversazione verso la conferma che soffrono di depressione o ADHD, quando il vero problema potrebbe essere tutt’altro, magari deprivazione del sonno o stress. In secondo luogo, e forse ancor più pericoloso, è quando ChatGPT diventa un facilitatore. In terapia, dire alle persone ciò che vogliono sentirsi dire è dannoso. Non cambia i comportamenti (specialmente in approcci come la CBT, la terapia cognitivo comportamentale), semplicemente rafforza schemi nocivi e isola gli utenti in una camera d’eco di affermazioni. Usano l’IA come un ciuccio emotivo anziché uno strumento di crescita.
Quindi sconsigliate del tutto di usare ChatGPT per ottenere consigli terapeutici?
Per nostra esperienza, sconsigliamo vivamente di usare ChatGPT per la terapia senza una qualche forma di supervisione. Se proprio lo si vuole usare, il nostro consiglio è di utilizzare modelli più sofisticati. Non usare modelli ChatGPT gratuiti: se lo si fa è meglio consultare un terapeuta umano per capire se lo si sta usando correttamente.Dal canto nostro stiamo facendo tutto il possibile affinché gli utenti non siano esposti a questo tipo di pericoli. Con Therapeak, ad esempio, offriamo l’opzione di stampare i riassunti delle sessioni per poterli rivedere insieme a un terapeuta umano. Inoltre, supervisioniamo l’intelligenza artificiale per assicurarci che non mostri dinamiche pericolose.
Come funziona esattamente il vostro sistema di supervisione? Monitorate gli scambi tra gli utenti e l’IA per assicurarvi che non ci siano problemi? In tal caso, questo non solleverebbe questioni legate alla privacy? E se invece non controllate direttamente le risposte fornite dall’IA, come potete essere certi che non si verifichino problemi?
Utilizziamo principalmente sistemi di intelligenza artificiale per monitorare le conversazioni e identificare eventuali problemi tecnici o dinamiche potenzialmente dannose. Oltre a questo monitoraggio automatico, effettuiamo revisioni manuali quando necessario, questo controllo umano è essenziale per mantenere gli standard di qualità e sicurezza della piattaforma. Abbiamo progettato il sistema per sfruttare al massimo le capacità dell’IA, pur riconoscendo che il giudizio umano è ancora fondamentale per comprendere il contesto e risolvere problemi complessi. Considerando l’elevato numero di sessioni sulla nostra piattaforma, non è possibile esaminare manualmente ogni conversazione. Invece, il nostro sistema di monitoraggio tramite IA segnala eventuali criticità che vengono poi analizzate da un essere umano. La piattaforma è strutturata per ridurre al minimo i problemi tecnici e le dinamiche dannose, ma quando questi si verificano, interveniamo tempestivamente. Quando dobbiamo esaminare manualmente una conversazione segnalata, ci concentriamo esclusivamente sul problema specifico, mantenendo il massimo rispetto per la privacy degli utenti. L’accesso ai log delle chat è limitato esclusivamente a me e a mia moglie, non abbiamo alcuna intenzione di estendere questo accesso ad altre persone. Guardando al futuro, man mano che la nostra piattaforma evolve e riusciamo a risolvere la maggior parte dei problemi attraverso un design migliorato, prevediamo che la necessità di revisioni manuali diminuirà sensibilmente. Crediamo che questo approccio rappresenti il giusto equilibrio tra la protezione della privacy degli utenti e la tutela dalla possibilità di dinamiche terapeutiche potenzialmente dannose.
Secondo voi l’IA può sostituire la psicoterapia umana?
La psicoterapia consiste nel creare una relazione terapeutica per facilitare la guarigione e il cambiamento. Alcune persone non si fideranno mai abbastanza dell’IA da costruire questa relazione, quindi l’IA non può sostituire tutti gli psicologi umani. Tuttavia, abbiamo avuto utenti che preferiscono la terapia con l’IA perché si sentono meno giudicati e riescono a concentrarsi meglio rispetto ai terapeuti umani. Per mia esperienza, l’IA può costruire relazioni terapeutiche e favorire cambiamenti comportamentali positivi senza intervento umano. L’IA ha vantaggi unici: nessun ego, attenzione costante al benessere dell’utente e disponibilità continua. Credo che la terapia con l’IA sarà sufficiente per alcuni utenti, mentre altri avranno ancora bisogno della terapia tradizionale. Questo offre più opzioni per il supporto alla salute mentale. Quando l’offerta aumenta, i costi si abbassano e l’accessibilità migliora: è un vantaggio per gli utenti. Sì, questo potrebbe rendere più difficile per alcuni terapeuti trovare pazienti, ma dal punto di vista dell’utente, avere opzioni accessibili ed efficaci che possono funzionare altrettanto bene (o meglio) di alcuni terapeuti umani è di valore inestimabile. Stiamo perseguendo collaborazioni di ricerca universitaria per validare scientificamente il nostro approccio.
C’è il rischio che soprattutto i più giovani possano abusare o usare in modo scorretto la “terapia con IA”?
Un uso eccessivo in un ambiente protetto e supervisionato non è necessariamente un problema e può aiutare i giovani a diventare più consapevoli di sé. Il vero pericolo è l’uso scorretto, in particolare usare l’IA come un ciuccio emotivo per convalidare comportamenti dannosi, come dicevo prima. Questo rischio è amplificato nei più giovani. Mentre alcuni adulti possono rendersi conto quando stanno cercando una conferma per comportamenti nocivi, i giovani spesso non hanno ancora questa consapevolezza. Possono isolarsi, usando l’IA per giustificare schemi negativi, cosa che può impedire uno sviluppo mentale ed emotivo sano. Imparare questi schemi in giovane età può ostacolare seriamente la crescita psicologica.
Ed è proprio per questo che ambienti terapeutici con IA supervisionata sono fondamentali, per sfruttarne i benefici riducendo al minimo questi rischi molto reali.










