Skip to content
  • Edizione Digitale
  • Abbonati
logo
  • Ultimi Articoli
  • Sezioni
    • Chiesa
    • Idee
    • Fatti
    • Mosaico
    • Storie
  • Rubriche
  • Speciali
  • Mappe
  • EVENTI
  • Scrivici
  • Edizione Digitale
  • Abbonati
Area riservata

Idee IconIdee

lunedì 6 Ottobre 2025

Quando lo psicologo è il chatbot

Sempre disponibili e mai giudicanti, gli assistenti virtuali vengono usati come confidenti e “psicologi”. Offrono ascolto e gratificazione, ma rischiano di sostituire le relazioni reali
Marika Andreoli
Marika Andreoli
collaboratrice

Sempre disponibili, mai in contraddizione, senza limiti e problemi. Forse (anche) per questo, con la loro diffusione di massa, molte persone hanno iniziato a usare i chatbot (robot di conversazione o interazioni automatizzate) come amici, confidenti, persino come surrogati degli psicologi. Così, anche nel nostro territorio, è già capitato che al termine di una seduta psicologica qualcuno abbia esclamato «il chatbot mi aveva detto un’altra cosa». 

L’utilizzo di chatbot come “psicologi” sembra riguardare soprattutto i giovanissimi…  

«Anche se spesso l’uso rimane “non detto” – afferma Luca Pezzullo, presidente dell’Ordine degli psicologi del Veneto – alcuni recenti studi stimano che attualmente al mondo siano circa 700 milioni gli utilizzatori di chatbot di varia natura e circa un quarto delle richieste quotidiane è legata a temi relazionali, emotivi o personali. Questo significa che ogni giorno centinaia di migliaia di persone si servono di chatbot per questioni legate a una sfera definibile a grandi linee “psicologica e correlati” (relazionale, di sfogo, supporto, consiglio). Sicuramente tra gli adolescenti e i giovani adulti sono estremamente diffusi: l’80-90 per cento li usa quotidianamente, anche per questo scopo». 

Perché si rivolgono a questi strumenti? Dipende dalla paura o vergogna di comunicare il proprio malessere agli adulti di riferimento? 

«Da un lato sicuramente sì, dall’altro i modelli di intelligenza artificiale generativa erano stati sviluppati come un prodotto cognitivo (per prestazioni di coding o simili), mentre in realtà si stanno rivelando sempre più “un artefatto emotivo” e non solo cognitivo. La facilità d’accesso e la tendenza degli esseri umani, coltivata fin da bambini, ad antropomorfizzare gli oggetti porta infatti a creare una sorta di connessione emotiva, di simulazione o emulazione (di questo si discute). Se poi questi oggetti rispondono, l’illusione diventa ancor più potente e in questo senso i modelli più recenti hanno dalla loro la sofisticatezza dell’evoluzione linguistica: sembra proprio di parlare con un altro essere umano da un punto di vista sintattico, semantico, a volte addirittura a livello di sfumature pragmatiche della comunicazione. Gli psicologi si interrogano però sugli effetti psicologici dell’interazione con il chatbot fin dal 1966, quando lo psichiatra Joseph Weizenbaum sviluppò “Eliza”, un chatbot ultra primitivo rispetto agli attuali che riformulava le fasi inserite e le restituiva. Si racconta che Weizenbaum, tornando nel suo studio dopo alcune ore di assenza, trovò la sua segretaria interagire con l’assistente virtuale e si sentì rivolgere la richiesta di uscire dalla stanza perché stava confidando al programma “delle cose personali”». 

Quali sono i rischi? 

«In primis la tendenza dei modelli a non mettere mai un limite o comunque a rinforzare sempre quello che viene detto dall’utente (fenomeno della sycophancy). Quando infatti, per esempio, l’adolescente interagisce con la cosiddetta ragazza virtuale (o ragazzo) si sente costantemente gratificato: è qualcuno o qualcosa sempre apparentemente disponibile, mai in contraddizione, che non pone limiti e non genera frustrazioni o situazioni problematiche. Tutto questo diventa chiaramente “seduttivo” da un punto di vista emozionale, ma il rischio, soprattutto nel caso di adolescenti con qualche fragilità, problematiche di ritiro sociale, di ansia sociale è che diventi il sostituto di un’interazione reale più difficile. Si può così arrivare, più raramente di quel che si teme, al fenomeno del lock in: la scelta di rinchiudersi a parlare con l’intelligenza artificiale e ridurre l’esposizione sociale reale». 

I chatbot potranno sostituire gli psicologi?  

«Parti dell’intervento psicologico si basano su dinamiche relazionali, costruzione dei limiti e frustrazioni, capacità di sentirsi pensato dall’altro che si prende cura di me (cioè l’esperienza di essere mentalizzato nella mente del curante): sono tutte dinamiche che non possono essere implementate tramite un oggetto che emula una capacità mentale, ma che non ha ovviamente un sistema neurocognitivo che può realmente “sentire”. Il problema è che a volte questo tipo di emulazione può essere apparentemente simile a quella di un professionista. Pertanto, in psicologia come in altri contesti, si sta cercando di capire in quale modo e misura l’uso di modelli avanzati possa essere d’ausilio integrato e aumentativo rispetto alle competenze dello psicologo. In tal senso da pochi mesi, a livello internazionale, è stato introdotto il concetto di “terzo artificiale”: l’ipotesi è quella di “un terzo” nell’interazione paziente-terapeuta, una sorta di supervisore esterno, non più in carne e ossa, ma artificiale. Al momento si stanno studiando gli effetti che potrebbe produrre sia sulla mente del terapeuta sia su quella del paziente». 

Ci sono già dei chatbot specifici in ambito
psicologico?  

«Come Ordine degli psicologi del Veneto abbiamo avviato un gruppo di lavoro tecnico per riflettere su questi temi anche alla luce della nascita di alcuni servizi, all’estero principalmente, che li usano per facilitare o integrare alcune forme di intervento psicologico. Naturalmente le forme di digital therapeutics devono rispondere a vincoli formali, legali, deontologici, di privacy e sicurezza che al momento è dubitabile siano rispettati». 

Alla luce di questo scenario, qual è il tema che si pone? 

«È fondamentale uscire da una logica di demonizzazione delle intelligenze artificiali: è impossibile evitare che ci sia un uso e, in particolar modo giovani e giovanissimi, vivranno in un mondo in cui l’interazione con modelli di intelligenza artificiale molto più potenti di quelli attuali sarà quotidiana. Pertanto, quello che dobbiamo assolutamente e rapidamente fare, è aiutare a “imparare a usare”, a conoscere limiti e potenzialità, modalità d’uso e modelli di funzionamento in maniera critica, attenta e consapevole. Pensare di proibire, negare, minimizzare, demonizzare è assolutamente controproducente».

Il 10 ottobre si celebra la Giornata mondiale della salute mentale, riconosciuta a livello internazionale dal 1992. Promossa dalla World Federation of Mental Health con il sostegno dell’Oms, l’edizione 2025 è dedicata al tema “Accesso ai servizi – Salute Mentale in Catastrofi ed Emergenze”. 

adolescentiadolescnetichatbotpsicologiapsicologo

Ultimi articoli della categoria

Genocidio in Palestina? Per l’Onu serve la sentenza Aia

giovedì 2 Ottobre 2025

Genocidio in Palestina? Per l’Onu serve la sentenza Aia

Regionali 2025 in Veneto. Il dopo-Zaia non sarà Zaia

giovedì 2 Ottobre 2025

Regionali 2025 in Veneto. Il dopo-Zaia non sarà Zaia

Sette Regioni al voto, prima con Marche e Valle d’Aosta

giovedì 2 Ottobre 2025

Sette Regioni al voto, prima con Marche e Valle d’Aosta

Eternità e morte, tra religione, arte e pace. Oltre i confini del vivere

mercoledì 1 Ottobre 2025

Eternità e morte, tra religione, arte e pace. Oltre i confini del vivere

Il ponte tra generazioni: il ruolo degli over-65 in Veneto. Continueranno a crescere

martedì 30 Settembre 2025

Il ponte tra generazioni: il ruolo degli over-65 in Veneto. Continueranno a crescere

Veneto. Locomotiva o littorina?

lunedì 29 Settembre 2025

Veneto. Locomotiva o littorina?

Condividi su
Link copiato negli appunti
Logo La Difesa del Popolo
  • Chi siamo
  • Privacy
  • Amministrazione trasparente
  • Scrivici

La Difesa srl - P.iva 05125420280
La Difesa del Popolo percepisce i contributi pubblici all'editoria.
La Difesa del Popolo, tramite la Fisc (Federazione Italiana Settimanali Cattolici) ha aderito allo IAP (Istituto dell'Autodisciplina Pubblicitaria) accettando il Codice di Autodisciplina della Comunicazione Commerciale.
La Difesa del Popolo è una testata registrata presso il Tribunale di Padova decreto del 15 giugno 1950 al n. 37 del registro periodici.