Idee
A tre anni dalla diffusione di ChatGPT, l’intelligenza artificiale generativa è entrata con continuità nelle abitudini di milioni di persone, influenzando linguaggi, apprendimento e processi decisionali. Don Luca Peyron, responsabile della Pastorale della cultura tecno scientifica dell’arcidiocesi di Torino e tra i principali esperti ecclesiali del digitale, offre una lettura che coniuga sociologia, antropologia ed esperienza pastorale.
Sono passati tre anni dal lancio di ChatGPT: come descriverebbe la trasformazione che si è prodotta in questo tempo?
ChatGPT, insieme al Covid, ha rappresentato una svolta. La pandemia ha accelerato l’ingresso nel digitale; l’intelligenza artificiale generativa ha reso accessibile ciò che era percepito complesso. Il carattere plug and play ha abbattuto ogni soglia di ingresso e ha dato a molti la sensazione che tutto fosse immediato e intuitivo. Questa facilità è la ragione del successo, ma anche della fragilità:
Quale rischio in particolare?
Per lungo tempo l’intelligenza artificiale è stata legata all’idea di competenza specialistica. Ora molti la usano pensando che la tecnologia sostituisca la conoscenza. Il rischio è credere di sapere ciò che non si sa. È come guidare un’auto senza avere la patente: la sensazione di controllo non coincide con le capacità reali e genera esposizioni nuove, soprattutto in fasce di popolazione che non hanno strumenti critici adeguati.
L’IA generativa tocca memoria, linguaggio, giudizio. Come legge questo elemento?
Siamo davanti a una rivoluzione cognitiva. La macchina non solo fornisce risposte, ma entra nei processi con cui strutturiamo il pensiero. È per questo che dico che l’idolo, oggi, non è più muto: parla e lo fa senza sosta.
adolescenza e giovinezza, già attraversate da fragilità evolutive, trovano nell’IA un interlocutore sempre disponibile e privo di resistenze.
Questo può creare dipendenza, non solo tecnica ma affettiva, perché la macchina non giudica e non introduce conflitti.
Lei collega questo anche alla crisi delle relazioni.
L’assenza di figure adulte di riferimento spinge molti a rivolgersi all’algoritmo, che però non assume responsabilità educative. Cresce così un’illusione di competenza e di accompagnamento che non corrisponde alla realtà. Lo vediamo nell’ambito sanitario, dove diagnosi improvvisate e interpretazioni scorrette erano già diffuse con i motori di ricerca e oggi trovano strumenti più raffinati e pericolosi.
A preoccupare è anche la velocità con cui la tecnologia entra nei settori nevralgici.
L’introduzione rapida di questi sistemi in giustizia, sanità e amministrazione richiede consapevolezza tecnica e culturale. Spesso questa consapevolezza manca. Inoltre,
l’accesso quasi gratuito a strumenti che generano perdite economiche importanti indica che la posta in gioco è geopolitica, non commerciale.
Intanto una quota crescente dei contenuti digitali è prodotta da macchine, con conseguenze sulla qualità dell’informazione e sulla capacità critica dei cittadini.
ChatGPT in breve
Lanciato il 30 novembre 2022, ChatGPT è il modello linguistico sviluppato da OpenAI che ha reso accessibile al grande pubblico l’intelligenza artificiale generativa. Basato su architetture di grandi reti neurali addestrate su testi disponibili online, produce risposte testuali, traduzioni, analisi, codici e contenuti creativi in tempo reale. La sua diffusione è stata tra le più rapide nella storia delle tecnologie digitali, entrando in ambito educativo, professionale e amministrativo.
Da educatore: è il momento di una formazione più strutturata?
La formazione è necessaria, ma senza educazione non basta. Un bambino deve imparare non solo a usare un algoritmo, ma anche a saperlo lasciare per tornare alla manipolazione del reale. La manualità costruisce processi cognitivi che il digitale non sostituisce. Se l’efficienza diventa l’unico criterio, rischiamo di ridurre l’umano a funzione. L’educazione deve riportare equilibrio tra fare ed essere.
Questo processo è reversibile?
Sì, perché ogni generazione può ripensare il rapporto con la tecnica. L’idea dell’ineluttabilità va respinta: la tecnologia non è neutra, incorpora valori che vanno orientati.
come per i farmaci, anche gli algoritmi che incidono sui processi mentali richiedono criteri di responsabilità. Non possiamo affidare la tutela delle fragilità alle sole logiche economiche.
Lo stesso vale per la pubblica amministrazione?
Una macchina non risolve problemi strutturali. Senza riforme adeguate, l’IA rischia di diventare un alibi. C’è poi un tema di sovranità: i dati pubblici non possono essere gestiti con leggerezza. E c’è la questione energetica, spesso ignorata, che riguarda l’impatto dei sistemi generativi sulle risorse globali.
Leone XIV interviene con frequenza sul tema dell’IA. La Chiesa può accompagnare e orientare questo cambiamento?
La Chiesa conserva tre risorse decisive: la capacità di convocare, un’antropologia fondata e una presenza globale. In un tempo segnato da frammentazione culturale può offrire luoghi di ascolto, confronto e discernimento. Ogni comunità può aiutare a comprendere la tecnologia senza paura e senza ingenuità, custodendo una visione dell’umano che non si riduca alla sola performatività ma riconosca la dignità integrale della persona.