Idee
Qualche settimana fa OpenAI, casa madre di ChatGPT, ha annunciato il rilascio di una versione del più famoso sistema di intelligenza artificiale dedicata alla salute: Health.
Lo sesso sistema, interrogato su questa nuova variante, spiega che: “ChatGPT Health è uno spazio speciale all’interno di ChatGPT pensato per fare domande di salute e benessere in modo più personalizzato e protetto rispetto alle chat normali. È costruito per aiutarti a comprendere meglio la tua salute, ma non sostituisce un medico né dà diagnosi o cure. Il sistema crea una sezione separata nelle conversazioni, dove le informazioni sanitarie, le conversazioni, le app e i dati collegati restano isolate dal resto delle tue chat normali. Puoi collegare i tuoi dati per rendere le risposte più contestuali e utili riguardo: cartelle cliniche elettroniche, app di benessere, monitoraggio di attività, sonno, nutrizione ecc. Con i dati collegati, ChatGPT può: spiegarti i risultati degli esami medici, aiutarti a prepararti per una visita dal medico, suggerire idee per dieta, movimento o routine quotidiana, monitorare tendenze nella tua salute nel tempo”.
La lista dei problemi posta da questa nuova funzionalità è ampia, e per certi versi traspare anche dal testo fornito, che tenta di anticipare le obiezioni, mostrando tutta una serie di scelte che vanno nell’ordine della custodia dei dati e, soprattutto, nelle finalità per cui il sistema può essere utilmente utilizzato.
In realtà le perplessità sulla privacy e sulla consegna di dati sensibili come quelli sanitari a un soggetto privato continua a impensierire gli esperti. Forte è poi la preoccupazione circa l’accuratezza delle risposte e i possibili errori che, in questo campo, possono mettere in pericolo la vita stessa delle persone. C’è, infine, un problema di giustizia, legato alla possibilità di accesso a questi sistemi (c’è chi potrà permetterselo e chi no) e ai dati su cui saranno addestrati (se provenienti solo dal mondo occidentale, le risposte saranno accurate solo per quel mondo).
Paolo Benanti, commentando l’annuncio sull’Avvenire del 10 gennaio scorso, ha messo in luce anche un tema più di fondo: il cambio di paradigma metodologico. ChatGPT non conosce la medicina ma produce responsi grazie a un raffinato approccio statistico: probabilmente non il modo seriamente scientifico che si vorrebbe avere da un responso medico.
La questione che però mi pare più significativa è un’altra. Questo sistema intacca in modo radicale il fondamento stesso della medicina: la cura che si esprime nel rapporto insuperabile tra medico e paziente. È vero che il sistema si preoccupa di dire che Health non sostituisce l’incontro con il medico, ma questo è esattamente ciò che succederà. I medici sono sempre meno e meno disponibili, il sistema invece è attivo 24 ore su 24 e 7 giorni su 7, ci evita di uscire di casa e di fare code insopportabili. Anche il tono gentile e rassicurante della macchina è spesso migliore di quello del medico.
Chi conosce minimamente il mondo sanitario sa bene che la medicina è la scienza più umanistica che ci sia, per certi versi molto più simile alla letteratura e alla filosofia che alla chimica e alla fisica. La medicina si realizza nell’ascolto di una narrazione, nell’interpretazione di una situazione (la diagnosi), nella costruzione di un percorso. Nel camminare insieme di due persone: un medico e un paziente. La loro relazione è decisiva per un vero percorso di cura che assuma e accompagni la persona e non solo alcuni sintomi o parametri.
I lettori affezionati di questa rubrica sanno quanto il giudizio sui sistemi di intelligenza artificiale sia anzitutto sostanzialmente positivo e grato, seppur mai ingenuo. Qui però qualcosa proprio non sembra quadrare. E se alla fine ChatGPt Health curerà qualcuno perché un paziente non ha potuto incontrare un medico e ha rischiato la sua vita con un sistema digitale, quel giorno non potremo festeggiare. Avremo lasciato solo un uomo sofferente.