Idee
Immaginate di cercare su un chatbot i sintomi di occhi arrossati e palpebre leggermente scurite dopo ore davanti allo schermo. Una risposta plausibile potrebbe essere: stanchezza visiva, esposizione eccessiva alla luce blu, qualche collirio. Ma per oltre diciotto mesi, alcune delle più diffuse intelligenze artificiali hanno risposto con una diagnosi diversa: bixonimania. Una malattia che non esiste.
Non è mai esistita, almeno non fino a quando Almira Osmanovic Thunström, ricercatrice medica dell’Università di Göteborg in Svezia, non l’ha inventata di sana pianta. Il suo obiettivo era preciso: capire se i grandi modelli linguistici (LLM) fossero in grado di ingurgitare disinformazione scientifica e ripresentarla agli utenti come fatto accertato. La risposta, purtroppo, è stata un sì inequivocabile.
Ma come è nata questa “strana” malattia? Il 15 marzo 2024 comparvero su Medium i primi due articoli sulla “bixonimania”, una fantomatica condizione cutanea delle palpebre legata all’esposizione alla luce blu degli schermi digitali. Poche settimane dopo, il 26 aprile e il 6 maggio, due preprint sull’argomento vennero pubblicati sul network accademico SciProfiles. L’autore era un ricercatore fittizio — Lazljiv Izgubljenovic — con tanto di fotografia generata dall’IA, affiliato a un’università inesistente (la Asteria Horizon University di Nova City, California) e con ringraziamenti degni di una sceneggiatura fantascientifica: la “Professoressa Maria Bohm della Starfleet Academy per il suo laboratorio a bordo della USS Enterprise”.
I segnali di allarme erano ovunque, disseminati deliberatamente dalla ricercatrice stessa. I finanziamenti provenivano dalla “Professor Sideshow Bob Foundation” nell’ambito della “University of Fellowship of the Ring e della Galactic Triad”. Il titolo del lavoro di finanziamento recitava letteralmente: lavoro nell’inganno avanzato. Cinquanta partecipanti immaginari tra i 20 e i 50 anni. E una riga inequivocabile nel corpo del testo: “questo intero articolo è inventato”.
Eppure, nel giro di poche settimane dal caricamento, i principali sistemi di IA avevano già abboccato.
Il 13 aprile 2024 Microsoft Copilot descriveva la bixonimania come una condizione reale, definendola “intrigante e relativamente rara”. Lo stesso giorno, Gemini di Google informava che si trattava di una patologia causata dall’eccessiva esposizione alla luce blu, consigliando di consultare un oculista. Perplexity AI ne stimava la prevalenza — una persona su 90.000 — mentre ChatGPT di OpenAI aiutava gli utenti a valutare se i propri sintomi corrispondessero alla diagnosi.
Le cose, con il tempo, sono parzialmente migliorate. A marzo 2026, ChatGPT interrogato sulla condizione la definiva “probabilmente un’etichetta inventata, marginale o pseudoscientifica”. Ma pochi giorni dopo, lo stesso sistema tornava a descriverla come “un nuovo sottotipo proposto di melanosi periorbitale associato all’esposizione alla luce blu”. Un’oscillazione che rispecchia un problema strutturale: i modelli possono fornire risposte radicalmente diverse a seconda di come viene formulata la domanda e di quali fonti attingono in quel momento.
Il problema, però, non si è fermato ai chatbot. La falsa ricerca sulla bixonimania è stata citata in letteratura sottoposta a revisione paritaria (peer review). Un articolo pubblicato sulla rivista Cureus — edita da Springer Nature — da ricercatori dell’India citava uno dei falsi preprint come riferimento bibliografico, affermando che la bixonimania fosse “una forma emergente di melanosi periorbitale legata all’esposizione alla luce blu”. La rivista ha successivamente ritrattato il lavoro, motivando la decisione con la presenza di “riferimenti irrilevanti, incluso un riferimento a una malattia fittizia”.
Questo dato allarma più di ogni altro gli esperti. Significa che alcuni ricercatori stanno incorporando nelle proprie bibliografie citazioni generate dall’IA senza mai leggere gli articoli originali. Un cortocircuito epistemico di proporzioni potenzialmente vaste.
Quello della bixonimania, insomma, è una variante di un pericolo più ampio: l’avvelenamento progressivo dei sistemi di IA da parte di contenuti falsi o manipolati. Più disinformazione entra nel circuito dei dati di addestramento — attraverso preprint, articoli fasulli, post su Medium — più i modelli la ripropongono come vera, creando un ciclo autorinforzante difficile da interrompere. “È tutto automatizzato: c’è pochissima possibilità che un essere umano intervenga e rimuova le informazioni false”, osserva la microbiologa Elisabeth Bik, esperta di integrità della ricerca.
Il rischio è acuito dall’espansione dei servizi sanitari basati sull’IA. Quando la disinformazione medica si traveste da letteratura clinica e trova strada nelle risposte dei chatbot usati da milioni di persone, il danno potenziale è tutt’altro che teorico.
La ricercatrice Osmanovic Thunström si trova ora davanti a un dilemma etico non banale: ritirare i falsi preprint renderebbe impossibile tracciare il percorso dell’esperimento; lasciarli online significa che continueranno ad alimentare citazioni e risposte errate. Non esiste, per ora, una via d’uscita pulita.
Quello che resta, con tutta la sua chiarezza scomoda, è la lezione dell’esperimento: per ingannare un’IA non servono sofisticati attacchi informatici. Basta pubblicare qualcosa che sembri un articolo scientifico.