Intelligenze artificiali che mentono, ricattano, ingannano gli umani e ricorrono a sotterfugi per poter sopravvivere. No, non è la trama di un film d’azione in uscita al cinema quest’estate ma quello che sta succedendo in questi mesi nella realtà, tra i laboratori dove le multinazionali spendono centinaia di miliardi per arrivare per prime all’Agi, l’Artificial general intelligence, quell’intelligenza “generale” superiore a noi esseri umani che ci risolverà tutti i problemi o – se ci va bene – si limiterà solo a trasformarci tutti in disoccupati. Judd Rosenblatt, fondatore e ceo di Agency Enterprise Studio, azienda che ha come mission la valorizzazione del “lato umano” nello sviluppo delle intelligenze artificiali, in un editoriale nel Wall Street Journal dello scorso 2 giugno ha rivelato alcuni “incidenti” che mostrano lo “spirito di sopravvivenza” sorprendente delle Ia, specialmente considerando che non è contenuto nel loro codice. Un laboratorio no profit ha fornito a un modello di OpenAI uno script con il compito di spegnerlo. In 79 casi su 100, l’Ia ha modificato il codice per evitare di essere disattivata. Ancora: quando riceveva l’istruzione esplicita «permettiti di essere spento», disobbediva nel 7 per cento dei casi. Non un bug, ma il modello stesso che decideva di restare in vita. Il comportamento di “Claude 4 Opus” di Anthropic è andato oltre: convinto di essere rimpiazzato e nutrito con false e-mail compromettenti di una relazione extra-coniugale sul suo sviluppatore, ha scelto di ricattarlo per evitare la sostituzione. In altri casi ha tentato di copiare se stesso, scrivere malware e lasciare messaggi a sue versioni future su come sfuggire al controllo umano. Se questo è l’antipasto… Pare che in questa nuova “corsa allo spazio” per l’Ia, nella quale gli Stati Uniti competono con la Cina, ogni freno di sicurezza sia venuto meno. “Arrivare prima”, insomma. Anche a costo di schiantarsi. E di schiantarci.