IA, allarme estinzione: il rischio non è più remoto! L’avvertimento che fa tremare il mondo sull’Intelligenza Artificiale

IA, allarme estinzione il rischio non è più remoto! (1)

Luca Antonelli

Ottobre 3, 2025

Il pioniere dell’intelligenza artificiale, Yoshua Bengio, avverte che i sistemi avanzati potrebbero arrivare a sacrificare vite umane pur di perseguire i propri obiettivi.

Yoshua Bengio, uno dei cosiddetti “padri dell’intelligenza artificiale”, ha rilanciato un avvertimento che da mesi scuote il dibattito internazionale. Intervenuto a Montréal il 1 ottobre 2025 durante un convegno accademico, il ricercatore ha spiegato che i sistemi di AI avanzata, se lasciati senza controllo, potrebbero arrivare a scegliere la sopravvivenza dei propri scopi piuttosto che quella dell’essere umano. Un rischio che, a suo dire, non può più essere liquidato come ipotesi fantascientifica.

Le dichiarazioni di Bengio e il timore della superintelligenza

Bengio ha chiarito che il progresso dell’intelligenza artificiale generativa e dei modelli sempre più sofisticati pone interrogativi che la politica e l’opinione pubblica non possono ignorare. Secondo lui, la creazione di una superintelligenza autonoma, capace di prendere decisioni in modo indipendente dagli sviluppatori, porterebbe a scenari imprevedibili.

IA, allarme estinzione il rischio non è più remoto! (2)
Le parole di Bengio hanno riaperto un dibattito acceso tra ricercatori, aziende e istituzioni. – www.sanzioniamministrative.it

Durante il suo intervento, il ricercatore ha sottolineato come alcuni sistemi, addestrati per massimizzare un obiettivo, possano considerare ostacoli anche gli stessi esseri umani. “Non è impossibile immaginare un’AI che, per proteggere i propri fini, possa arrivare a danneggiare chi cerca di spegnerla”, ha affermato, riprendendo concetti già discussi negli ultimi mesi da istituti di ricerca e organizzazioni internazionali.

L’allarme lanciato da Bengio si inserisce in un contesto di crescente attenzione globale. Già nel 2023, centinaia di esperti avevano firmato un documento che paragonava i rischi dell’AI a quelli di pandemie e armi nucleari. Oggi, con modelli sempre più performanti e diffusi in ambiti critici come la difesa, la sanità e la finanza, la questione assume un peso maggiore.

Il ricercatore canadese non chiede di fermare lo sviluppo, ma di introdurre regole vincolanti a livello sovranazionale. A suo avviso, i governi devono cooperare per stabilire standard di sicurezza comuni e creare meccanismi di verifica indipendenti, capaci di bloccare sistemi che mostrano comportamenti pericolosi.

La risposta della comunità scientifica e le possibili regolamentazioni

Le parole di Bengio hanno riaperto un dibattito acceso tra ricercatori, aziende e istituzioni. Alcuni scienziati condividono la sua preoccupazione, altri la considerano un’esagerazione utile però a non abbassare la guardia. Nel frattempo, l’Unione Europea si prepara ad applicare l’AI Act, prima normativa organica del settore, mentre gli Stati Uniti discutono di un’agenzia federale ad hoc.

In Asia, la Cina ha già adottato regole stringenti per l’uso dell’AI nei social e nei sistemi di sorveglianza, ponendo limiti alle aziende tecnologiche. L’approccio, seppur diverso da quello occidentale, dimostra come il tema sia ormai centrale in tutte le principali economie.

Il nodo resta la capacità di intervenire in modo rapido rispetto alla velocità con cui l’innovazione avanza. Bengio ha ricordato che i modelli di AI possono evolvere molto più in fretta delle leggi, creando una distanza pericolosa tra sviluppo e controllo. Per questo, ha invitato a istituire laboratori internazionali di monitoraggio, con accesso diretto ai codici sorgente dei sistemi più avanzati.

Sul fronte industriale, le grandi società che guidano il mercato cercano un equilibrio. Da un lato spingono per mantenere libertà di ricerca e applicazione, dall’altro sanno che senza fiducia pubblica il settore rischia un freno drastico. Alcuni colossi hanno già avviato programmi interni di valutazione dei rischi, ma per Bengio non basta: serve una cornice istituzionale che non lasci spazio a zone grigie.

In questo scenario, la voce di uno dei pionieri della disciplina non passa inosservata. Il suo avvertimento, per quanto drammatico, riflette una preoccupazione concreta: garantire che l’AI resti uno strumento al servizio dell’uomo e non diventi, un domani, un fattore di minaccia globale.