La Commissione europea coinvolge esperti e cittadini per definire linee guida sulla trasparenza dei contenuti IA, puntando a contrastare disinformazione e tutelare gli utenti
Bruxelles, 5 novembre 2025 – La Commissione europea ha formalmente avviato i lavori per la stesura di un codice di buone pratiche volto alla marcatura e all’etichettatura dei contenuti generati dall’intelligenza artificiale (IA). Questa iniziativa si inserisce nell’ambito del più ampio quadro normativo definito dalla recente legge sull’IA, che stabilisce obblighi di trasparenza per i fornitori e utilizzatori di sistemi di IA generativa e interattiva, con lo scopo di garantire maggiore chiarezza e tutela per i cittadini europei.
L’avvio della consultazione e i suoi obiettivi
La riunione plenaria di avvio, che ha visto la partecipazione di esperti indipendenti nominati dall’Ufficio europeo per l’IA, segna l’inizio di un processo inclusivo e partecipativo della durata di sette mesi. Il codice di condotta elaborato sarà uno strumento volontario, ma fondamentale per aiutare i fornitori di sistemi IA generativa a rispettare gli obblighi di trasparenza imposti dalla legge europea. In particolare, il codice disciplinerà la marcatura di contenuti sintetici come audio, immagini, video e testi generati dall’IA, che dovranno essere contrassegnati in modo leggibile anche dalle macchine, così da facilitarne il rilevamento e prevenire fenomeni di disinformazione e frode.
La consultazione pubblica, aperta fino al 2 ottobre 2025, coinvolge un ampio spettro di stakeholder, dalla comunità scientifica alle aziende tecnologiche, fino ai cittadini, con lo slogan “Sapere cosa è umano, sapere cosa è artificiale”. L’intento è garantire un confronto aperto e trasparente, volto a definire linee guida operative efficaci e condivise, capaci di tutelare i consumatori e promuovere la fiducia nell’ecosistema digitale.
L’IA tra trasparenza e tutela dell’utente
Il codice si prefigge di garantire che ogni interazione con sistemi di intelligenza artificiale sia accompagnata da un’informazione chiara e immediata circa la natura artificiale dei contenuti o delle risposte ricevute. Ciò significa che gli utenti dovranno poter riconoscere facilmente se stanno interagendo con un algoritmo, con particolare attenzione ai contenuti di interesse pubblico, inclusi i deepfake e testi generati automaticamente.
Questa trasparenza è vista come un elemento chiave per contrastare la manipolazione, la diffusione di fake news e incrementare la responsabilità degli sviluppatori e distributori di tecnologie IA. La normativa entrerà in vigore nell’agosto 2026, integrandosi con le altre disposizioni già in vigore per i sistemi IA ad alto rischio e i modelli generali.
L’Unione Europea si conferma così all’avanguardia nella regolamentazione dell’intelligenza artificiale, cercando un equilibrio tra innovazione tecnologica, tutela dei diritti fondamentali e sicurezza degli utenti.
Potrebbe interessarti anche questo articolo: L’IA a scuola: ecco come sta cambiando il percorso formativo
