Con l’approvazione definitiva della legge n. 132 del 2025, recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, l’Italia si dota finalmente di un quadro normativo aggiornato per contrastare uno degli abusi digitali più insidiosi dell’era dell’IA: il deepfake non consensuale.
A partire dal 10 ottobre 2025, il nostro ordinamento riconosce formalmente il reato di diffusione illecita di contenuti generati o manipolati con sistemi di intelligenza artificiale, introducendo l’articolo 612-quater nel Codice Penale.
Vediamo nel dettaglio di cosa si tratta, quali sono i rischi e come possiamo difenderci.
Cosa sono i deepfake e perché sono pericolosi
Il termine deepfake deriva dall’unione di “deep learning” (apprendimento automatico profondo) e “fake” (falso). Si tratta di contenuti audio, video o fotografici manipolati con software di intelligenza artificiale, che risultano estremamente realistici e credibili. Volti, espressioni, voci e posture possono essere alterati per creare scenari completamente falsi, ma apparentemente autentici.
Negli ultimi anni, questa tecnologia è stata usata per diffondere fake news, truffe, contenuti a sfondo sessuale non consensuali e persino per interferire nei processi democratici.
Il quadro normativo: dall’UE all’Italia
Il primo passo verso una regolamentazione condivisa è arrivato dall’Unione Europea con l’approvazione del Regolamento UE 2024/1689, noto come AI Act, che stabilisce norme armonizzate per l’uso responsabile dell’intelligenza artificiale, nel rispetto dei diritti fondamentali.
In Italia, il legislatore ha recepito e ampliato questa visione con la legge n. 132/2025, approvata definitivamente il 17 settembre 2025, in vigore dal 10 ottobre 2025, introducendo nel Codice Penale nuove aggravanti e un reato specifico contro la diffusione non consensuale dei deepfake.
Il nuovo reato: art. 612-quater c.p.
L’articolo 612-quater del codice penale stabilisce che:
“Chiunque, mediante sistemi di intelligenza artificiale, cede, pubblica o diffonde, senza il consenso della persona rappresentata, immagini, video o audio alterati o generati artificialmente, idonei a trarre in inganno sulla loro genuinità, cagionando un danno ingiusto alla vittima, è punito con la reclusione da uno a cinque anni.”
E’ chiaro che è reato non la generazione del deepfake ma la sua condivisione attraverso cessione, pubblicazione o diffusione a terzi, ad esempio sul web, sui social media o tramite applicazioni di messaggistica istantanea, senza il consenso della persona rappresentata
Il reato è procedibile a querela di parte, ma si procede d’ufficio se:
- la vittima è minore o incapace,
- il reato è connesso con altro reato perseguibile d’ufficio,
- la persona rappresentata è una pubblica autorità.
Non è punita la creazione del deepfake in sé, ma la diffusione a terzi senza consenso e con conseguente danno ingiusto.
Ulteriori modifiche al Codice Penale
Oltre all’art. 612-quater, la legge ha introdotto importanti novità:
Art. 61 c.p.: integrato con l’aggiunta di una circostanza aggravante quando un reato è commesso mediante sistemi di intelligenza artificiale, se ciò:
- costituisce mezzo insidioso,
- ostacola la difesa,
- aggrava le conseguenze del reato.
L’Art. 294 c.p. nel testo vigente, punisce con la reclusione da uno a cinque anni chiunque con violenza, minaccia o inganno impedisce, in tutto o in parte, l’esercizio di un diritto politico, ovvero determina taluno a esercitarlo in senso difforme dalla sua volontà.
la nuova legge ha aggiunto un comma che prevede l’aggravio della pena (da due a sei anni) se i diritti politici del cittadino sono compromessi attraverso l’uso dell’IA, ad esempio con deepfake utilizzati per ingannare l’elettorato.
Le critiche degli esperti
Alcuni giuristi, tra cui l’avv. Fulvio Sarzana, hanno sollevato perplessità sulla formulazione della norma. Il reato si configura solo in presenza di un danno ingiusto, rendendo più difficile l’incriminazione: “non è punita l’azione, ma la conseguenza dell’azione”. Occorrerà quindi una valutazione caso per caso per dimostrare il danno alla persona.
Deepnude e minori: un’emergenza invisibile
Oltre ai deepfake tradizionali, il fenomeno dei deepnude – contenuti in cui le vittime, spesso donne o minori, vengono “spogliate” virtualmente – è in crescita. Secondo l’Associazione Meter, operativa dal 1991 contro la pedopornografia online, sono stati segnalati numerosi casi di minori denudati virtualmente e diffusi su gruppi Telegram. In uno di questi, ben 125 adolescenti italiane erano state colpite.
Preoccupante anche la presenza massiccia di pubblicità di nudificatori su Meta (Facebook e Instagram), senza filtri di età, né controlli adeguati.
Come riconoscere un deepfake
Individuare un deepfake non è semplice, ma alcuni segnali possono aiutare:
- Movimenti innaturali degli occhi o del viso;
- Battito delle ciglia irregolare;
- Disallineamento tra labbra e audio;
- Postura del corpo e luci incoerenti rispetto al volto;
- Denti poco definiti o “finti”;
- Transizioni visive sfocate o poco fluide.
Consigli per difendersi
- Verifica la fonte: controlla sempre chi ha pubblicato il contenuto. I siti attendibili forniscono credenziali, date e contesto.
- Confronta più fonti: se una notizia o video è autentico, sarà riportato anche da altri media affidabili.
- Analizza l’immagine: cerca errori grafici, sfocature sospette, oppure usa tool online per verificare l’autenticità di un’immagine.
- Evita la condivisione immediata: se hai un dubbio sull’autenticità di un contenuto, non rilanciarlo. Potresti diventare complice nella diffusione.
- Segnala alle autorità: se sei vittima o noti contenuti sospetti, rivolgiti alla Polizia Postale o a un avvocato specializzato in diritto digitale.
- Richiedi la rimozione del contenuto: puoi fare istanza alle piattaforme (Meta, X, TikTok…) o rivolgerti all’Autorità Garante per la protezione dei dati personali.
L’introduzione del reato di deepfake segna una tappa importante nella protezione della dignità digitale delle persone. Tuttavia, la lotta contro l’abuso dell’IA richiede consapevolezza, educazione digitale, e un impegno costante delle istituzioni nel monitorare e aggiornare le norme. Il progresso tecnologico non può essere disgiunto dal rispetto dei diritti umani fondamentali.
Come ricordava Stefano Rodotà, “la rivoluzione digitale è anche una rivoluzione della dignità”. Spetta a tutti noi far sì che questa dignità sia tutelata, anche nei meandri più oscuri del web.
