Internet e le varie piattaforme digitali hanno indubbiamente rivoluzionato le nostre vite, offrendo numerosi vantaggi e opportunità. Tuttavia, accanto agli evidenti progressi, è emerso anche un lato oscuro determinato dal diffondersi di un nuovo tipo di violenza: la c.d. violenza online, un abuso trasversale che può colpire chiunque ma che, in particolare, si manifesta sempre di più come una nuova forma di violenza contro le donne.
Questa può svilupparsi in molteplici modi, sottoforma di abusi tali da danneggiare e molestare attraverso mezzi digitali come social media, forum online, app di messaggistica e ambienti virtuali di gioco: rientrano in questi comportamenti il cyberbullismo, il cyberstalking, il revenge porn e l’incitamento all’odio.
Nell’ambito di tale scenario il legislatore, con la recentissima legge emanata sull’intelligenza artificiale (la n. 132/2025), ha introdotto una nuova norma per cercare di contrastare la diffusione di contenuti digitali manipolati per mezzo dell’IA, che provocano danni immediati per chi ne rimane vittima, in un’era digitale che ha aperto inevitabilmente nuove strade ai criminali per perpetrare simili violenze, riuscendo facilmente ad agire nell’anonimato al fine di colpire le vittime prescelte.
I contenuti generati da IA sono sempre più realistici e, allo stesso tempo, sempre più facili da creare. Anche chi non ha competenze informatiche avanzate può utilizzare strumenti online per generare video o immagini che imitano perfettamente il volto o la voce di una persona. Di conseguenza, aumentano i rischi di manipolazioni dannose, diffamazioni, ricatti o distruzione della reputazione.
Si tratta di una norma di “nuova generazione”, nata per colmare un vuoto normativo, dopo anni in cui le vittime potevano difendersi solo attraverso reati come la diffamazione, la violazione della privacy e il revenge porn non adatti a tutelare situazioni in cui il contenuto fosse completamente falso, benchè idoneo a danneggiare.
Cosa si intende per deep fake?
I deep fake sono foto, video e audio creati grazie a software di intelligenza artificiale (IA) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e ad imitare fedelmente una determinata voce.
In Italia tale reato, previsto dall’art. 612-quater del codice penale, è entrato in vigore il 10 ottobre 2025 e punisce chiunque diffonda senza consenso immagini, video, audio, manipolati con l’intelligenza artificiale che siano idonei a indurre in inganno sulla loro genuinità e in grado di provocare un danno ingiusto alla vittima.
La pena prevista va da 1 a 5 anni di reclusione e si può procedere solo su querela da parte della vittima, salvo il procedersi d’ufficio nel caso delle seguenti eccezioni: se la vittima è minorenne, incapace di intendere o di volere, quando rappresenti una pubblica autorità o se il fatto è connesso con altro delitto per il quale si debba procedere d’ufficio.

In che modo può concretamente verificarsi il reato di diffusione illecita di contenuti generati o alterati con sistemi di intelligenza artificiale (deep fake)?
Nella maggior parte dei casi viene attuato attraverso post sui social, condivisioni via Whatsapp, invii tramite mail, inoltri in chat di gruppo, upload su piattaforme e siti internet.
Rientrano nel reato, ad esempio:
- un audio in cui la voce della vittima è artefatta al fine di attribuirle dichiarazioni false;
- immagini generati tramite IA che ritraggono la vittima in situazioni imbarazzanti, al fine di intaccarne la reputazione e/o ricattarla;
- video in cui la vittima viene rappresentata mentre compie atti realmente mai avvenuti.
Nell’ambito di tale contesto è importante sottolineare che, affinchè scatti il reato, è sufficiente che il contenuto venga inoltrato anche ad una sola persona, purchè sia tale da arrecarle un danno ingiusto.
Ciò in quanto i contenuti digitali si propagano online con un’immensa rapidità e spesso in modo incontrollabile, pertanto chi partecipa anche in minima parte alla diffusione può essere ritenuto penalmente responsabile.
Secondo le statistiche un contenuto deep fake impiega in media tra le 6 e le 8 ore per iniziare a circolare in modo incontrollato, superando le 3.500 visualizzazioni prima che la vittima si accorga dell’accaduto, da ciò si evince quanto sia decisiva un’azione immediata per bloccare la diffusione e tutelare la vittima.
Quali sono le differenze tra il reato di Deep Fake e il reato di Revenge Porn?
Benchè le due norme possano convivere in quanto alcuni deep fake sessuali falsi potrebbero integrare entrambe le fattispecie, la differenza tra le due è sostanziale poichè:
- il Revenge porn (art. 612 ter c.p. – che punisce chiunque diffonda immagini/video intimi senza il consenso delle persone rappresentate) riguarda contenuti reali, contenuti sessuali e presuppone un’esposizione intima.
- Il Deep fake riguarda invece contenuti falsi, non richiede necessariamente un contenuto a sfondo sessuale, tutela in modo più ampio la libertà morale e l’identità digitale della persona.
Ritieni di essere vittima di un abuso online? Ecco qualche consiglio pratico su come difenderti
Rivolgiti tempestivamente alle forze dell’ordine e ad un avvocato specializzato, al fine di presentare una querela nei tempi giusti (entro 6 mesi dalla scoperta del fatto) e richiedere la rimozione dei contenuti offensivi al Garante della Privacy (il tempo medio di rimozione è di circa 8 giorni). E’ necessario raccogliere correttamente le prove digitali dell’abuso subìto, non solo al fine di rintracciare nel più breve tempo possibile il responsabile (o i responsabili) ma anche per poter avviare una richiesta di risarcimento per i danni subiti.
I deep fake possono distruggere la reputazione delle persone in pochissime ore, per tale motivo è fondamentale intervenire subito al fine di limitare i danni derivanti da tali ignobili azioni, danni di natura economica e psicologica.
Per info e domande: mail: info@federicacandelise.it – sito web: www.federicacandelise.it
