La parola deepfake è un neologismo nato dalla fusione dei termini “fake” (falso) e “deep learning”, una particolare tecnologia di intelligenza artificiale.
I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.
A seguito della introduzione da parte del legislatore europeo dell’AI ACT (Regolamento UE 2024/1689) l’Italia ha introdotto nel nostro sistema giuridico la Legge n. 132/2025 sull’AI, pubblicata sulla Gazzetta Ufficiale il 25 settembre 2025 e in vigore dal 10 ottobre 2025, che introduce il reato di cui all’art. 612-quater c.p. rubricato: “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, ai sensi del quale: “Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni. Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate”.
Il reato è procedibile a querela della persona offesa, salvo che i fatti non riguardino minori, persone incapaci o pubblici ufficiali nell’esercizio delle loro funzioni, casi nei quali la procedibilità è d’ufficio.
La norma prevede il nuovo reato legato all’uso illecito dell’Intelligenza Artificiale, e punisce con la reclusione da uno a cinque anni, chiunque diffonda immagini, video o voci alterati o falsificati mediante IA, in grado di trarre in inganno sulla genuinità del contenuto, senza il consenso della persona rappresentata. Una particolare forma di abuso tecnologico che mina la dignità, la reputazione e la vita privata delle persone, è il deepfake porn, che consiste nel pubblicare immagini o video sessualmente espliciti in cui i volti di persone comuni, spesso donne, vengono sovrapposti a corpi di attori porno, tramite algoritmi di generazione artificiale.
Quelle immagini non esistono nella realtà, sono state create con l’intelligenza artificiale. Un passo importante per aggiornare il nostro sistema penale all’era digitale, dove i confini tra realtà e artificio diventano sempre più sfumati. La Legge 23 settembre 2025, n. 132 segna una svolta decisiva nel tentativo di definire i limiti tra uso lecito e abuso dell’Intelligenza Artificiale, ponendo al centro la tutela della persona.
Questa legge, oltre ad introdurre il nuovo art. 612 quater c.p., modifica l’art. 61 c.p., introducendo una nuova aggravante comune, per chi commette un reato “mediante l’impiego di sistemi di intelligenza artificiale”, quando l’AI, per la sua natura o per le modalità di utilizzo, abbia costituito mezzo insidioso, ovvero quando il suo impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato. La predetta aggravante si estende anche ai reati commessi mediante i c.d. sistemi intelligenti, con effetti diretti sulla disciplina della responsabilità degli enti ai sensi del DLgs 231/2001 ed impone alle imprese un aggiornamento sostanziale dei propri Modelli di Organizzazione Gestione e Controllo (MOG). All’art. 26 la Legge 132/2025) prevede ulteriori aggravanti per tre diverse fattispecie commesse mediante l’impiego dell’AI: Attentati contro i diritti politici del cittadino (art. 294 c.p.); Aggiotaggio (art. 2637 c.c.); Manipolazione del mercato (art. 185 TUF). Questa ultima modifica rappresenta un impatto interessante per le imprese e la compliance 231, perché i reati di aggiotaggio e manipolazione del mercato, rientrano tra i reati-presupposto del D. Lgs. 231/2001 (rispettivamente, artt. 25-ter e 25-sexies), e le società dotate di Modello Organizzativo 231, dovranno valutare un aggiornamento del risk assessment per intercettare i nuovi profili di rischio connessi all’uso dell’intelligenza artificiale.
Le società da ora in avanti dovranno individuare i processi automatizzati critici, documentare le logiche algoritmiche utilizzate, procedere all’implemento di adeguate misure di contenimento ed avranno anche l’obbligo di formare costantemente il proprio personale e di adottare standard certificabili per una gestione responsabile dell’intelligenza artificiale. Tale compito dovrà essere affiancato da disposizioni legislative atte a fornire agli enti delle linee guida che attualmente mancano, solo così si può cercare di prevenire il compimento di certi reati e garantire un uso corretto dei sistemi di IA.
La Legge 23 settembre 2025, n. 132, ritocca anche l’art. 171, L. 633/1941 (in materia di diritto d’autore) introducendo sanzioni penali per chi riproduce o estrae testi/dati in violazione degli artt. 70ter e 70-quater anche tramite AI. La legge 132/2025 sancisce ufficialmente l’introduzione del reato di deepfake nell’ordinamento italiano, rappresentando un tentativo concreto di affrontare le sfide poste dall’intelligenza artificiale nei settori della reputazione, della privacy, della sicurezza e della politica. Nuovi interventi sono attesi sul piano sostanziale e sugli strumenti di indagine, infatti, la predetta legge ha delegato il Governo di adottare, entro 12 mesi, uno o più decreti legislativi volti a: – – – – adeguare e specificare la disciplina dei casi di realizzazione e di impiego illeciti di sistemi di intelligenza artificiale, mediante l’introduzione di strumenti, anche cautelari, finalizzati a inibire la diffusione e a rimuovere contenuti generati illecitamente, anche con sistemi di intelligenza artificiale; introdurre autonome fattispecie di reato, colpose o dolose, e rilevanti anche ai sensi del D. Lgs. 231/2001, incentrate sull’omessa adozione o sull’omesso adeguamento di misure di sicurezza per la produzione la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale; regolamentare l’utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari, nel rispetto delle garanzie inerenti al diritto di difesa e ai dati personali dei terzi, nonché dei principi di proporzionalità, non discriminazione e trasparenza; prevedere un’apposita disciplina per l’utilizzo di sistemi di intelligenza artificiale per l’attività di polizia (art. 24, co. 1, lett. h).
Lascia un commento
Devi essere connesso per inviare un commento.