Intelligenza artificiale, rischio truffe più subdole con i deep fake: "Ma la nuova legge interviene"
L'avvocato riminese Ghiselli analizza la legge entrata in vigore, con conseguenze anche sul diritto penale


Da oggi (venerdì 10 ottobre) entra in vigore in Italia la legge 132 del 23 settembre 2025, la prima normativa sull'intelligenza artificiale. "La legge n. 132/2025 promuove un approccio antropocentrico all’intelligenza artificiale, che deve rimanere al servizio dell'uomo nel rispetto dei diritti fondamentali, della dignità e delle libertà individuali. È riservata molta attenzione alla Cybersicurezza, alla tutela dei dati personali e dei minori. Ci sono applicazioni settoriali in materia di sanità, lavoro e giustizia", evidenzia l'avvocato riminese Paolo Ghiselli. In ambito di giustizia, l'art.15 della legge stabilisce che le decisioni interpretative e giudiziarie debbano rimanere di esclusiva competenza del giudice: "I sistemi di intelligenza artificiale potranno semplificare il lavoro amministrativo, ma non sostituire l'attività valutativa e decisionale del giudice. In ambito sanitario andrà utilizzata per migliorare diagnosi, terapie e processi riabilitativi, ma sempre sotto il controllo dei professionisti medici. In sostanza deve essere un supporto e non un sostituto della decisione umana". Stesso dicasi per le professioni intellettuali, come prevede l'art.13: "L'intelligenza artificiale potrà essere utilizzata solo come strumento di supporto, senza mai sostituire l’apporto umano e fiduciario tra professionista e cliente. Nella pubblica amministrazione, l’obiettivo è duplice: aumentare efficienza e qualità dei servizi, garantendo però sempre la responsabilità personale del funzionario o dirigente".
In ambito penale, è particolarmente rilevante l'art.612 quater, che introduce una nuova fattispecie di reato, con pena da 1 a 5 anni di reclusione per l'illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale. "Questa norma - evidenzia l'avvocato Ghiselli - punisce chiunque causi un danno ingiusto, diffondendo senza consenso immagini, video o voci manipolate e falsificate con l'intelligenza artificiale, idonee a trarre in inganno sulla loro genuinità. Si tratta dei cosiddetti Deep Fake. Il reato è procedibile a querela della persona offesa, ma si procede d’ufficio nei casi più gravi, come quando la vittima è incapace per età o infermità, o se il fatto è commesso contro una pubblica autorità per ragioni legate alle sue funzioni". Commettere una truffa utilizzando l'intelligenza artificiale costituirà una significativa aggravante: "Sì, perché è un mezzo subdolo per ostacolare la difesa privata della persona: pensiamo ad esempio a una truffa, con un'immagine manipolata per truffare una persona e indurla a una disposizione patrimoniale". Pensiamo alla voce di una persona, "catturata" e poi manipolata con l'intelligenza artificiale: il truffatore potrebbe usarla per inviare un messaggio a una persona anziana e spingerla a fare un bonifico. Uscendo dall'ambito delle truffe, anche una persona accusata di Revenge Porn potrà andare incontro a una pena ancor più severa, laddove sia utilizzata un'immagine creata e modificata con l'intelligenza artificiale.
Le modifiche non si limitano al Codice Penale: "Anche il Codice Civile, all’art. 2637 (aggiotaggio), prevede ora una pena aggravata, reclusione da due a sette anni, se l’illecito economico è commesso attraverso sistemi di Intelligenza Artificiale. O nel campo del diritto d'autore, l’art. 171 della Legge n. 633/1941 viene aggiornato con la nuova lettera a-ter), che sanziona chi estrae testi o dati da opere o banche dati in violazione dei nuovi articoli 70-ter e 70-quater, anche mediante intelligenza artificiale, in chiara risposta al fenomeno del data scraping per addestrare modelli di linguaggio o sistemi generativi".
In sostanza la nuova legge introduce novità fondamentali e soprattutto vuole tutelare i cittadini dagli abusi causati dai deep fake: "Vogliamo dire ai cittadini che quello che vedono e ascoltano è reale, vero, attendibile è fondamentale. Questo è un momento nel quale, grazie alla tecnologia, grazie agli algoritmi, molto spesso i cittadini sono confusi, a volte perdono di fiducia. Se perdono di fiducia, poi perdono anche la capacità critica, la capacità democratica, anche di partecipare alla vita politica e questo non lo dobbiamo consentire", le parole del sottosegretario Alberto Barachini.
