Intelligenza artificiale, rischio truffe più subdole con i deep fake: "Ma la nuova legge interviene"

L'avvocato riminese Ghiselli analizza la legge entrata in vigore, con conseguenze anche sul diritto penale

A cura di Riccardo Giannini Redazione
10 ottobre 2025 17:31
Intelligenza artificiale, rischio truffe più subdole con i deep fake: "Ma la nuova legge interviene" -
Condividi

Da oggi (venerdì 10 ottobre) entra in vigore in Italia la legge 132 del 23 settembre 2025, la prima normativa sull'intelligenza artificiale. "La legge n. 132/2025 promuove un approccio antropocentrico all’intelligenza artificiale, che deve rimanere al servizio dell'uomo nel rispetto dei diritti fondamentali, della dignità e delle libertà individuali. È riservata molta attenzione alla Cybersicurezza, alla tutela dei dati personali e dei minori. Ci sono applicazioni settoriali in materia di sanità, lavoro e giustizia", evidenzia l'avvocato riminese Paolo Ghiselli. In ambito di giustizia, l'art.15 della legge stabilisce che le decisioni interpretative e giudiziarie debbano rimanere di esclusiva competenza del giudice: "I sistemi di intelligenza artificiale potranno semplificare il lavoro amministrativo, ma non sostituire l'attività valutativa e decisionale del giudice. In ambito sanitario andrà utilizzata per migliorare diagnosi, terapie e processi riabilitativi, ma sempre sotto il controllo dei professionisti medici. In sostanza deve essere un supporto e non un sostituto della decisione umana". Stesso dicasi per le professioni intellettuali, come prevede l'art.13: "L'intelligenza artificiale potrà essere utilizzata solo come strumento di supporto, senza mai sostituire l’apporto umano e fiduciario tra professionista e cliente. Nella pubblica amministrazione, l’obiettivo è duplice: aumentare efficienza e qualità dei servizi, garantendo però sempre la responsabilità personale del funzionario o dirigente".

In ambito penale, è particolarmente rilevante l'art.612 quater, che introduce una nuova fattispecie di reato, con pena da 1 a 5 anni di reclusione per l'illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale. "Questa norma - evidenzia l'avvocato Ghiselli - punisce chiunque causi un danno ingiusto, diffondendo senza consenso immagini, video o voci manipolate e falsificate con l'intelligenza artificiale, idonee a trarre in inganno sulla loro genuinità. Si tratta dei cosiddetti Deep Fake. Il reato è procedibile a querela della persona offesa, ma si procede d’ufficio nei casi più gravi, come quando la vittima è incapace per età o infermità, o se il fatto è commesso contro una pubblica autorità per ragioni legate alle sue funzioni". Commettere una truffa utilizzando l'intelligenza artificiale costituirà una significativa aggravante: "Sì, perché è un mezzo subdolo per ostacolare la difesa privata della persona: pensiamo ad esempio a una truffa, con un'immagine manipolata per truffare una persona e indurla a una disposizione patrimoniale". Pensiamo alla voce di una persona, "catturata" e poi manipolata con l'intelligenza artificiale: il truffatore potrebbe usarla per inviare un messaggio a una persona anziana e spingerla a fare un bonifico. Uscendo dall'ambito delle truffe, anche una persona accusata di Revenge Porn potrà andare incontro a una pena ancor più severa, laddove sia utilizzata un'immagine creata e modificata con l'intelligenza artificiale.

Le modifiche non si limitano al Codice Penale: "Anche il Codice Civile, all’art. 2637 (aggiotaggio), prevede ora una pena aggravata, reclusione da due a sette anni, se l’illecito economico è commesso attraverso sistemi di Intelligenza Artificiale. O nel campo del diritto d'autore, l’art. 171 della Legge n. 633/1941 viene aggiornato con la nuova lettera a-ter), che sanziona chi estrae testi o dati da opere o banche dati in violazione dei nuovi articoli 70-ter e 70-quater, anche mediante intelligenza artificiale, in chiara risposta al fenomeno del data scraping per addestrare modelli di linguaggio o sistemi generativi".

In sostanza la nuova legge introduce novità fondamentali e soprattutto vuole tutelare i cittadini dagli abusi causati dai deep fake: "Vogliamo dire ai cittadini che quello che vedono e ascoltano è reale, vero, attendibile è fondamentale. Questo è un momento nel quale, grazie alla tecnologia, grazie agli algoritmi, molto spesso i cittadini sono confusi, a volte perdono di fiducia. Se perdono di fiducia, poi perdono anche la capacità critica, la capacità democratica, anche di partecipare alla vita politica e questo non lo dobbiamo consentire", le parole del sottosegretario Alberto Barachini.

Paolo Ghiselli
Paolo Ghiselli

Le migliori notizie, ogni giorno, via e-mail

Segui Altarimini