Il 10 ottobre 2025 entrerà in vigore in Italia la Legge n. 132/2025, “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”¹, il primo provvedimento nazionale che disciplinerà in modo organico l’uso dei sistemi di intelligenza artificiale (IA) nell’ordinamento giuridico italiano. Questa legge rappresenta già un punto di svolta, poiché non si limita a stabilire principi generali, ma introduce modifiche concrete al Codice Penale, al Codice Civile e al Testo Unico della Finanza. Alcune delle misure adottate saranno immediatamente efficaci, mentre altre richiederanno decreti attuativi — specifici — da elaborare entro dodici mesi in un quadro regolatorio completo.
La norma si inserisce nel contesto europeo del Regolamento (UE) 2024/1689 (AI Act)², ma lo supera anticipando misure penali, finanziarie e di governance che riflettono una volontà politica di posizionare l’Italia come attore regolatore attivo nell’attuale ecosistema digitale.
Modifiche immediate all’ordinamento giuridico italiano: diritto penale e finanziario
La legge introduce nuove fattispecie di reato e circostanze aggravanti che rispondono ai rischi emergenti legati all’uso dell’IA in contesti illeciti. Tra le principali disposizioni nel Codice Penale italiano troviamo:
- Art. 612-quater c.p.: punisce la diffusione illecita di contenuti generati o alterati tramite IA (deepfake), con pene da 1 a 5 anni di reclusione. Questa norma risponde alla crescente preoccupazione per la manipolazione di immagini, voci e video a fini diffamatori, estorsivi o di disinformazione.
- Art. 61 c.p. (n. 11-decies): introduce come aggravante l’uso dell’IA per la commissione di qualsiasi reato. Questa clausola generale consentirà ai giudici di valutare l’impatto tecnologico nell’esecuzione dell’illecito.
- Art. 294 c.p.: punisce gli attentati ai diritti politici realizzati mediante inganno tecnologico, con pene da 2 a 6 anni. L’articolo mira a proteggere l’integrità dei processi democratici dalla manipolazione algoritmica.
In ambito finanziario, vengono rafforzate le sanzioni per manipolazione di mercato. Tra le disposizioni più rilevanti:
- Art. 2637 c.c.: sul reato di “aggiotaggio” commesso con IA, punito con reclusione da 2 a 7 anni³.
- Art. 185 TUF: sulla manipolazione di mercato tramite IA, con pene analoghe e multe fino a 6 milioni di euro.
Principi in attesa di attuazione
Con la legge in oggetto, il Parlamento conferisce al Governo un termine di 12 mesi per adottare uno o più decreti legislativi che definiscano:
- i requisiti di qualità, tracciabilità e rappresentatività dei dati utilizzati per l’addestramento dei modelli di IA;
- le regole specifiche per gli algoritmi nei settori sensibili (salute, giustizia, istruzione, lavoro);
- i meccanismi di responsabilità civile, amministrativa e penale per sviluppatori, fornitori e utenti;
- il regime sanzionatorio e gli strumenti di enforcement⁴.
Questa fase sarà cruciale, poiché senza decreti attuativi i principi sanciti nell’ordinamento mancheranno di efficacia operativa. Il rischio di una “regolazione sospesa” impone un monitoraggio tecnico-giuridico costante.
Governance istituzionale: modello distribuito senza nuova autorità
La legge adotta un modello di governance distribuita: non viene creata una nuova autorità specifica per l’IA, ma le competenze vengono assegnate a enti già esistenti, coordinati da un Comitato Interministeriale:
- ACN (Agenzia per la Cybersicurezza Nazionale): supervisione tecnica e cybersicurezza;
- AgID (Agenzia per l’Italia Digitale): interoperabilità e trasformazione digitale;
- Garante Privacy: protezione dei dati personali e governance algoritmica;
- AGCM (Autorità Antitrust): concorrenza e trasparenza nei mercati digitali;
- Agcom: pluralismo informativo e tutela dei media.
Questo approccio evita duplicazioni istituzionali, ma pone sfide di coordinamento, specializzazione e risorse. L’efficacia dipenderà dalla capacità di questi enti di adattarsi a un ecosistema tecnologico dinamico e trasversale.
Principi guida: approccio antropocentrico e diritti fondamentali
La legge italiana si allinea all’approccio antropocentrico dell’AI Act europeo, secondo cui l’IA deve essere trasparente, sicura, non discriminatoria e rispettosa dei diritti fondamentali. Si riafferma la necessità di intervento umano nelle decisioni automatizzate che incidono su diritti individuali, in particolare in ambiti come salute, giustizia e rapporti di lavoro.
Inoltre, vengono introdotti obblighi di trasparenza: professionisti, avvocati, medici, consulenti e imprese devono informare clienti e utenti quando impiegano sistemi di IA nei propri servizi. Il modulo informativo professionale sviluppato da Confprofessioni e ANF costituisce un primo strumento di conformità.
Implicazioni pratiche per imprese, professionisti e istituzioni
L’entrata in vigore della Legge 132/2025 impone una revisione strategica di contratti, politiche di compliance, gestione del rischio e proprietà intellettuale. Le imprese che sviluppano, integrano o utilizzano IA dovranno:
- auditare i propri sistemi per verificarne la conformità ai principi di trasparenza, tracciabilità e sicurezza;
- adattare le clausole contrattuali per prevedere responsabilità specifiche legate all’uso dell’IA;
- implementare meccanismi di informazione chiara e verificabile per utenti e clienti;
- valutare l’impatto etico e sociale dei propri algoritmi in contesti sensibili.
I professionisti del diritto, dal canto loro, dovranno aggiornare le proprie competenze in diritto digitale, protezione dei dati, responsabilità algoritmica e governance tecnologica.
La Legge n. 132/2025 rappresenta un avanzamento normativo significativo nella regolazione nazionale dell’intelligenza artificiale. Il suo carattere ibrido — normativo e delegativo — riflette la complessità del legiferare sulle tecnologie emergenti. L’efficacia della norma dipenderà dalla qualità tecnica dei decreti attuativi, dal rafforzamento istituzionale delle autorità competenti e dalla capacità degli attori pubblici e privati di adattarsi a un nuovo paradigma giuridico.
L’Italia si posiziona come laboratorio regolatorio nel contesto europeo, ma la vera sfida sarà garantire che l’IA si sviluppi in un quadro di legalità, equità e rispetto della dignità umana.
Note
¹ Gazzetta Ufficiale, LEGGE 23 settembre 2025, n. 132 – GU Serie Generale n.223 del 25-09-2025. ² Regolamento (UE) 2024/1689 – AI Act, Parlamento Europeo e Consiglio, 13 giugno 2024.
³ Nel diritto italiano, l’aggiotaggio si riferisce alla diffusione di notizie false o esagerate con lo scopo di alterare il prezzo dei titoli negoziati in borsa o influenzare il mercato finanziario. Art. 2637 c.c., manipolazioni di mercato con IA.
⁴ Disposizioni delegate – Capitolo VI della Legge n. 132/2025.
Autore:
Georgina Martínez
Delvy Italia


