...

Intelligenza Artificiale Legge 132/2025

Indice dei contenuti

Intelligenza Artificiale Legge 132 del 2025

La Nuova Normativa Italiana sull’Intelligenza Artificiale: Principi, Obblighi, Responsabilità e Opportunità per Imprese e Professionisti. 10 ottobre 2025: una data destinata a segnare un punto di svolta nella storia tecnologica e giuridica italiana.

10 ottobre 2025 • Entrata in vigore

In questa data è entrata in vigore la Legge 23 settembre 2025, n. 132 – “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” – il primo quadro normativo organico con cui l’Italia affronta la rivoluzione dell’intelligenza artificiale. Non si tratta di una semplice regolamentazione tecnica, ma di una scelta di campo precisa: governare il futuro tecnologico senza subirlo, tracciando confini chiari tra innovazione e tutela dei diritti fondamentali.

Pubblicata in Gazzetta Ufficiale il 25 settembre 2025, questa normativa rappresenta molto più di un adempimento legislativo. È una dichiarazione di intenti: l’Italia sceglie di essere protagonista, non spettatrice, della più profonda trasformazione tecnologica dalla rivoluzione industriale.

Un approccio antropocentrico all'intelligenza artificiale • Italia pioniera

L’Italia si posiziona come primo Paese dell’Unione Europea a dotarsi di una normativa organica dedicata all’intelligenza artificiale, un primato che non è frutto di casualità ma di visione strategica. La legge non si limita a recepire i principi dell’AI Act europeo (Regolamento UE 2024/1689), ma introduce una disciplina specifica per settori chiave, affiancandosi al quadro comunitario e agendo negli spazi di competenza lasciati agli Stati membri.

Il cuore pulsante di questa normativa risiede nel suo approccio antropocentrico: la tecnologia non come fine, ma come mezzo al servizio dell’essere umano. Un principio che attraversa ogni articolo, ogni comma, ogni disposizione con la forza di un imperativo categorico: l’intelligenza artificiale deve rimanere strumento, mai giudice o decisore autonomo.

La centralità della persona umana e il principio della supervisione umana non sono semplici clausole di stile, ma costituiscono il fondamento irrinunciabile dell’intera legge. È una scelta filosofica prima ancora che giuridica: in un’epoca in cui gli algoritmi promettono efficienza e precisione, l’Italia sceglie di ancorare ogni decisione alla responsabilità umana, alla coscienza, al giudizio che nessuna macchina potrà mai replicare.

Intelligenza Artificiale - Italia Europa

La doppia cornice • Europa e Italia in sinergia

Con l’entrata in vigore del Regolamento EU AI Act e della Legge italiana 132/2025, si apre una doppia cornice normativa, prima nel suo genere a livello globale, che introduce un quadro stringente di obblighi, responsabilità e sanzioni.

L’architettura normativa è sofisticata: mentre l’AI Act definisce una classificazione dei sistemi di IA in base al rischio (inaccettabile, alto, limitato, minimo) e impone obblighi ai fornitori a livello europeo, la legge italiana si concentra su settori specifici come sanità, lavoro, professioni intellettuali e pubblica amministrazione.

Questa complementarietà non è casuale. La legge italiana compie una scelta strategica di forte allineamento con l’impianto normativo e la terminologia dell’Unione europea, garantendo che le imprese italiane operino in un contesto coerente con il mercato unico digitale, evitando frammentazioni che avrebbero reso impossibile la competitività internazionale.

Intelligenza Artificiale - Responsabilitá Umana

Dove l'IA incontra la responsabilitá Umana • Settori strategici

Sanitá: l'algoritmo che non puó guarire

Nel settore sanitario, l’utilizzo dell’IA è consentito come supporto a diagnosi e cure, ma con obbligo di validazione periodica degli algoritmi. La medicina è l’ambito in cui le promesse dell’intelligenza artificiale si fanno più seducenti: diagnosi precoci, analisi predittive, personalizzazione delle terapie. Eppure, proprio qui la legge pone un argine invalicabile: l’algoritmo può suggerire, non decidere.

Il medico rimane l’unico responsabile della scelta terapeutica. La macchina può elaborare miliardi di dati in millisecondi, ma non può sostituire lo sguardo che riconosce il dolore negli occhi di un paziente, l’intuizione clinica forgiata da anni di esperienza, la capacità di comunicare una prognosi con umanità.

Lavoro: dignitá oltre l'efficienza

L’intelligenza artificiale in ambito lavorativo deve essere impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori e accrescere la qualità delle prestazioni, ma l’utilizzo deve essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali.

La legge distingue i sistemi di intelligenza artificiale ad “alto rischio”, che includono quelli destinati alla selezione o valutazione dei candidati nei processi di assunzione, alla promozione, assegnazione di compiti o cessazione del rapporto di lavoro, e alla valutazione delle prestazioni e del comportamento dei lavoratori.

Per questi sistemi, il datore di lavoro deve informare preventivamente i rappresentanti dei lavoratori ed effettuare una valutazione preventiva dell’impatto sui diritti e sulle libertà dei dipendenti, con riferimento alla sicurezza dei dati, alla discriminazione algoritmica e alla protezione della privacy.

Non è solo compliance: è la tutela di un principio fondamentale. Un algoritmo può misurare la produttività, ma non può valutare il potenziale umano. Può analizzare curriculum, ma non può cogliere la motivazione, la creatività, la capacità di crescita di una persona. L’intelligenza artificiale nell’organizzazione e nella gestione del rapporto di lavoro deve garantire l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni.

Professionisti Intellettuali: Il giudizio che non si delega

L’utilizzo dei sistemi di intelligenza artificiale nelle professioni intellettuali è consentito solo come strumento di supporto e per attività strumentali rispetto alla prestazione professionale principale, che deve sempre mantenere la prevalenza del lavoro umano e intellettuale.

L’utilizzo dell’intelligenza artificiale deve essere limitato alle attività strumentali e di supporto all’attività individuale e pertanto non può sostituire il giudizio tecnico, critico e costruttivo del professionista, restando quest’ultimo l’unico responsabile della prestazione professionale che non può essere demandata all’IA.

Per avvocati, ingegneri, architetti, commercialisti – per tutti coloro la cui professione si fonda sul giudizio esperto – la legge pone un vincolo chiaro: per garantire il rapporto fiduciario tra professionista e cliente, le informazioni sui sistemi di IA impiegati devono essere comunicate in modo chiaro, semplice ed esaustivo al destinatario della prestazione.

Un avvocato può utilizzare l’IA per analizzare precedenti giurisprudenziali, ma la strategia difensiva rimane sua. Un ingegnere può affidarsi a software di calcolo avanzati, ma la responsabilità del progetto è inalienabile. La fiducia professionale non si automatizza.

Pubblica Amministrazione: Lo Ststo che resta Umano

L’utilizzo dell’intelligenza artificiale nella pubblica amministrazione avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale.

È una disposizione che richiama la distinzione già affermata di recente in giurisprudenza tra “decisione algoritmica” e “supporto algoritmico” alla decisione umana. Un atto amministrativo può essere preparato con l’ausilio dell’IA, ma la firma, la responsabilità, l’imputabilità restano umane. Lo Stato non delega agli algoritmi l’esercizio del potere pubblico.

Intelligenza Artificiale - Conrollo Digitale

Governance e Vigilanza: Chi controlla i controllori digitali?

Due autorità nazionali sono individuate come garanti dell’applicazione della normativa: l’Agenzia per l’Italia Digitale (AgID), con funzioni di promozione e sviluppo dell’intelligenza artificiale, e l’Agenzia per la Cybersicurezza Nazionale (ACN), con compiti di vigilanza, incluse le attività ispettive e sanzionatorie, e sicurezza.

L’AgID è responsabile della definizione delle procedure e dello svolgimento delle attività di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati della verifica di conformità dei sistemi di intelligenza artificiale, mentre l’ACN è responsabile delle attività di vigilanza, comprese le ispezioni e le azioni sanzionatorie.

Non è un sistema di sorveglianza, ma di accompagnamento. Le autorità non sono nemiche dell’innovazione, ma custodi della legalità. Il loro compito è garantire che il progresso tecnologico non diventi regressione dei diritti.

Osservatorio sul lavoro: Monitoriare per anticipare

Al fine di massimizzare i benefici e contenere i rischi derivanti dall’impiego di sistemi di intelligenza artificiale in ambito lavorativo, è istituito presso il Ministero del lavoro e delle politiche sociali l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro, con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, monitorare l’impatto sul mercato del lavoro e identificare i settori lavorativi maggiormente interessati.

L’Osservatorio promuove la formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale. Non basta regolare: occorre educare, formare, preparare. La trasformazione tecnologica non può lasciare indietro intere categorie di lavoratori. L’Osservatorio è lo strumento con cui lo Stato si fa carico di questa responsabilità sociale.

Quando la tecnologia tradisce la fiducia: Sanzioni

La legge introduce un impianto sanzionatorio che testimonia la serietà dell’intervento normativo.

Nuovi Reati nel Codice Penale

Viene inserito nel Codice Penale l’articolo 612-quater, che punisce con la reclusione da 1 a 5 anni chi diffonde, senza consenso, contenuti audio/video falsificati o alterati tramite IA, idonei a ingannare sulla loro autenticità. È la risposta ai deepfake, alle manipolazioni che possono distruggere reputazioni, influenzare elezioni, minare la fiducia nelle istituzioni.

All’articolo 61 del Codice Penale è aggiunto il numero 11-decies, che considera come aggravante l’avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato.

All’articolo 294 (“Attentati contro i diritti politici del cittadino”) è aggiunto un comma che prevede la reclusione da due a sei anni se l’inganno è posto in essere mediante l’impiego di sistemi di intelligenza artificiale. La democrazia deve essere protetta anche dalle minacce algoritmiche.

Sanzioni Amministrative Europee

In riferimento alle sanzioni indicate nell’AI Act, si prevedono multe fino a 35 milioni di euro o il 7% del fatturato per pratiche vietate, fino a 15 milioni di euro o il 3% del fatturato per altre violazioni, e fino a 7,5 milioni di euro o l’1% del fatturato per informazioni false.

Non sono cifre simboliche. Sono deterrenti reali, pensati per scoraggiare comportamenti che mettano a rischio diritti fondamentali. L’innovazione ha un prezzo, ma anche responsabilità proporzionali ai benefici che genera.

Alfabetizzazione digitale: Il diritto di comprendere

La Legge 132/2025 attribuisce grande rilievo all’alfabetizzazione digitale e alla diffusione di una vera e propria cultura dell’intelligenza artificiale, con programmi di educazione e sensibilizzazione per la cittadinanza, volti a promuovere una comprensione diffusa delle potenzialità e dei rischi connessi all’uso dell’IA.

Rientrano in questo ambito iniziative rivolte alle scuole, alle università e alla formazione permanente, in coerenza con le strategie nazionali di innovazione digitale, mentre viene incoraggiata l’alfabetizzazione specialistica per i lavoratori e i professionisti dei settori maggiormente interessati dall’adozione di sistemi intelligenti.

Non si può governare ciò che non si comprende. L’alfabetizzazione digitale non è un lusso, ma un diritto democratico. In una società in cui algoritmi influenzano opportunità lavorative, accesso al credito, diagnosi mediche, comprendere il funzionamento di base dell’IA diventa conditio sine qua non per l’esercizio pieno della cittadinanza.

Per le professioni tecniche, la Legge 132/2025 prevede che i futuri decreti attuativi introducano percorsi di formazione digitale promossi dagli ordini e dalle associazioni professionali per diffondere competenze specifiche sull’uso dell’intelligenza artificiale, oltre a criteri per l’equo compenso, calibrati sui nuovi profili di responsabilità derivanti dall’impiego dell’AI nei processi progettuali

Deleghe al Governo: Il futuro ancora da scrivere

La legge 132/2025 delega il Governo a emanare, entro 12 mesi, decreti legislativi per introdurre nuove fattispecie di reato e sanzioni in caso di uso illecito dell’IA, oltre a strumenti di tutela civile per i soggetti danneggiati.

Il massiccio ricorso alla delega in bianco al Governo su materie tecnicamente complesse e giuridicamente delicate (come l’addestramento degli algoritmi e la disciplina del danno) rappresenta la vera incognita dell’efficacia di questa legge, che dipenderà interamente dalla qualità e dalla tempestività dei futuri decreti legislativi.

È qui che si gioca la partita decisiva. I principi sono stati fissati, ma la loro traduzione in norme operative, chiare, applicabili – senza tradire lo spirito della legge – sarà il vero banco di prova. I prossimi dodici mesi saranno cruciali.

Opportunitá per le Imprese: Dalla compliance al vantaggio competitivo

Per le imprese italiane, questa normativa non è solo un vincolo da rispettare, ma un’opportunità strategica da cogliere.

Trasparenza come Asset Reputazionale

La legge promuove un uso corretto, trasparente e consapevole dell’intelligenza artificiale, in una prospettiva centrata sulla persona. In un’epoca in cui consumatori e investitori premiano le aziende eticamente responsabili, la conformità alla Legge 132/2025 diventa un distintivo di qualità.

Un’impresa che dimostra di utilizzare l’IA in modo trasparente, con supervisione umana, nel rispetto dei diritti dei lavoratori, costruisce un capitale reputazionale che si traduce in fiducia del mercato. Non è costo: è investimento.

Innovazione Responsabile come Differenziatore

L’obiettivo è favorire un utilizzo consapevole dell’AI, fondato su competenza, controllo umano e qualità. Le aziende che anticipano la compliance, che integrano fin da subito i principi della legge nei propri modelli di governance tecnologica, non solo evitano sanzioni: si posizionano come leader in un mercato che premia la sostenibilità digitale.

Formazione come Leva Competitiva

Le direzioni HR dovranno collaborare con i responsabili legali, IT e privacy per integrare la gestione dell’intelligenza artificiale nelle politiche di governance aziendale e aggiornare i modelli organizzativi 231 e i registri dei trattamenti in funzione dei nuovi rischi introdotti.

Investire nella formazione del personale sull’IA non è solo un obbligo normativo: è costruire competenze interne che rendono l’azienda più agile, più innovativa, più competitiva. La vera risorsa scarsa nell’era dell’IA non è la tecnologia, ma la capacità di utilizzarla con giudizio.

Intelligenza Artificale - Criticitá

Criticitá e sfide aperte: Le domande che restano

Nonostante l’ambizione e la portata della normativa, restano nodi critici da sciogliere.

L'Onere Informativo per i Professionisti

L’Ordine degli Avvocati ha rilevato come la disposizione appaia confusa e confusionaria, laddove pretende di “assicurare il rapporto fiduciario tra professionista e cliente”, quasi che tale fiducia non fosse già garantita dagli obblighi deontologici, rappresentando un adempimento formale che rischia di svuotare di significato proprio quella consapevolezza che intende tutelare.

L’obbligo di comunicare in modo chiaro e semplice informazioni su sistemi tecnologicamente complessi rischia di tradursi in informative standardizzate, burocratiche, che non aumentano realmente la consapevolezza del cliente. Serve un equilibrio tra trasparenza sostanziale e formalismo procedurale.

La Complessità della Valutazione d'Impatto

Per i sistemi ad alto rischio, le valutazioni preventive d’impatto richiedono competenze multidisciplinari – legali, tecniche, etiche – che molte piccole e medie imprese potrebbero non possedere internamente. Serve un ecosistema di supporto: consulenti specializzati, linee guida operative, strumenti di auto-valutazione certificati.

Il Coordinamento tra Autorità

L’AgID e l’ACN sono individuate come autorità nazionali competenti, ma il coordinamento tra queste istituzioni, con il Garante della Privacy, con le autorità europee, richiederà protocolli operativi chiari. La frammentazione delle competenze rischia di generare incertezza interpretativa.

Prospettive future: Verso un ecosistema digitale etico

La Legge 132/2025 è un provvedimento di grande rilevanza, che testimonia la volontà dell’Italia di non subire passivamente la rivoluzione tecnologica, ma di governarla.

L’approccio settoriale, il forte ancoraggio al principio antropocentrico, l’integrazione con il quadro europeo sono elementi positivi che posizionano l’Italia all’avanguardia. Ma l’efficacia di questa legge dipenderà interamente dalla qualità e dalla tempistività dei futuri decreti legislativi, che dovranno tradurre i principi generali in regole operative chiare e applicabili, senza tradire lo spirito della norma e garantendo un costante allineamento con il quadro normativo europeo in continua evoluzione.

Un messaggio alle imprese: L'ora delle scelte

Con la Legge 132/2025, l’Italia adotta un modello che anticipa l’attuazione dell’AI Act europeo, ma con un’attenzione particolare alla tutela dei lavoratori e alla trasparenza delle decisioni automatizzate.

Per i datori di lavoro, la sfida non è solo tecnologica, ma organizzativa e culturale: garantire che l’intelligenza artificiale sia uno strumento di supporto, non di sostituzione o sorveglianza.

La conformità alla nuova regolamentazione sull’AI è un percorso complesso che richiede competenze multidisciplinari: legali, tecniche ed etiche. Affrontarlo con una guida esperta non è solo una misura di mitigazione del rischio, ma un investimento strategico per il futuro dell’azienda.

Intelligenza Artificiale al Servizio Umano

L'Algoritmo al servizio dell' Uomo

La Legge 132/2025 rappresenta una scommessa: è possibile innovare senza sacrificare diritti, accelerare senza perdere umanità, automatizzare senza abdicare alla responsabilità.

“L’Italia ha deciso di guardare l’algoritmo nei bit. Con questa legge nasce un quadro che richiama l’IA al servizio della persona”, nelle parole del Garante per la Privacy. In questi ambiti, l’AI dovrà restare strumento ausiliario, mai giudice o decisore.

È una visione del futuro in cui la tecnologia amplia le possibilità umane senza sostituirle, potenzia le capacità senza alienarle, velocizza i processi senza disumanizzarli. Un futuro in cui ogni decisione algoritmica può essere spiegata, contestata, corretta. Un futuro in cui la responsabilità – quella parola antica che significa “capacità di rispondere” – rimane saldamente ancorata alla coscienza umana.

Per le imprese, per i professionisti, per i lavoratori, per i cittadini, questa legge non è un ostacolo: è una mappa. Non rallenta l’innovazione: la indirizza. Non limita la tecnologia: la civilizza.

Il 10 ottobre 2025 segna l’inizio di una nuova era: quella in cui l’Italia sceglie di essere protagonista della rivoluzione digitale senza rinunciare ai valori che hanno costruito la nostra civiltà giuridica. L’intelligenza artificiale è potente, ma la dignità umana è inviolabile. Gli algoritmi sono veloci, ma la giustizia richiede tempo e riflessione. Le macchine possono calcolare, ma solo l’uomo può giudicare.

Questa è la scommessa della Legge 132/2025. E dalle scelte che faremo nei prossimi mesi – istituzioni, imprese, professionisti, cittadini – dipenderà se quella scommessa sarà vinta.

La tecnologia avanza, la legge risponde... L'umanità deve guidare! Il futuro dell'intelligenza artificiale in Italia è iniziato e ha un volto umano...!

Le informazioni contenute in questo sito hanno carattere esclusivamente informativo e non costituiscono consulenza professionale di alcun tipo. Le normative sono soggette a modifiche e ogni situazione richiede valutazione personalizzata. Si raccomanda di consultare professionisti qualificati prima di qualsiasi decisione importante. L'autore declina ogni responsabilità per scelte assunte senza adeguata consulenza specialistica.

Domande Frequenti (FAQ)

Cos'è la Legge 132/2025?

La Legge 132/2025 è la prima normativa italiana organica sull’intelligenza artificiale, entrata in vigore il 10 ottobre 2025, che stabilisce principi, obblighi e responsabilità per l’uso dell’IA in settori chiave.

I settori principali sono: sanità, lavoro, professioni intellettuali e pubblica amministrazione. La legge stabilisce regole specifiche per garantire supervisione umana e trasparenza.

Le sanzioni vanno da 1 a 5 anni di reclusione per reati penali (deepfake, uso fraudolento) fino a 35 milioni di euro o il 7% del fatturato per violazioni dell’AI Act europeo.

Due autorità: l’Agenzia per l’Italia Digitale (AgID) per promozione e sviluppo, e l’Agenzia per la Cybersicurezza Nazionale (ACN) per vigilanza e sanzioni.

Le aziende devono: implementare supervisione umana, effettuare valutazioni d’impatto per sistemi ad alto rischio, formare il personale, aggiornare policy privacy e modelli organizzativi 231.

Il Governo ha 12 mesi dall’entrata in vigore (fino a ottobre 2026) per emanare i decreti legislativi che completeranno il quadro normativo.

Ti é piaciuto? Condividi ora!

Rimani aggiornato, iscriviti!

WhatsApp
Canale News
Youtube
Canale
Telegram
Canale News

Ricerca Articolo

Categorie

Immagine di Roberto Riccio per la sezione IO Roberto Riccio - Personale

Conosci l'autore
tra eleganza, rigore e passione

Ogni percorso professionale è anche umano. Il mio è guidato dalla disciplina marziale, dal rispetto delle regole, dalla precisione dell’arbitrato e dall’ascolto profondo che riservo a ogni persona.

Questo Sito utilizza cookies per migliorare la tua esperienza. Gestione dei Cookie
Seraphinite AcceleratorOptimized by Seraphinite Accelerator
Turns on site high speed to be attractive for people and search engines.