Italia, approvata la prima legge sull'Intelligenza artificiale

L’Italia, il 17 settembre 2025, con l’approvazione in via definitiva del Senato, si è dotata della prima legge interamente dedicata all’intelligenza artificiale. Un passaggio significativo, che si inserisce nel più ampio percorso avviato dall’Unione Europea con l’AI Act, il regolamento comunitario approvato a giugno 2024 e che sta entrando in vigore a step progressivi. Il provvedimento nazionale non si pone come alternativa, ma come integrazione al quadro europeo: ribadisce i principi comuni stabiliti da Bruxelles e introduce alcuni strumenti di attuazione pensati per il contesto italiano, dalla sanità al lavoro, dalla pubblica amministrazione alla cybersicurezza. Non si tratta di una “via italiana” autonoma, piuttosto di un tentativo di dare attuazione concreta a regole che stanno progressivamente ridisegnando l’ecosistema dell’intelligenza artificiale nel continente.
Un quadro di principi e diritti
La legge conferma l’approccio antropocentrico al tema dell’AI: trasparenza, sicurezza, tutela della privacy, non discriminazione e sostenibilità sono i principi guida. Viene ribadita la necessità che l’intervento umano resti sempre presente, soprattutto nelle decisioni sensibili, e che il dibattito democratico non sia messo a rischio da interferenze generate da algoritmi. L’attenzione non è solo tecnica, ma anche politica e sociale. Nel testo ricorre più volte la centralità dei diritti costituzionali e dei valori democratici, in linea con la filosofia che ha ispirato l’AI Act europeo.
Leggi anche: AI, una sfida globale a colpi di visione opposte
Sanità: AI come supporto
Un settore in cui le applicazioni appaiono particolarmente promettenti è quello sanitario. L’AI potrà affiancare i medici nella prevenzione, nella diagnosi e nella scelta terapeutica, ma non sostituirli. Il principio è quello del supporto, non della delega. Un ruolo rilevante è assegnato ad Agenas (l’Agenzia nazionale per la sanità digitale), che dovrà gestire una piattaforma nazionale di AI per l’assistenza territoriale. Qui l’obiettivo è semplificare l’accesso ai servizi sanitari e mettere a disposizione dei professionisti strumenti di supporto basati su dati affidabili. La legge non affronta in modo diretto le modalità di gestione dei dati personali e sanitari, rimandando a prossime consultazioni con il Garante per la protezione dei dati personali, gli enti di ricerca, i presidi sanitari e gli operatori del settore.
Lavoro e professioni: tutele e formazione
Il mondo del lavoro è uno dei campi in cui l’impatto dell’intelligenza artificiale si annuncia più profondo e, al tempo stesso, più controverso. La legge approvata dal Parlamento riconosce che gli algoritmi possono contribuire ad aumentare la produttività, migliorare l’organizzazione dei processi e alleggerire compiti ripetitivi. Ma stabilisce anche una serie di paletti chiari per evitare che l’innovazione diventi fonte di nuove disuguaglianze o di precarizzazione.
Il testo prevede che l’uso dell’AI in ambito lavorativo debba essere sicuro, affidabile e trasparente. Il datore di lavoro o il committente è tenuto a informare i dipendenti quando vengono utilizzati sistemi di intelligenza artificiale nella gestione dei rapporti di lavoro: dall’organizzazione dei turni alla valutazione delle performance, dalla selezione dei candidati fino alla distribuzione delle mansioni. Un obbligo che mira a impedire l’opacità algoritmica, cioè quelle situazioni in cui decisioni che incidono sulla vita professionale delle persone sono prese da software senza che i diretti interessati ne siano consapevoli.
Per evitare discriminazioni, la legge richiama esplicitamente il rispetto dei diritti inviolabili dei lavoratori, vietando che gli algoritmi possano introdurre differenze basate su sesso, età, origine etnica, credo religioso, orientamento sessuale, opinioni politiche o condizioni personali ed economiche. Per affrontare questi nodi, la legge istituisce presso il ministero del Lavoro un Osservatorio sull’adozione dell’intelligenza artificiale. Si tratta di un organo con compiti di monitoraggio e analisi: dovrà valutare l’impatto dell’AI sul mercato occupazionale, identificare i settori maggiormente interessati e suggerire strategie per governare la transizione. Non solo: l’Osservatorio avrà anche il compito di promuovere percorsi di formazione continua, destinati sia ai lavoratori sia ai datori di lavoro, con l’obiettivo di sviluppare competenze digitali diffuse e consapevolezza critica nell’utilizzo delle nuove tecnologie.
La legge dedica, infine, un passaggio specifico alle professioni intellettuali in cui il rapporto fiduciario con il cliente costituisce l’essenza stessa della prestazione. In questi casi l’AI è ammessa solo come strumento di supporto, ad esempio per ricerche documentali, calcoli complessi o simulazioni. La decisione finale, così come la responsabilità, rimane invece nelle mani del professionista. Per rendere trasparente questo equilibrio, i clienti dovranno essere informati con linguaggio chiaro e comprensibile su quali sistemi di AI siano stati impiegati e in quale misura abbiano contribuito al lavoro svolto.

Pubblica amministrazione e giustizia: tecnologia come supporto, non come sostituzione
Un terreno particolarmente delicato è quello dell’uso dell’intelligenza artificiale da parte delle istituzioni pubbliche. La legge chiarisce che i sistemi algoritmici potranno essere adottati per migliorare l’efficienza degli uffici, ridurre i tempi dei procedimenti e rendere più accessibili i servizi ai cittadini e alle imprese. In questo senso, l’AI viene considerata un alleato per snellire la burocrazia e alleggerire il carico di lavoro amministrativo. Ma il provvedimento insiste anche su un punto fermo: la responsabilità resta sempre in capo alla persona. Gli algoritmi non potranno mai trasformarsi in soggetti decisionali autonomi, ma dovranno essere strumenti al servizio di chi firma i provvedimenti.
L’idea di fondo è che la tecnologia possa svolgere un ruolo strumentale, ad esempio aiutando a organizzare grandi quantità di dati, a individuare più rapidamente precedenti normativi o giurisprudenziali, oppure a gestire in modo automatizzato pratiche standardizzate. Ma quando si tratta di incidere sui diritti dei cittadini o di prendere decisioni che producono effetti giuridici, il potere rimane in capo all’essere umano. La trasparenza diventa quindi una condizione essenziale: ogni cittadino deve poter conoscere quando e come un sistema di AI è stato utilizzato in un procedimento che lo riguarda.
Un discorso analogo riguarda la giustizia. L’AI potrà contribuire a velocizzare la gestione degli uffici giudiziari, a semplificare attività amministrative accessorie e a supportare i magistrati con strumenti di analisi, ma non potrà mai sostituirsi alla valutazione critica e discrezionale del giudice. Il ministero della Giustizia dovrà accompagnare l’introduzione delle nuove tecnologie con programmi di formazione, sia per i magistrati sia per il personale amministrativo, volti a diffondere una cultura digitale capace di riconoscere opportunità e rischi.
Sicurezza e cybersicurezza
Le attività legate alla difesa nazionale, all’intelligence e alle forze di polizia sono escluse dal perimetro generale della legge, ma devono comunque rispettare principi di proporzionalità e diritti fondamentali. L’Agenzia per la cybersicurezza nazionale (ACN) riceve un mandato specifico: vigilare sull’impiego dei sistemi di intelligenza artificiale e promuoverne lo sviluppo per rafforzare la resilienza digitale del Paese.
Investimenti e sviluppo industriale
Il provvedimento prevede anche strumenti di sostegno alle imprese e alla ricerca. È autorizzato un piano di investimenti fino a un miliardo di euro, da destinare a startup e PMI innovative nei settori dell’AI, della cybersicurezza e del calcolo quantistico. Si tratta di un segnale di fiducia nella possibilità che questi comparti diventino un volano per l’economia, pur all’interno delle dinamiche europee e globali. Un altro aspetto riguarda i dati: nelle procedure pubbliche di acquisto sarà favorita la localizzazione dei data center sul territorio nazionale, a tutela della sicurezza e della continuità operativa.
Le autorità nazionali
Per l’attuazione della legge non vengono creati nuovi organismi, ma vengono designate come autorità nazionali due agenzie già esistenti: l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN). La prima avrà compiti di promozione e conformità, la seconda di vigilanza e sanzione. Entrambe dovranno lavorare in stretto coordinamento con altri enti di vigilanza, come Banca d’Italia, CONSOB e IVASS.
Diritto d’autore e norme penali
Due capitoli finali introducono modifiche rilevanti. Sul fronte del diritto d’autore, si precisa che solo le opere frutto del lavoro intellettuale umano godono della piena protezione. Le creazioni generate con l’ausilio dell’AI possono essere tutelate solo se riflettono un apporto creativo umano.
Sul piano penale, viene introdotto un reato specifico per la diffusione di contenuti falsificati con AI (deepfake), punito con la reclusione da uno a cinque anni. È prevista anche un’aggravante generale per i reati commessi tramite l’uso di sistemi di AI, con pene più severe in caso di frodi o manipolazioni finanziarie.
Un tassello europeo e globale
La nuova legge italiana non si presenta come una norma isolata, ma come parte di un percorso che coinvolge l’intera Unione Europea. L’AI Act ha dato il quadro di riferimento; gli Stati membri stanno progressivamente adattando le proprie normative interne per renderne concreta l’applicazione.
In questo senso, il provvedimento approvato a Roma è un tassello del mosaico europeo, accanto alle esperienze già in corso in altri Paesi. Sullo sfondo resta anche la dimensione internazionale: Stati Uniti, Cina e altre potenze stanno elaborando approcci diversi alla regolazione dell’AI, con una competizione che è insieme tecnologica, economica e geopolitica. Molti aspetti rimangono demandati a decreti attuativi e linee guida. Sarà decisivo capire come saranno gestiti i cosiddetti “spazi di sperimentazione”, quali criteri adotteranno le amministrazioni pubbliche per acquisire soluzioni di AI e come verrà garantita la collaborazione tra le varie autorità di vigilanza.