Tratto da: Ildirittoamministrativo.it
Autore: Antonio Felice Uricchio
Presidente Anvur, ordinario di diritto tributario Università degli studi di Bari
ABSTRACT
Il contributo analizza, dalla prospettiva giuridico-istituzionale, l’evoluzione della regolazione dell’intelligenza artificiale in Europa e in Italia, con particolare riferimento al Regolamento (UE) 2024/1689 (AI Act) e alla Legge 23 settembre 2025, n. 132, Disposizioni e deleghe al Governo in materia di intelligenza artificiale (GU Serie Generale n. 223 del 25 settembre 2025, n. 25G00143). L’AI Act rappresenta il primo quadro normativo sovranazionale di carattere organico, fondato sull’approccio basato sul rischio e sull’esigenza di tutelare i diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea. La legge italiana, prima in Europa ad affiancare al regolamento una disciplina nazionale, introduce elementi di specificità, tra cui il riferimento espresso a un modello antropocentrico ed eticamente orientato, la promozione della ricerca attraverso la cooperazione tra università, enti pubblici e imprese, e l’estensione della disciplina a settori come la pubblica amministrazione e la disabilità. La nuova disciplina prende in considerazione le diverse istituzioni coinvolte nella governance dell’IA, dall’AI Office europeo all’Agenzia per la cybersicurezza nazionale (ACN) e all’Agenzia per l’Italia digitale (AgID), oltre al ruolo del Ministero dell’Università e della Ricerca nell’istituzione dei tecnopoli nazionali e nella promozione di infrastrutture dedicate, come la AI Factory presso il CINECA. Particolare attenzione è rivolta all’educazione, riconosciuta come settore ad alto rischio sia dal legislatore europeo sia da quello italiano, con il supporto delle Linee guida del Ministero dell’Istruzione e del Merito del 2023. Il contributo è completato da una riflessione sul rapporto tra innovazione tecnologica e responsabilità pubblica. L’intelligenza artificiale non può essere intesa come tecnologia neutra, ma come fenomeno da governare attraverso strumenti normativi multilivello, strategie di lungo periodo e principi costituzionali volti a garantire che il progresso sia al servizio della persona, della società e delle istituzioni democratiche. Come insegna un antico proverbio cinese, non si può fermare la piena di un fiume con le mani. Allo stesso modo, il diritto non deve illudersi di arrestare l’avanzata dell’intelligenza artificiale, ma ha il compito di incanalarne la forza, costruendo argini che ne guidino il corso affinché essa non travolga i diritti fondamentali, ma ne divenga strumento di rinnovata protezione e di più profonda valorizzazione.
1.Nell’esprimere un vivo ringraziamento alla Magnifica Rettrice prof. Antonella Polimeni, al Preside dei Facoltà Pierpaolo Durso e alla direttrice del dipartimento e al collega Gianluca Esposito per l’organizzazione dell’evento odierno, saluto tutti i presenti e in particolare il presidente della Fonazione Sapienza prof. Eugenio Gaudio, con il quale ho condiviso sei anni di lavoro quando, a Bari e in questa Università abbiamo ricoperto l’incarico di Rettore, il presidente Santoro, il professor Pietro Selicato, collega di diritto tributario in questa facoltà, la preside di giurisprudenza professoressa Bianca, e i colleghi giuristi Saccoccia e Lalli. Ringrazio poi il Consigliere Garrone, in rappresentanza del Ministro Crosetto, e gli altri rappresentanti delle istituzioni coinvolte. Un sentito e doveroso ringraziamento va innanzitutto ai relatori: al Prof. Franco Gallo, Maestro di tutti noi, che ha esordito con la raffinata autoironia di definirsi “un vecchio signore”, per poi offrire una vera e propria Lectio Magistralis, caratterizzata da straordinaria freschezza di pensiero, da stimoli innovativi e da una prospettiva lucidamente proiettata al futuro, con particolare riferimento al Regolamento europeo e alla legge italiana approvata lo scorso 17 settembre; al Presidente Michele Corradino, che riveste la prestigiosa duplice veste di Presidente di Sezione del Consiglio di Stato e di autorevole punto di riferimento in ambito legislativo per la difesa. Un ringraziamento sincero è dovuto, inoltre, a tutti i colleghi presenti e, naturalmente, agli studenti, la cui partecipazione ha reso l’iniziativa ancora più viva e significativa.
Consentitemi in apertura un commosso ricordo del Presidente Aldo Moro che in questa facoltà ha insegnato per oltre 15 anni dopo avere ricoperto il ruolo di professore ordinario nella mia Università di Bari che ora porta con orgoglio il Suo nome. Alcune brevi considerazioni meritano di essere dedicate al volume, edito dalla prestigiosa casa editrice Cacucci, realtà editoriale di consolidata autorevolezza, sempre attenta a fornire all’accademia e agli operatori del settore strumenti di riflessione scientifica e professionale di indubbio interesse e concreta utilità (colgo l’occasione per salutare il dottor Nicola, qui presente). Come ha opportunamente ricordato il professor Gaudio, l’opera è stata concepita e fortemente sostenuta dalla Global Professionals of Artificial Intelligence, un’associazione di carattere intergenerazionale e interprofessionale, che oggi riunisce oltre cento studiosi e professionisti provenienti da ambiti disciplinari anche profondamente eterogenei – giuristi (tra cui il sottoscritto e l’avv. Caldarola, co-curatore dell’opera), informatici, medici, ingegneri, pedagogisti, e molti altri. Si tratta di competenze solo apparentemente distanti, che invece trovano nella costante interlocuzione e nel dialogo reciproco la loro cifra distintiva, dando vita a un confronto autenticamente interdisciplinare.
La collettanea “L’Intelligenza Artificiale tra regolazione e esperienze applicative” si presenta come il frutto maturo di un laboratorio intellettuale vibrante, in cui si sono intrecciate con particolare intensità voci, saperi e sensibilità disciplinari differenti. Hanno collaborato al lavoro oltre trenta studiosi – italiani e stranieri – che hanno contribuito, con passione e merito, a questa tessitura corale, densa di riflessioni e prospettive. Il risultato è un’opera dallo spessore scientifico inedito, che non rinsalda unicamente i legami della comunità accademica, ma si erge ad ambizioso tentativo di sistematizzazione del sapere interdisciplinare sull’intelligenza artificiale[1] alla luce del regolamento (UE) 2024/1689 (cd. Ai Act)[2] e della legge italiana in materia, approvata in via definitiva dal Senato il 17 settembre 2025 (atto 1146-B)[3]. Il proponimento principale degli Autori è stato quello di offrire coordinate chiare e affidabili per orientarsi in uno dei più affascinanti e sfidanti crocevia del nostro tempo, un punto di svolta in cui il diritto incontra la tecnica, l’etica sfida l’algoritmo, e l’umano si confronta, forse per la prima volta nella storia, con la possibilità concreta della propria riproduzione artificiale. La forza dell’opera sta nell’aver proposto l’adozione dell’intelligenza artificiale non già come una mera e contingente invenzione della Tecnica, bensì come un vero e proprio modello culturale, capace di generare straordinarie opportunità ma, al contempo, non trascurabili rischi. L’Ia si configura come un autentico banco di prova per la tenuta qualitativa delle nostre istituzioni – universitarie, culturali, politiche e sociali – chiamate a garantire non soltanto innovazione ed efficienza, ma anche e soprattutto equità, responsabilità e inclusione.
- Come evidenziato dal prof. Gallo nella Sua limpida riflessione, la regolamentazione europea si contrappone ad altre esperienze internazionali, atteggiandosi come “esempio – unico – di regolazione verticale e orizzontale dell’intelligenza artificiale” [4]. Nessun ordinamento extraeuropeo ha, sino ad oggi, elaborato un impianto normativo altrettanto coerente e organico. Negli Stati Uniti, la disciplina si manifesta per lo più attraverso principi generali, dal carattere programmatico e non vincolante, coerenti con la tradizionale ritrosia verso forme di intervento legislativo rigido, come testimonia l’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence del 2023. Tale impostazione non costituisce una novità; già negli anni Novanta, all’alba della diffusione di Internet, si preferì delegare al mercato la funzione di autoregolazione, affermando il principio della libertà della rete e della sostanziale assenza di regole. Il risultato fu l’attribuzione alle grandi piattaforme di un margine eccessivo di discrezionalità, con il correlato indebolimento della fiducia nei confronti del legislatore[5].
Sul versante opposto, la Cina ha adottato un modello fortemente centralizzato, fondato su un controllo capillare e spesso intrusivo da parte dell’autorità statale, come attestano le Provisions on the Administration of Deep Synthesis Internet Information Services del 2022 e le Measures for the Management of Generative AI Services del 2023. Pur con proprie peculiarità caratteristiche, la Federazione Russa manifesta una tendenza analoga, in cui la regolazione tecnologica si intreccia con strategie controllo totalitario e di sicurezza informatica, senza tuttavia rinunciare a pratiche sistematiche e coordinate di cyberattacco rivolte contro piattaforme e infrastrutture digitali di Paesi considerati ostili o concorrenti. Si delineano, pertanto, due paradigmi contrapposti: da un lato, il “mercatismo” deregolato, che consegna alle dinamiche economiche il governo di settori strategici; dall’altro, il controllo statale onnipervasivo, che rischia di trasformarsi in una rete soffocante, capace di stringere l’individuo in una morsa. Entrambi i modelli, pur muovendo da presupposti diversi, rivelano esiti problematici sul terreno delle garanzie individuali e collettive.
Il modello europeo, invece, si colloca in una posizione intermedia e innovativa, aspirando a bilanciare libertà e sicurezza, autonomia e responsabilità, quasi fosse un “terzo polo” capace di coniugare pluralismo e coerenza, mercato e dignità, tecnica e diritto. Esso pone i diritti fondamentali al centro della disciplina e assume l’approccio basato sul rischio[6] come criterio ordinatore, mirando a bilanciare la promozione dell’innovazione con la tutela della persona. L’AI Act rappresenta il primo regolamento vincolante a livello globale e si è formato attraverso un ampio e articolato confronto istituzionale e sociale. Il percorso non è stato privo di ostacoli, anche perché i Trattati istitutivi dell’Unione non attribuiscono una competenza diretta in materia tecnologica: né il Trattato di Roma né quello di Lisbona contengono infatti un espresso riferimento a tale ambito. Ciononostante, l’Unione europea ha ritenuto di poter intervenire nella regolamentazione dell’intelligenza artificiale, fondando tale scelta sulla stretta connessione tra l’impiego delle tecnologie emergenti e il rischio di lesione dei diritti fondamentali. È proprio l’esigenza di assicurare una tutela effettiva contro possibili compromissioni derivanti da applicazioni tecnologiche particolarmente invasive che ha giustificato l’intervento dell’Unione, in virtù dell’art. 6 TUE, il quale richiama espressamente la Convenzione europea dei diritti dell’uomo (CEDU).
Appare evidente il coraggio delle istituzioni europee, da un lato nel superare le resistenze delle grandi lobby della rete e, dall’altro, nell’oltrepassare una lettura meramente formalista delle barriere di competenza, privilegiando un’interpretazione funzionale e valoriale, orientata alla protezione dei diritti fondamentali e al contrasto delle pratiche tecnologiche potenzialmente lesive degli stessi. Tale costruzione giuridica, tuttavia, non è esente da possibili contestazioni future, in quanto la disciplina dei diritti fondamentali resta, in linea di principio, di competenza degli Stati membri. Non si possono, dunque, escludere contenziosi, soprattutto alla luce delle tendenze sovraniste di alcuni Paesi, particolarmente gelosi delle proprie prerogative, in primis in materia di sicurezza e difesa nazionale. Nonostante ciò, la soluzione adottata dalle istituzioni europee – a valle di un processo di consultazioni pubbliche che ha preceduto la stesura del Libro Bianco europeo – appare meritoria e apprezzabile, in quanto valorizza, come già avvenuto nella disciplina ambientale, un approccio di alto profilo, ispirato a scelte valoriali condivise e a una visione lungimirante del diritto come strumento di equilibrio tra innovazione tecnologica e diritti fondamentali[7].
3. In questo contesto, l’Italia si è distinta per la celerità con cui ha recepito l’impianto regolatorio europeo in materia di intelligenza artificiale; nei giorni scorsi è stata approvata definitivamente la Legge 23 settembre 2025, n. 132,Disposizioni e deleghe al Governo in materia di intelligenza artificiale (GU Serie Generale n. 223 del 25 settembre 2025, n. 25G00143) che, prima in Europa, affianca al regolamento una compiuta disciplina nazionale, introducendo elementi di specificità, tra cui il riferimento espresso a un modello antropocentrico ed eticamente orientato, la promozione della ricerca attraverso la cooperazione tra università, enti pubblici e imprese, e l’estensione della disciplina a settori come la pubblica amministrazione e la disabilità . La nuova disciplina non si limita, infatti, ad accogliere i principi cardine enunciati dall’Unione ma li rafforza, intervenendo in modo puntuale e vincolante nelle parti in cui l’ordinamento eurounionale lasciava margini di discrezionalità. Valori come il rispetto della persona e della sua dignità, delle libertà personali e dei diritti fondamentali sono pienamente affermati. La legge nazionale dedica, altresì, un’attenzione specifica a settori “sensibili”, particolarmente importanti e delicati, come la pubblica amministrazione, la salute e la disabilità – quest’ultima non menzionata nel Regolamento Europeo. Si tratta di novità meritorie e di grande rilievo, destinate non solo a incidere sulla regolazione giuridica, ma anche a orientare lo sviluppo della ricerca scientifica e dell’evoluzione tecnologica. Occorre precisare che né il Regolamento europeo né la legge italiana adottano un approccio repressivo o soffocante nei confronti dell’innovazione tecnologica. Al contrario, la consapevolezza sottesa è che la normativa possa costituire un efficace strumento di promozione di un utilizzo consapevole e responsabile dell’intelligenza artificiale. Come ricorda un antico proverbio cinese, “non si può arrestare un fiume in piena con la mano, ma si può costruire un argine”. Il compito del legislatore è stato dunque proprio quello di delineare tali argini, affinché l’intelligenza artificiale – vero e proprio fiume impetuoso – non esondi, ma possa essere indirizzata a generare crescita, sviluppo ed equità per il nostro Paese.
Nella legge italiana, significativo è l’articolo 3[8], che, rubricato Principi generali, stabilisce, al comma 1, che lo sviluppo, l’adozione e l’utilizzo di sistemi e modelli di intelligenza artificiale a finalità generali debbano avvenire nel rispetto dei diritti fondamentali, delle libertà costituzionali e del diritto dell’Unione europea, nonché secondo i principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità di genere e sostenibilità . Viene, in tal modo, delineata una declinazione dell’intelligenza artificiale orientata alle finalità e agli interessi generali, secondo un approccio improntato al principio di proporzionalità e fondato su una rigorosa valutazione del rischio. In tale prospettiva, la sicurezza digitale assume il rango di requisito inderogabile, sorretto da controlli mirati e stringenti, destinati ad assicurare la necessaria resilienza del sistema rispetto a possibili alterazioni, manipolazioni o usi distorti delle tecnologie. Particolarmente significativa è la previsione del comma 7 dello stesso articolo, che consacra il diritto delle persone con disabilità ad un accesso pieno ed effettivamente non discriminatorio ai sistemi di IA e alle relative funzionalità, in conformità alla Convenzione ONU sui diritti delle persone con disabilità del 2006, ratificata in Italia con legge n. 18/2009; si tratta di una scelta che inserisce la tecnologia entro l’orizzonte della dignità e dell’uguaglianza sostanziale. Nell’articolato normativo, il Capo II si presenta chiaramente come sezione di cruciale importanza, destinata a enunciare, in maniera puntuale e sistematica, principi generali e regole specifiche per l’impiego dell’intelligenza artificiale all’interno di settori particolarmente sensibili, ove l’incidenza delle decisioni algoritmiche risulta concretamente idonea a produrre conseguenze rilevanti e, talvolta, irreversibili sui diritti fondamentali della persona. In tale quadro, il legislatore, con l’art. 7, ha espressamente e rigorosamente vietato l’utilizzo di modelli algoritmici fondati su criteri manifestamente discriminatori, i quali potrebbero inopinatamente condizionare o ingiustamente limitare l’accesso alle prestazioni sanitarie, configurandosi così quale presidio essenziale e inderogabile a tutela dell’universalità, concreta ed effettiva, delle cure. In modo altrettanto significativo, la modifica apportata all’art. 9 del codice di procedura civile si inserisce coerentemente in una prospettiva di certezza e di garanzia, attribuendo con chiarezza e senza ambiguità al tribunale la competenza a conoscere delle controversie relative al funzionamento dei sistemi di intelligenza artificiale, con l’effetto di dissipare definitivamente ogni incertezza interpretativa circa l’individuazione del giudice competente.
Accanto agli aspetti strettamente regolatori, la legge introduce altresì precisi e significativi indirizzi di politica attiva. In particolare, l’art. 5 affida espressamente allo Stato il compito di promuovere, in maniera sistematica e coerente, lo sviluppo e l’impiego dell’intelligenza artificiale quale strumento privilegiato volto a migliorare l’interazione uomo-macchina, anche attraverso l’impiego avanzato della robotica, favorendo contestualmente la ricerca scientifica e incoraggiando la cooperazione virtuosa tra università e imprese. Tali coordinate si configurano come snodi essenziali del rapporto tra sapere accademico e tessuto produttivo, destinati non soltanto a rafforzare stabilmente la competitività del Paese, ma anche a catalizzare investimenti strategici nei settori nevralgici dell’economia nazionale, entro un quadro organico e dinamico che intreccia armoniosamente innovazione, crescita sostenibile e superiore interesse pubblico.
Quanto all’architettura della governance, l’art. 20 attribuisce un ruolo centrale e strategico a due organismi nazionali di primaria rilevanza istituzionale: l’Agenzia per la Cybersicurezza Nazionale (ACN) e l’Agenzia per l’Italia Digitale (AgID), designate quali Autorità nazionali per l’intelligenza artificiale. All’ACN sono riconosciuti poteri particolarmente incisivi e penetranti di vigilanza e di ispezione, idonei a garantire un controllo effettivo e puntuale sull’attuazione delle disposizioni; ad entrambe le Agenzie è affidato il delicato compito di assicurare un’applicazione coerente, armonica e uniforme della normativa nazionale ed europea, in un contesto imprescindibile di coordinamento interistituzionale e di raccordo costante con le autorità dell’Unione. Accanto alle competenze in materia di controllo, particolare rilevanza assume la funzione politica di definizione delle strategie di sviluppo. Come è noto, l’Agenda Digitale costituisce un punto di avvio imprescindibile, ma non esaustivo: occorre, infatti, elaborare strategie mirate e contestualizzate[9], capaci di adattarsi con sufficiente flessibilità all’inarrestabile evoluzione tecnologica. In tale quadro si inserisce l’attesa per l’istituzione dell’Agenzia europea per l’intelligenza artificiale, che avrà il compito di coordinare le politiche e collaborare con le agenzie nazionali competenti. Non meno rilevante è il ruolo dell’Agenzia nazionale di valutazione del sistema universitario e della ricerca (ANVUR), che ho l’onore di presiedere. Accanto alle funzioni tradizionali di monitoraggio sistematico della qualità delle istituzioni accademiche e dei corsi di studio, nonché di valutazione dei prodotti della ricerca, l’Agenzia ha recentemente avviato una proficua collaborazione con l’Agenzia per la cybersicurezza nazionale (ACN), avente a oggetto la redazione di un rapporto periodico sulla ricerca in materia di cybersicurezza. Tale iniziativa consente di valorizzare la migliore produzione scientifica delle Università e degli enti di ricerca conferita ai fini della Valutazione della Qualità della Ricerca (VQR), con l’obiettivo di rafforzare la tutela degli interessi pubblici, garantire l’integrità e la credibilità della ricerca e consolidare la fiducia collettiva nell’impiego responsabile e sostenibile delle nuove tecnologie.
In parallelo, ANVUR ha promosso un progetto finanziato con fondi PNRR volto allo sviluppo di una banca dati internazionale di esperti valutatori, italiani e stranieri. Testata in via sperimentale nel contesto della VQR 2020-2024, essa sarà progressivamente estesa anche alla valutazione delle attività didattiche e resa disponibile all’intero sistema della formazione superiore e della ricerca. L’obiettivo a regime è di coinvolgere circa 15.000 esperti valutatori. Il progetto, sviluppato in collaborazione con il consorzio in house CINECA, ha già completato la fase di progettazione: nel corso del 2024 sono state avviate le attività operative attraverso incontri tecnici con gli sviluppatori informatici. Particolare attenzione è stata riservata all’impiego di algoritmi di intelligenza artificiale e di machine learning per l’interrogazione della banca dati, così da ottimizzare l’abbinamento tra valutatori e prodotti oggetto di analisi. L’operatività è prevista entro il primo semestre 2025, anche a supporto della conclusione della VQR 2020-2024. Tale progetto è pienamente coerente con gli obiettivi del PNR 2021-2027, in quanto mira a potenziare le infrastrutture di supporto al sistema nazionale della ricerca. In questo contesto, il Ministero dell’Università e della Ricerca (MUR) svolge un ruolo di impulso determinante, avendo promosso – insieme ad altri Ministeri – l’istituzione di nuovi tecnopoli nazionali, tra cui quello di Torino dedicato all’intelligenza artificiale, e sostenuto la realizzazione di infrastrutture di ricerca specializzate, come la AI Factory presso il CINECA di Bologna. Particolare rilievo assume il settore dell’educazione e della didattica, a livello tanto scolastico quanto universitario. Non si tratta di una dimensione ancillare, ma di un ambito strategico riconosciuto dal Regolamento europeo come settore ad alto rischio, per l’impatto che l’intelligenza artificiale può avere sulla formazione delle future generazioni. Le piattaforme digitali, i software educativi e gli strumenti multimediali offrono oggi a docenti e studenti risorse conoscitive interattive e personalizzate; proprio l’ampiezza delle informazioni disponibili rende necessaria la maturazione di competenze critiche e selettive, in grado di trasformare la mera fruizione passiva in un autentico esercizio di pensiero autonomo e consapevole. Il modello delineato investe quindi gli educatori di nuovi compiti e responsabilità, chiamandoli a guidare gli studenti fuori dalle insidie della rete e dall’uso meccanico degli strumenti di IA, per contribuire alla formazione di cittadini maturi, responsabili e dotati di autentica libertà intellettuale. Non a caso, in origine l’educazione non era stata inclusa tra gli ambiti a rischio del Regolamento europeo, sulla base della convinzione che la libertà di insegnamento e l’autonomia accademica la rendessero meno vulnerabile. Superata tale lettura, le istituzioni europee hanno riconosciuto la centralità del settore educativo, adottando un approccio prudenziale che tiene conto dei rischi connessi tanto alla tutela delle libertà fondamentali quanto alla salvaguardia dei diritti di cittadinanza e persino alla sicurezza nazionale (si pensi alle recenti direttive NIS 1 e NIS 2).
La legge italiana si colloca nel solco del Regolamento, riaffermando tali principi e ponendo al centro i diritti fondamentali degli studenti – già cardine delle linee europee sulla valutazione della qualità accademica – così come quelli di ogni utente dei sistemi di intelligenza artificiale. In questa prospettiva, l’educazione si configura quale snodo strategico dell’ecosistema digitale contemporaneo: la cittadinanza digitale e la sicurezza informatica emergono come architravi formative fondamentali, destinate a orientare in modo decisivo la crescita consapevole delle nuove generazioni. La scuola e l’università sono pertanto chiamate ad assumere il ruolo di autentiche “officine cognitive”, all’interno delle quali si forgia non soltanto la padronanza tecnica degli strumenti, ma anche la capacità critica di abitare responsabilmente lo spazio virtuale, discernendo tra opportunità e rischi. In tale direzione si collocano le linee guida operative e i progetti innovativi avviati presso gli atenei, come le fabbriche di intelligenza artificiale sostenute dall’Unione europea, finalizzate a migliorare la didattica, potenziare la ricerca e rafforzare le sinergie tra università e imprese. Merita infine attenzione l’art. 22 della legge nazionale sull’intelligenza artificiale, che impegna lo Stato a favorire l’accessibilità ai sistemi di IA anche per il miglioramento del benessere psicofisico attraverso l’attività sportiva, prevedendo lo sviluppo di soluzioni tecnologiche inclusive idonee a garantire una più ampia partecipazione delle persone con disabilità.
4. È di immediata evidenza come la disciplina in esame – tanto europea quanto nazionale – pur nella loro recente adozione, non esauriscano gli spazi di intervento normativo e, ancor meno, possano ritenersi definitive o destinate a rimanere immutate nel tempo. Come opportunamente ricordato dal professor Gallo, l’intelligenza artificiale rappresenta una tecnologia in continua e incessante evoluzione, che inevitabilmente richiederà ulteriori e progressivi interventi regolatori. La vera difficoltà per il legislatore consiste, infatti, nella necessaria e complessa “rincorsa” normativa rispetto a un’evoluzione tecnologica straordinariamente rapida e, sotto taluni profili, persino inimmaginabile. Già oggi dinanzi alla mole sempre crescente di dati immessi e lavorati, si pone il problema della cosiddetta intelligenza artificiale selettiva in grado non solo di raccogliere dati ma di sistemarli in modo ordinato e coerente, producendo algoritmi in grado di escludere quelli falsi o inattendibili attraverso ragionamento creativo e generativo. Non siamo più al cospetto di strumenti limitati a un’elaborazione algoritmica passiva, ma di entità capaci di esercitare una funzione ordinatrice, selezionando e gerarchizzando le informazioni secondo logiche autonome, talvolta opache e non integralmente conoscibili. In questa metamorfosi, l’intelligenza artificiale assume quasi le sembianze di un “bibliotecario invisibile” che, senza consultare l’utente, decide quali testi collocare in prima fila e quali relegare negli scaffali più remoti; distingue ciò che appare vero (o che vuole che appaia vero) da ciò che reputa (o intende reputare) fallace, ciò che giudica attendibile da ciò che considera distorto o manipolato. È un passaggio dirompente, che segna l’evoluzione dall’elaborazione alla selezione, dall’accumulo alla gerarchia, con conseguenze rilevanti tanto per l’ecosistema informativo quanto per la costruzione stessa del sapere collettivo.
Appare dunque del tutto evidente che, sotto il profilo regolatorio, un modello di intelligenza artificiale selettiva sollevi seri problemi di compatibilità con le libertà fondamentali. Non può escludersi, infatti, che il dato “scartato” non sia quello falso o erroneo, bensì quello scomodo o sgradito, con evidenti ricadute in termini di compressione dei diritti individuali. Le criticità investono altresì le libertà democratiche e i valori pluralistici (si pensi alla capacità dell’intelligenza artificiale di incidere e condizionare i processi di formazione del consenso politico), nonché il cosiddetto diritto alla verità. D’altra parte, nella riflessione della dottrina, il diritto alla verità[10] tende a configurarsi come una sorta di pretesa soggettiva, ancora in via di definizione, consistente nel diritto a ricevere informazioni corrette, verificabili e fondate, in un ambiente comunicativo conforme ai principi di trasparenza democratica, correttezza informativa e autodeterminazione cognitiva. Si tratta, tuttavia, di una prospettiva non esente da criticità. L’eventuale riconoscimento normativo o giurisprudenziale di tale diritto impone, infatti, un delicato bilanciamento: da un lato la tutela dell’affidabilità dell’informazione, dall’altro la garanzia della libertà di manifestazione del pensiero sancita dall’articolo 21 della Costituzione e il divieto di surrettizie forme di censura preventiva[11]. Ne consegue che ad essere messa in discussione non è soltanto la configurazione sistematica delle libertà costituzionali, ma la stessa delimitazione concettuale del rapporto tra verità e libertà, vale a dire tra esigenze di affidabilità dell’informazione e tutela del pluralismo[12] .
Un ulteriore sviluppo dell’intelligenza artificiale è quello della cosiddetta intelligenza artificiale personalizzata, che consente di raccogliere attraverso algoritmi l’intera vita di una persona: scritti, discorsi, foto, occasioni pubbliche e private. Questo archivio digitale personalizzato prelude alla creazione del cosiddetto gemello digitale (digital twin), ossia entità algoritmiche costruite e modellate sui dati raccolti e generati da ciascun individuo nel corso della vita. Si tratta di architetture digitali complesse, in grado di incorporare tratti comportamentali, abitudini, preferenze, elementi biometrici e dati sensibili, fino a dar vita a una replica dinamica e stratificata dell’identità personale nel dominio digitale. Tali configurazioni aprono scenari normativi del tutto inediti, sollevando interrogativi cruciali in ordine alla titolarità dei dati, alla tutela dell’identità digitale e alla circolazione delle informazioni personalizzate. È evidente che la disciplina attualmente vigente – pur recente e significativa – non possa ritenersi idonea a governare queste nuove realtà: una regolamentazione specifica dei gemelli digitali diventerà, prima o poi, inevitabile. In conclusione, tanto il modello europeo quanto quello italiano si fondano su una prospettiva autenticamente human-centric, che riconosce nella dignità della persona, nella sicurezza e nella salvaguardia dei diritti fondamentali i propri assi portanti. L’AI Act segna l’inizio di un percorso regolatorio essenziale, volto a garantire uno sviluppo tecnologico coerente con i principi dello Stato di diritto e capace di orientare l’innovazione verso obiettivi di responsabilità sociale. La legge non è più concepita come un mero strumento di limitazione, bensì come dispositivo di indirizzo e di promozione, in grado di trasformare l’energia dirompente delle tecnologie emergenti in opportunità di progresso sostenibile e di crescita equa. In tal senso, il diritto si configura come architettura normativa al servizio della collettività, destinata a fungere da cornice stabile e dinamica insieme, capace di prevenire derive distorsive e, al contempo, di accompagnare lo sviluppo di un ecosistema digitale europeo competitivo, inclusivo e democratico.
* È il testo della relazione, integrata con le note, tenuta dall’Autore, in occasione della presentazione del volume “L’intelligenza artificiale tra regolazione e esperienze applicative” a cura di Antonio Felice Uricchio e Claudio Caldarola al Master di II livello Data Science per la Pubblica Amministrazione svoltasi il 25 settembre 2025 all’Università La Sapienza di Roma.
[1] L’espressione “intelligenza artificiale” venne coniata in occasione della celebre Conferenza di Dartmouth del 1956, considerata l’atto di nascita ufficiale della disciplina, nella quale McCarthy, Minsky, Rochester e Shannon proposero di indagare la possibilità di costruire macchine capaci di simulare aspetti dell’intelligenza umana. Già nel 1950, tuttavia, Alan Turing aveva posto le basi teoriche con il saggio Computing Machinery and Intelligence, pubblicato su Mind, nel quale formulava il noto “Imitation Game” (oggi comunemente denominato Test di Turing) quale criterio di verifica del comportamento “intelligente” di una macchina. Sotto il profilo definitorio, l’IA può essere descritta come l’insieme di teorie, metodologie e sistemi informatici volti a riprodurre – con differenti gradi di autonomia – funzioni cognitive tipiche dell’essere umano, quali l’apprendimento, il ragionamento, la pianificazione e l’interazione con l’ambiente circostante. In questa prospettiva, la letteratura insiste sul carattere trasformativo della tecnologia: L. Floridi et al., L’Intelligenza artificiale, l’uso delle nuove macchine, Milano, 2021, p. 9, evidenziano come “l’intelligenza artificiale è una delle forze più trasformative del nostro tempo ed è destinata a modificare profondamente il tessuto della società”. Un’analoga linea interpretativa è rinvenibile in A.F. Uricchio – G. Riccio – U. Ruffolo (a cura di), Intelligenza Artificiale tra etica e diritti. Prime riflessioni a seguito del libro bianco dell’Unione europea, Bari, 2020, ove viene posto in risalto il bisogno di un approccio regolatorio ed etico in grado di accompagnare lo sviluppo dell’IA, scongiurando derive potenzialmente lesive dei diritti fondamentali e, al contempo, valorizzandone le potenzialità al servizio dell’economia e della società. Sul tema si vedano, inoltre: G. Finocchiaro, Diritto dell’intelligenza artificiale, Bologna, 2024; O. Pollicino – P. Dunn, Intelligenza artificiale e democrazia, Milano, 2024; A. Pajno et al., Intelligenza artificiale e diritto: una rivoluzione?, Bologna, 2022; A. D’Aloia, Intelligenza Artificiale e diritto. Come regolare un mondo nuovo, Milano, 2021.
[3] Legge 23 settembre 2025, n. 132, Disposizioni e deleghe al Governo in materia di intelligenza artificiale (GU Serie Generale n. 223 del 25 settembre 2025, n. 25G00143).
[4] Cfr. F. Gallo, Cyberspazio, diritti e tutele, in A.F. Uricchio – C. Caldarola (a cura di), L’intelligenza artificiale tra regolazione ed esperienze applicative. Introduzione, Bari, 2025, p. 16. L’A. sottolinea la necessità, per le istituzioni europee, di definire un quadro regolatorio chiaro in materia di intelligenza artificiale, osservando come, se da un lato viviamo ormai in una sorta di metaverso popolato da oggetti “intelligenti” che ci parlano, ci ascoltano e ci assistono nelle più varie attività quotidiane, dall’altro si facciano sempre più pressanti i dubbi circa le possibili ombre della digitalizzazione, la natura “artificiale” dei suoi frutti, i rischi di manipolazione, l’assenza di adeguati controlli e il potenziale decremento occupazionale che essa potrebbe produrre. Da qui la necessità di una normativa europea idonea a prevenire, nel tempo, tali effetti.
[5] Sul tema, si veda J. R. Reidenberg, Lex informatica: The formulation of information policy rules through technology, Texas Law Review, 76, 1997, p. 555, il quale evidenzia come “le capacità tecnologiche e le scelte di progettazione dei sistemi impongano regole ai partecipanti”. Tale approccio è stato successivamente ripreso e sistematizzato da L. Lessig, Code is law, Harvard Magazine, 1, 2000, secondo cui il codice informatico si configura quale forma di “legge”, in quanto idoneo a incidere sulle libertà individuali e a conformare l’esercizio dei diritti nello spazio digitale.
[6] Cfr. M. Ebers, Truly risk-based regulation of artificial intelligence: how to implement the EU’s AI Act, in European Journal of Risk Regulation, 16, 2025, pp. 684-703. L’A. osserva che l’emersione di approcci regolatori “risk-based” in materia di sistemi di intelligenza artificiale, tanto nell’Unione europea quanto in altri ordinamenti, solleva innanzitutto l’interrogativo circa il significato attribuito al concetto di “rischio” da parte del legislatore. In termini generali, il rischio può essere definito come “la probabilità che una fonte di pericolo si traduca in un danno effettivo”. Amplius, si v C. Novelli et al., AI risk assessment: a scenario-based, proportional methodology for the AI Act, in Digital Society, 3, 2024; M. Kaminski, Regulating the risks of AI, in Boston University Law Review, 103, 2023.
[7] Come evidenziato da D. Galletta – B. Cappiello, Il Regolamento UE sull’intelligenza artificiale e le amministrazioni pubbliche: basi giuridiche, obiettivi e limiti di un esperimento normativo dagli esiti incerti, in A.F. Uricchio – C. Caldarola (a cura di), L’intelligenza artificiale tra regolazione ed esperienze applicative, Bari, 2025, pp. 60-87, l’esercizio del potere legislativo dell’Unione in materia di IA trova legittimazione, da un lato, nell’esigenza di ravvicinare le normative di settore ai sensi dell’art. 114 TFUE, così da favorire l’integrazione del mercato interno, e, dall’altro, nella finalità di garantire, in casi specifici, la tutela del trattamento dei dati personali, ai sensi dell’art. 16 TFUE. Le Autrici sottolineano, inoltre, che l’AI Act ha come obiettivo primario quello di “migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme, in particolare per quanto riguarda lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale in conformità ai valori dell’Unione”. Sul tema si veda anche V. S. Poli, Il rafforzamento della sovranità tecnologica europea e il problema delle basi giuridiche, in Quaderni AISDUE, 5/2021; V. M. Inglese, Il Regolamento sull’intelligenza artificiale come atto per il completamento e il buon funzionamento del mercato interno? in Quaderni AISDUE, 2/2024;
[8] L’art. 3, comma 2 pone l’accento sulla qualità dei dati e dei processi utilizzati, i quali devono essere corretti, attendibili, sicuri, appropriati e trasparenti, con un’applicazione proporzionata ai diversi settori di impiego. Il comma 3 impone che tali sistemi siano sviluppati nel rispetto dell’autonomia e del potere decisionale umano, garantendo trasparenza, conoscibilità e un’effettiva sorveglianza da parte dell’uomo. Il comma 4, in chiave più marcatamente politico-istituzionale, sancisce che l’uso dell’IA non possa compromettere il metodo democratico, l’esercizio delle funzioni da parte delle istituzioni territoriali né la libertà del dibattito pubblico, tutelando al contempo la sovranità statale e i diritti fondamentali riconosciuti a livello nazionale ed europeo. Infine, il comma 5 chiarisce che la disciplina nazionale non introduce obblighi ulteriori rispetto a quelli già previsti dal regolamento (UE) 2024/1689 in materia di sistemi e modelli di intelligenza artificiale a finalità generali.
[9] Il Ministro dell’Istruzione ha delineato linee guida per l’uso dell’intelligenza artificiale nelle scuole, e MUR e università stanno ragionando in questa direzione. Anche il Ministero della Difesa, come ricordato dal Consigliere Garrone e dal Presidente Corradino, sta lavorando a strategie specifiche, come già fatto nel Regno Unito con un atto di strategia sull’intelligenza artificiale militare. Gli ambiti a rischio – sicurezza, sanità, giustizia, ambiente ed educazione – richiedono strategie più penetranti, con strumenti di controllo, divieti e limiti.
[10] Il diritto all’informazione, la cui elaborazione dottrinale e giurisprudenziale risale a un’epoca in cui non si erano ancora sviluppate le nuove tecnologie digitali, necessita oggi – secondo parte della dottrina – di una rinnovata configurazione, che vada oltre il tradizionale diritto ad essere informati, per assumere i tratti di un vero e proprio diritto a non essere disinformati. In tal senso v. L. Catanzano, Libertà di espressione e verità artificiali. Quale marketplace of ideas nella società dell’algoritmo?, in Riv. Med. Laws, I, 2025, pp. 60 ss. Sul piano giurisprudenziale, la Corte costituzionale ha progressivamente elaborato il contenuto del diritto all’informazione, a partire da Corte cost., 19 febbraio 1965, n. 9, e 14 aprile 1965, n. 25, proseguendo con Corte cost., 23 marzo 1968, n. 11, 10 luglio 1968, n. 98, 17 aprile 1969, n. 84, 8 luglio 1971, n. 168, sino a Corte cost., 2 maggio 1985, n. 126.
[11] Cfr. G.E. Vigevani, La libertà di manifestazione del pensiero, in M. Bassini et al. (a cura di), Diritto dell’informazione e dei media, Milano, 2022, ove si evidenzia lo stretto legame tra libertà di espressione e innovazione tecnologica. L’A. sottolinea, infatti, come l’evoluzione degli strumenti di comunicazione digitale non rappresenti soltanto un nuovo spazio di esercizio della libertà di manifestazione del pensiero, ma contribuisca a ridefinirne contenuti, limiti e garanzie, ponendo alle istituzioni il compito di assicurare un equilibrio tra l’ampliamento delle possibilità comunicative e la tutela da rischi quali la manipolazione informativa e la concentrazione del potere mediatico.
[12] Per alcune riflessioni sulle possibili intersezioni tra libertà di espressione e intelligenza artificiale, v. C.M. Reale – M. Tommasi, Libertà di espressione, nuovi media e intelligenza artificiale: la ricerca di un nuovo equilibrio nel nuovo ecosistema costituzionale, in DPCE Online, 1, 2022, p. 326 ss. Gli Autori mettono in evidenza come l’innovazione tecnologica, e in particolare l’uso dell’IA nei processi comunicativi, imponga una rilettura dei tradizionali parametri costituzionali, richiedendo di contemperare l’espansione delle possibilità espressive con le nuove minacce derivanti da fenomeni quali la disinformazione algoritmica e l’opacità decisionale dei sistemi automatizzati.

