Tratto da: Ildirittoamministrativo.it  

Autore: 

Michele Corradino

Presidente di Sezione del Consiglio di Stato

Abstract

Il testo raccoglie le conclusioni del convegno di presentazione del volume Lintelligenza artificiale tra regolazione ed esperienze applicative. Si analizza il modello regolatorio europeo (AI Act), riconoscendone il merito nella tutela dei diritti fondamentali ma evidenziandone l’inadeguatezza a governare le questioni sistemiche e geopolitiche connesse alla natura dell’IA quale “infrastruttura cognitiva”. Tale approccio, fondato sul principio di precauzione (regulation first), si contrappone al modello statunitense, orientato alla deregolamentazione (innovation first) e guidato da un “imperativo di sicurezza nazionale” finalizzato al dominio tecnologico globale. Si sostiene che la tutela dei diritti e dei valori democratici in Europa sia intrinsecamente legata alla capacità di governare l’infrastruttura tecnologica. Senza affrontare la dipendenza tecnologica e perseguire la sovranità digitale, la protezione dei diritti rischia di divenire inefficace. La sfida cruciale consiste nel coniugare la tutela dei diritti con una strategia industriale e di sicurezza nazionale, riconoscendo quest’ultima come precondizione per la prima.

Sono molto onorato di trarre le conclusioni di questo prestigioso convegno nel quale viene presentato il volume, L’intelligenza artificiale tra regolazione ed esperienze applicative (Cacucci 2025), a cura del prof. Antonio Felice Uricchio e dell’avv. Claudio Caldarola, al quale pure io ho contributo con uno scritto.

Il volume, come è emerso in questo convegno, è particolarmente importante anche per  l’intuizione della necessità di affrontare questo tema attraverso un  approccio multidisciplinare.  Come efficacemente evidenziato dal Professor Gianluca Esposito nella sua relazione, questa tecnologia intercetta, infatti,  ogni ambito della conoscenza umana, richiedendo un dialogo costante tra discipline diverse per comprenderne appieno le implicazioni giuridiche, economiche, sociali, sistemiche.

La qualificazione dell’intelligenza artificiale non come mera tecnologia, ma come “infrastruttura cognitiva” – come ben sottolineato dal Preside Pier Paolo Russo nel suo intervento – rappresenta il punto di partenza teorico fondamentale per ogni analisi giuridica del fenomeno. Tale prospettiva evidenzia come l’ intelligenza artificiale stia modificando strutturalmente i processi cognitivi umani e, conseguentemente, i meccanismi di formazione delle decisioni, sia individuali che collettive. Questa trasformazione dei meccanismi di scelta, e quindi di governo, può incidere direttamente sul funzionamento dei sistemi democratici, alterando le modalità attraverso cui si forma il consenso e si esercita il potere decisionale sia nella fase politica sia nella fase amministrativa.

La pervasività dell’intelligenza artificiale nella vita quotidiana travalica peraltro l’utilizzo diretto e consapevole degli strumenti tecnologici. Il fenomeno della mediatizzazione algoritmica delle scelte sociali si manifesta anche attraverso meccanismi di “nudging” e influenza non coercitiva che orientano comportamenti e scelte apparentemente libere. L’esempio paradigmatico delle applicazioni di navigazione che determinano percorsi viari e, indirettamente, influenzano le dinamiche economiche urbane, illustra la dimensione politica intrinseca del problema tecnologico: quel coefficiente politico che il Preside Russo ha opportunamente evidenziato.

La configurazione attuale del “capitalismo digitale” – per usare l’efficace espressione utilizzata dal Presidente Franco Gallo  nella sua magistrale relazione- pone questioni fondamentali per la tenuta dei sistemi democratici e mette al centro dell’attenzione il tema della formazione. La formazione  emerge quale elemento strategico per garantire la consapevolezza decisionale dei cittadini, minacciata dalla difficoltà crescente di distinguere tra informazione vera o almeno solo attendibile  e manipolazione algoritmica.

La velocità di elaborazione e diffusione delle informazioni costituisce un fattore critico che impedisce la necessaria rielaborazione umana dei contenuti. Tale accelerazione temporale, come illustrato dal Professor Esposito, compromette la capacità di discernimento critico, elemento fondamentale per l’esercizio consapevole della cittadinanza democratica.

L’interrogativo sulla sede effettiva di formazione delle decisioni di politica estera e interna – questione sollevata dal Professor Uricchio – assume rilevanza costituzionale. La tradizionale localizzazione del potere decisionale nei luoghi istituzionali viene progressivamente erosa dalla capacità dell’opinione pubblica digitalmente mediata di influenzare le scelte governative. Tale fenomeno apre scenari inediti di vulnerabilità sistemica, sussistendo il fondato sospetto che potenze straniere possano incidere sulla formazione del consenso interno attraverso la manipolazione dell’informazione digitale.

Le decisioni di politica estera non sono assunte più negli austeri ambienti delle Cancellerie così come quelle di politica interna non trovano linfa soltanto nei palazzi del Governo. Come sempre  le  decisioni sono fortemente influenzate dall’arena pubblica in cui però adesso  giocano un ruolo crescente i social e le nuove forme di comunicazione. Chi ha la capacità tecnica di manipolare i social, magari anche approfittando della disattenzione normativa verso i dirompenti effetti della loro forza, ha la capacità di agire sull’arena pubblica e dunque ha la possibilità di influenzare le decisioni pubbliche, finanche quelle politiche.  Alcuni episodi di cronaca verificatisi in Europa in questi ultimi anni, stigmatizzate anche da decisioni di Corti supreme dei Paesi interessati, sembrano confermare la validità di questa ricostruzione.

In questo contesto, assume particolare rilevanza l’intervento del Cons. Pier Domenico  Garrone sulla urgente  necessità di individuare una metrica dell’informazione volta a valutare la veridicità dei contenuti informativi, sia nei processi decisionali amministrativi – come sottolineato dal Professor Esposito – sia nei più ampi scenari politici.

L’approccio europeo alla regolamentazione dell’intelligenza artificiale, fondato sulla classificazione dei rischi e sulla tutela dei diritti fondamentali – magistralmente delineato dal Professor Uricchio – , pur meritoria nell’intento di proteggere i diritti fondamentali, non sembra adeguato a governare la complessità del fenomeno. L’identificazione e classificazione delle attività rischiose, come hanno correttamente evidenziato  tutti i relatori non affronta le questioni sistemiche legate al controllo delle infrastrutture tecnologiche e alla sovranità digitale.

L’analisi dell’impatto sui poteri dello Stato, brillantemente sviluppata dal Professor Esposito, rivela problematiche specifiche per ciascuna funzione:

Il potere legislativo potrebbe beneficiare dell’ intelligenza artificiale per migliorare la qualità tecnica della produzione normativa, ma – come si è visto –  rischia di subire condizionamenti nella determinazione degli indirizzi politici.

Il potere giudiziario ha escluso nelle sue regolamentazioni che l’intelligenza artificiale possa contribuire alla stesura delle decisioni ma affronta con difficoltà il problema  dell’utilizzo dell’ intelligenza artificiale nella fase istruttoria, con il rischio che i bias algoritmici influenzino surrettiziamente la decisione finale. Il “caso Compas” negli Stati Uniti ha dimostrato come pregiudizi discriminatori possano infiltrarsi nei sistemi di valutazione del rischio di recidiva.

Il potere esecutivo può efficacemente impiegare l’ intelligenza artificiale nelle funzioni gestorie, ma deve preservare la centralità dell’uomo  nelle funzioni di indirizzo politico-amministrativo.

 

Le illusioni regolamentari: conoscibilità e controllo umano

A ben guardare due principi cardine della regolamentazione europea si rivelano problematici, a mio parere,  nella loro applicazione concreta:

La conoscibilità algoritmica risulta strutturalmente impedita dal fenomeno della “black box”. La complessità dei sistemi di machine learning rende impossibile, anche per i programmatori, ricostruire il percorso decisionale dell’algoritmo. I tentativi di “explainable AI” attraverso sistemi come LIME o SHAP rimangono ancora inadeguati.

Il principio del “human in the loop” genera una pericolosa illusione di controllo. L’asimmetria cognitiva e temporale tra elaborazione algoritmica e capacità umana di valutazione rende inefficace il controllo umano. Il funzionario chiamato a validare o bloccare una decisione algoritmica si trova in una posizione di sostanziale impossibilità operativa, aggravata dal timore della responsabilità personale.

Nell’improbabile ipotesi che il funzionario trovi la forza di opporsi ad una decisione assunta dalla sovrapposizione di logiche decisionali eterogenee – umana e algoritmica – configura inoltre ipotesi tipiche di eccesso di potere per contraddittorietà intrinseca del provvedimento.

A questi temi è dedicato il mio contributo nel volume che oggi stiamo presentando.

 

Il contesto geopolitico: l’asimmetria tecnologica  globale e il diverso approccio normativo statunitense

Il quadro regolatorio offerto dall’AI act e dalla legge italiana appena approvata mostra grande attenzione alla tutela dei diritti fondamentali ma il giudizio meritorio su questa dimensione protettiva non può prescindere dalla considerazione del contesto geopolitico mondiale caratterizzato da profonde asimmetrie  tecnologiche e da un approccio  normativo completamente differente.

C’è un “elefante nella stanza” con cui fare i conti: gli Stati Uniti, il Paese che ha il dominio della  tecnologia  mondiale hanno assunto una postura politica e  normativa in tema di intelligenza artificiale che rischia di travolgere le certezze acquisite in Europa.

Mentre infatti  in Europa discutiamo di rischi e opportunità di utilizzare l’intelligenza artificiale, magari vietandola o antropomorfizzandola o limitandone l’utilizzazione  in dimensione antropocentrica, gli Stati Uniti hanno imboccato una strada radicalmente opposta che va verso la tendenziale deregolamentazione e l’adozione di una  precisa strategia politica che, proprio perché adottati dal Paese tecnologicamente più avanzato, influenzano direttamente le nostre scelte tecnologiche e, con esse, quelle di politica normativa e industriale.

Le strategie  statunitensi di governo dell’intelligenza artificiale, ricavabili dal nuovo “America’s AI Action Plan”, hanno portato ad un cambio di paradigma radicale, abbandonando un approccio cauto e regolamentato allo scopo di ottenere una “supremazia tecnologica globale indiscussa e incontrastata”.

Alla base della nuova strategia sta l’Ordine Esecutivo 14179, “Removing Barriers to American Leadership in Artificial Intelligence”, che ha contestualmente superato il precedente Ordine Esecutivo 14110 dell’amministrazione Biden. Il quadro normativo delineato da quest’ultimi provvedimento veniva infatti percepito come eccessivamente oneroso, restrittivo e in grado di frenare l’innovazione in un settore cruciale per la sicurezza nazionale e la competitività economica. Il nuovo piano, al contrario, si fonda sulla convinzione che solo un settore privato libero da vincoli burocratici possa vincere la corsa all’ intelligenza artificiale.

La nuova architettura regolatoria  si fonda invece su tre pilastri  strettamente connessi: l’accelerazione dell’innovazione, la costruzione di infrastrutture strategiche e l’obiettivo di diffondere e rendere prevalente nel mondo il modello tecnologico di  intelligenza artificiale costruito negli USA. In questo modo il nuovo approccio regolatorio, fondato largamente sulla deregolamentazione e sul  sostegno incondizionato all’innovazione guidata dal settore privato, non resta una proclamazione di principi ma interseca obiettivi chiaramente definiti di  politica industriale, visione geopolitica e piani di sviluppo tecnologico.

Vale la pena di guardare qualcuno degli elementi per comprenderne la portata dirompente.

Il nucleo centrale della rinnovata strategia statunitense è identificabile nel primo asse: la costruzione di un sistema nel quale l’innovazione, trainata dalle imprese private, possa svilupparsi senza gli impedimenti derivanti da procedure burocratiche.

Per fare ciò viene prevista la revisione o l’abrogazione di regolamenti federali che ostacolano lo sviluppo e l’adozione dell’ intelligenza artificiale e vengono date istruzioni alle Agenzie competenti  per assicurare che non promuovano teorie di responsabilità che gravino indebitamente sull’innovazione dell’ intelligenza artificiale. I Grandi Modelli Linguistici (LLM), devono poi  essere liberi da “pregiudizi ideologici dall’alto”.  La nuova normativa chiama questi modelli a  perseguire la “verità oggettiva” e non “agende di ingegneria sociale” e per questo vanno rivisti tutti gli strumenti normativi che possano influenzare i contenuti dell’ intelligenza artificiale facendo riferimento a concetti quali disinformazione, Diversity, Equity and Inclusion (DEI) e climate change. Ciò allo scopo dichiarato di evitare distorsioni ideologiche.

Vengono privilegiati i modelli  intelligenza artificiale open-source e open-weight, che, stimolano l’innovazione delle start-up e, nella strategia gepolitica dell’ intelligenza artificiale, assumono il ruolo di strumenti fondamentali  per stabilire standard mondiali globali a guida americana.

Il secondo pilastro tende a favorire la realizzazione le infrastrutture  fisiche necessarie per lo sviluppo dell’intelligenza artificiale attraverso una semplificazione completa delle procedure autorizzative. LA normativa qui prende atto del fatto che il  dominio nel settore dell’intelligenza artificiale non è solo una questione di software e algoritmi, ma richiede lo sviluppo di infrastrutture strategiche come data center e  fabbriche di semiconduttori e, soprattutto, di generare la vasta quantità di energia necessaria per alimentarli. Vengono così abbattuti tutti gli ostacoli burocratici, tra questi sono espressamente richiamate  le autorizzazioni ambientali, che possano comunque rallentare lo sviluppo infrastrutturale.

Viene previsto inoltre un piano strategico preciso e scandito nel tempo con due obiettivi fondamentali : modernizzare ed espandere la  rete elettrica per  rispondere alla fame di energia che è tipica dell’intelligenza artificiale e d’altra parte riportare sul territorio statunitense la produzione dei semiconduttori avanzati per garantire la sicurezza delle forniture nel settore più critico, e fin qui affidato a industrie straniere  della catena di approvvigionamento globale dell’intelligenza artificiale.

Il terzo pilastro fonda una strategia diplomatica volta ad esportare l’intera filiera tecnologica statunitense dell’intelligenza artificiale  – hardware, modelli, software e standard – ai paesi alleati. Si tende, in questo modo, a creare  una dipendenza tecnologica positiva dagli Stati Uniti consolidando una sfera d’influenza tecnologica che impedisca  l’avanzata di rivali strategici, soprattutto se appartenenti a Paesi ostili o non amici,  e assicuri che lo standard globale per l’ intelligenza artificiale sia americano.

Grande attenzione è poi data al tema della sicurezza. Viene prevista la possibilità di  negare agli avversari l’accesso alle tecnologie di calcolo avanzato e, per quanto riguarda l’hardware è prevista la verifica della localizzazione dei chip di calcolo avanzato per garantire che non si trovino “ in paesi problematici”. E’ infine prevista una continua vigilanza, definita vitale per la difesa nazionale sulle minacce derivanti dall’uso dell’intelligenza artificiale per il cyber-crimine, lo sviluppo di armi chimiche, biologiche, radiologiche e nucleari (CBRNE) e le minacce alla biosicurezza.

La nuova regolamentazione disegna un modello che non è solo normativo ma ingloba in sé un programma preciso di politica industriale, un obiettivo geopolitico preciso, un piano di sicurezza nazionale accurato  e, soprattutto,  una filosofia che si può non condividere ma che è chiara e coerente in ogni sua concreta declinazione.

Il contrasto tra il modello statunitense e quello europeo non è solo determinato dal fatto che il primo è basato su un approccio “innovation first” .  dominato dall’apertura al privato, dalla velocità e dalla regolamentazione  . mentre il secondo è basato su un approccio  “regulation first” orientato alla sicurezza, alla prevenzione del rischio, all’etica e alla tutela dei diritti.

La differenza fondamentale sta nel fatto che il modello degli Stati Uniti si basa sulla considerazione che “it is a national security imperative for the United States to achieve and maintain unquestioned and unchallenged global technological dominance” nel settore dell’intelligenza artificiale. Il dominio sulla tecnologia nel settore dell’intelligenza artificiale è un imperativo di sicurezza nazionale .

 

La natura infrastrutturale dell’intelligenza artificiale. Sicurezza nazionale e sovranità tecnologica.

L’approccio statunitense evidenzia l’acquisita consapevolezza della natura infrastrutturale dell’intelligenza artificiale e del suo stretto collegamento con la sicurezza e la sovranità nazionali.  E’ l’aspetto che manca nella disiplina europea.  L’Ai Act e la normativa italiana hanno il grande merito di offrire una garanzia forte ai diritti fondamentali dell’individuo ma il raggiungimento di questo obiettivo, che necessita peraltro ancora di adeguato enforcement, non può far sottovalutare l’emergere di nuove esigenze di tutela che attengono alla legittimazione democratica dell’agire amministrativo e alla sicurezza nazionale. Valori questi che, sotto il profilo della digitalizzazione e dell’uso dell’intelligenza artificiale negli  apparati pubblici, sono strettamente connessi.

Le libertà fondamentali, i valori essenziali della democrazia, il collegamento tra azione amministrativa e volontà popolare,  la sicurezza nazionale non si garantiscono solo applicando nel miglior modo il principio di precauzione a questa nuova tecnologia – come in sostanza fa la normativa continentale – ma si proteggono  potendo dominare l’infrastruttura dell’intelligenza artificiale che non è fatta solo di algoritmi ma è anche e soprattutto fisica. Si tutelano garantendo l’integrità dei dati potendo decidere come  (e dove) costruire l’hardware ed elaborare il software, potendo disporre di data center sicuri e magari siti in territorio nazionale, avendo la ragionevole possibilità di  disporre o di potersi approvvigionare delle terre rare necessarie per il funzionamento e lo sviluppo degli apparati, garantendo sicurezza – per quanto possibile – alla cablatura necessaria per trasferire i dati.

Oggi il controllo di questi fattori sta in capo a  pochissimi soggetti privati.

La tecnologia e le infrastrutture necessarie a far funzionare l’intelligenza artificiale  sono largamente in mano a soggetti privati portatori, in quanto tali, non solo di interessi economici propri ma, come si è pure osservato nella recente cronaca politica d’oltreoceano, anche e soprattutto di interessi politici.

La tecnologia si alimenta poi di dati.  Esistono certamente alcuni gestori di  big data riconducibili ad entità statali  ma la maggior parte dei dati è detenuta da piattaforme private di proprietà di poche società. Anche queste piattaforme esercitano interessi economici e, significativamente, interessi politici propri.

L’intelligenza artificiale fonda la sua efficienza sulla capacità di elaborare dati nella fase di addestramento. La capacità di queste piattaforme di scegliere i dati da immettere nell’addestramento può influenzare le scelte pubbliche, oltre che quelle dei singoli, basate sull’intelligenza artificiale.

Tale assetto configura uno scenario completamente nuovo nell’atteggiarsi del potere. All’incrocio tra autorità e libertà, laddove in passato si era abituati a rinvenire solo lo Stato con i suoi apparati di forza e garanzia , si trovano oggi soggetti privati e piattaforme la cui forza economica è pari, se non superiore, a quella della maggior parte degli Stati mondiali.

L’Europa e, ovviamente il nostro Paese,  si trovano in una posizione di oggettiva debolezza, perchè  privi  al momento di adeguate  capacità hardware e software per competere nel settore. Questa dipendenza tecnologica rischia di compromettere l’efficacia di qualsiasi strategia regolatoria che non affronti il problema della sovranità digitale.

La regolamentazione, sotto questo profilo,  deve avere due obiettivi: pretendere garanzia dall’intera filiera tecnologica e programmare gli investimenti necessari.

 

 

Le prospettive di riforma.  Il dialogo tra p.a. e fornitori nei contratti innovativi e gli interventi infrastrutturali.

Quali interventi possono ipotizzarsi? I due momenti a cui ho fatto cenno, garanzia e investimenti, pur strettamente connessi possono distinguersi anche sotto il profilo temporale.

Sotto il primo profilo, quello della garanzia,  è necessario che l’Amministrazione nell’utilizzare l’intelligenza artificiale pretenda di utilizzare tecnologia e software che garantiscano affidabilità e sicurezza.

Per ciò che attiene all’hardware è  necessario verificare la genuinità della progettazione e della produzione dei componenti, assicurando la coerenza tra design richiesto e implementazione. E’ ben possibile infatti che la componentistica si presti ad alterazioni volte a introdurre forme di vulnerabilità sfruttabili anche da remoto per operazioni di sabotaggio.

Per ciò che attiene al software, va messo in rilievo che l’intelligenza artificiale si nutre di dati e si fonda sull’addestramento. Il controllo deve  quindi riguardare l’intero ciclo di sviluppo,  dall’immissione dei dati all’addestramento degli algoritmi e alla  loro implementazione, con particolare attenzione alle potenziali alterazioni malevole, e alla presenza – anche occulta – di bias in grado di orientare le scelte pubbliche in modo indesiderato o difforme rispetto al dato ordinamentale. Speciali garanzie di sicurezza devono poi essere attuate nei settori strategici della difesa, della sicurezza pubblica e della salute.

Per ottenere questi risultati è necessario abbandonare le tradizionali modalità di acquisto delle pubbliche amministrazioni che, nella disciplina dei contratti pubblici, vedono amministrazione e impresa come soggetti necessariamente lontani la cui distanza, anche fisica, è vista come baluardo della legalità e della concorrenza.

Le direttive comunitarie in materia di appalti pubblici consentono oggi di concludere contratti tra amministrazioni pubbliche e imprese al termine di un percorso di confronto utile a “costruire” insieme il prodotto da acquistare.

Nel nuovo corso imposto dalla normativa unionale il  dialogo tra amministrazioni e gli operatori economici non è più guardato con sospetto, ma viene riconosciuto e disciplinato, sia attraverso le consultazioni preliminari di mercato, sia soprattutto mediante i contratti innovativi, destinati a costituire una vera e propria frontiera nella gestione delle politiche di approvvigionamento.

Tali contratti si articolano in tre figure: la procedura competitiva con negoziazione, che consente di discutere le modalità di soddisfacimento di un bisogno già definito; il dialogo competitivo, che estende il confronto alla stessa individuazione del fabbisogno; e il partenariato per l’innovazione, che inaugura un rapporto collaborativo e continuativo tra amministrazione e impresa, volto a sviluppare e successivamente acquisire soluzioni innovative.

Comune a tutte queste tipologie è l’elemento negoziale: l’offerta dell’impresa prende forma mediante un processo di interazione con l’amministrazione, la quale, a sua volta, indirizza l’iniziativa privata verso la realizzazione di interessi collettivi. La dimensione negoziale, dunque, diventa il fulcro attraverso cui autonomia privata e funzione pubblica si incontrano per elaborare soluzioni contrattuali capaci di rispondere meglio alle esigenze della collettività.

Se fino al Codice degli appalti del 2016 tali procedure erano sottoposte a vincoli stringenti e motivate solo in presenza di peculiari esigenze, oggi l’art. 70  del nuovo codice dei contratti pubblici le pone su un piano di sostanziale parità rispetto alle procedure tradizionali. Non vi è più un onere rafforzato di motivazione, se non la dimostrazione del ricorrere dei presupposti normativi.

In parallelo, anche il concetto di innovazione ha conosciuto una significativa evoluzione. Dalla definizione ristretta proposta dalla Commissione nel 2005 – incentrata sulla trasformazione di un’idea in un prodotto radicalmente nuovo – si è passati, con le direttive del 2014, a una concezione più ampia, che include qualsiasi miglioramento del contenuto o delle modalità di esecuzione del contratto.

Tali strumenti consentono all’amministrazione di attingere al know-how delle imprese e, al contempo, alle imprese di valorizzare la forza propulsiva della domanda pubblica. Ne deriva un potenziale di politica industriale di grande rilievo: attraverso la leva degli appalti, grazie alle immense dimensioni della domanda pubblica, l’amministrazione può orientare il mercato partecipando alla fase di progettazione e sviluppo delle soluzioni tecnologiche, garantendo sicurezza della tecnologia e delle procedure da una parte e allineamento con i principi costituzionali e i diritti fondamentali dall’altra.

La grande sfida rimane però quella degli investimenti e della semplificazione amministrativa. La sovranità digitale si costruisce implementando modelli di intelligenza artificiale europei ma anche  realizzando la capacità industriale di produrre microprocessori, ricorrendo a cloud proprietari, disponendo  – in proprio o contrattualmente – delle terre rare necessarie per il funzionamento della tecnologia, realizzando politiche di sorveglianza dei cavi sottomarini che consentono le trasmissioni dei dati e assicurando l’immensa quantità di energia elettrica necessaria. Sono sfide industriali che vanno  declinate nella politica ambientale europea.  Nello scenario europeo si vedono i prodromi di questa politica anche  in alcuni ambiziosi progetti industriali e in alcune iniziative legislative volte tra l’altro alla modifica dell’AI Act. E’ essenziale che il tema assuma un ruolo centrale nel dibattito giuridico.

La sicurezza, così come la tutela dei diritti fondamentali, è un problema prima di tutto giuridico prece non c’è tutela possibile se non in un quadro di sicurezza.  L’intelligenza artificiale, in quanto infrastruttura cognitiva, richiede un approccio regolatorio che trascenda la mera tutela dei diritti per abbracciare una visione strategica della sovranità digitale. Il modello europeo, pur fondato su principi giuridici condivisibili, necessita di un’integrazione sostanziale che affronti le asimmetrie tecnologiche globali e garantisca l’autonomia decisionale delle istituzioni democratiche.

 

La sfida per l’Europa consiste nel coniugare la tradizione giuridica di tutela dei diritti fondamentali con la necessità di acquisire autonomia tecnologica. Solo attraverso questa sintesi sarà possibile preservare i valori costituzionali nel contesto della trasformazione digitale, evitando che la dipendenza tecnologica si traduca in una subalternità politica e giuridica in cui è difficile o impossibile tutelare i diritti.

L’evoluzione del quadro regolatorio deve quindi orientarsi verso un modello che integri tutela dei diritti, sovranità digitale e capacità di governance delle trasformazioni cognitive indotte dall’intelligenza artificiale assicurando sviluppo tecnologico e primato del diritto e dei valori di democrazia e libertà .

La  tutela della legalità, più che mai in questo settore, si coniuga con la garanzia della sicurezza e della genuinità delle decisioni pubbliche.

 

 

[1] Conclusioni al convegno di presentazione del volume Lintelligenza artificiale tra regolazione ed esperienze applicative (Cacucci 2025). Roma, Università La Sapienza, 25 settembre 2025

Torna in alto