Perché il controllo della mente delle future generazioni è la nuova frontiera della sicurezza nazionale
C’è un passaggio, nella Relazione annuale sulla politica dell’informazione per la sicurezza 2026 appena depositata alle Camere, che merita una lettura più attenta di quanto probabilmente riceverà. Sono le pagine 11-26, dedicate a “Sovranità tecnologica e sovranità digitale”. Un titolo che sembra uscito solo da un convegno di esperti, ma che racconta invece una delle trasformazioni più profonde del nostro tempo.
La tecnologia ridefinisce il potere, gli equilibri, le dipendenze. Abbiamo imparato una lezione semplice: chi controlla le infrastrutture digitali, controlla il futuro. Il rapporto dei nostri servizi di intelligence dice esattamente questo, con una lucidità che meriterebbe maggiore attenzione.
Due concetti, una sfida
La relazione distingue tra due idee che spesso confondiamo.
La sovranità digitale è la capacità di uno Stato di governare le proprie risorse digitali: i dati dei cittadini, gli algoritmi che li elaborano, le piattaforme su cui circolano. È il diritto di decidere chi può vedere cosa, a quali condizioni, con quali garanzie.
La sovranità tecnologica è qualcosa di più profondo. È la capacità di produrre le tecnologie che rendono possibile tutto questo: i semiconduttori, i computer quantistici, l’intelligenza artificiale. È la differenza tra abitare una casa e averne le chiavi.
L’Europa sta costruendo la prima, ma rischia di non possedere la seconda. Possiamo avere le leggi più avanzate del mondo sulla privacy – e l’AI Act è certamente un passo importante – ma se i chip che alimentano i nostri server vengono tutti da Taiwan, se i modelli di intelligenza artificiale sono addestrati in California, se i data center sono progettati a Shenzhen, quanta sovranità abbiamo davvero?
I due settori che non possiamo permetterci di delegare
Se dovessimo individuare i due ambiti in cui la sovranità tecnologica è letteralmente non negoziabile, indicheremmo senza esitazione l’intelligence (e con essa la difesa) e la pubblica istruzione. Sono i pilastri su cui si regge qualsiasi comunità nazionale che voglia conservare un margine di autonomia in un mondo sempre più interconnesso.
La difesa e l’intelligence. Nell’ottobre 2025, la Camera dei Deputati ha ospitato un importante tavolo tecnico dal titolo “Sicurezza Nazionale e Innovazione Tecnologica”, che ha visto la partecipazione di rappresentanti delle commissioni parlamentari competenti, esperti del settore e vertici delle aziende strategiche del comparto. Come ha dichiarato il presidente della Commissione Affari Europei On. Alessandro Giglio Vigna aprendo i lavori, “in un’epoca in cui le minacce cibernetiche rappresentano una sfida esistenziale per la sovranità digitale del nostro Paese, l’integrazione tra intelligenza artificiale e strategie di cyber-difesa è non solo opportuna, ma necessaria” . Il documento finale del tavolo ha ribadito con chiarezza che “l’intelligenza artificiale non può essere disgiunta dalla difesa nazionale” e che la dipendenza tecnologica costituisce una “vulnerabilità strategica” da affrontare con urgenza, attraverso lo sviluppo di infrastrutture di calcolo proprietarie e competenze scientifiche e industriali interne.
Parallelamente, il Ministero della Difesa ha formalizzato questa visione nel documento strategico “IA e Difesa 2026”, un framework organico che declina gli obiettivi tecnologici, operativi e normativi per rendere l’IA una componente strutturale delle forze armate nazionali. Un elemento cardine della strategia è proprio la sovranità tecnologica nazionale: l’Italia intende sviluppare competenze autonome nei dati, negli algoritmi e nelle infrastrutture di calcolo, con un modello di governance che garantisca sicurezza, resilienza e affidabilità. La strategia prevede l’istituzione di un Ufficio per l’Intelligenza Artificiale e un Laboratorio di IA per la Difesa che fungerà da polo di competenza e sperimentazione .
Non è difficile capire perché. Un sistema d’arma che dipende da chip progettati altrove, da software sviluppati in Paesi con interessi divergenti, da aggiornamenti di sicurezza decisi in sedi sulle quali non abbiamo alcun controllo, non è un sistema affidabile. È una vulnerabilità in attesa di essere sfruttata. Leonardo, il nostro campione nazionale dell’aerospazio e difesa, ha recentemente presentato “Michelangelo Dome”, un sistema avanzato di difesa integrata che integra sensori terrestri, navali, aerei e spaziali, piattaforme di cyber defence, sistemi di comando e controllo e intelligenza artificiale. Come spiegato in occasione della presentazione, l’obiettivo è creare una “cupola dinamica di sicurezza” che protegga infrastrutture critiche e asset di interesse nazionale . Ma una cupola costruita su fondamenta altrui regge fino alla prima tempesta.
La pubblica istruzione. Qui la posta in gioco è ancora più alta, perché riguarda il “dominio della mente” delle future generazioni. Possiamo davvero affidare a multinazionali private – per quanto virtuose – o a nazioni con sistemi politici non democratici la formazione cognitiva dei nostri figli?
Il tema è stato affrontato con straordinaria lucidità da Francesco Branda, ricercatore del Campus Bio-Medico e socio della Società europea per l’etica e la politica dell’intelligenza artificiale, in una recente intervista. “Ciò che mi preoccupa di più – ha detto – non è la perdita di nozioni, ma la possibile erosione della fatica cognitiva. L’AI riduce drasticamente il costo mentale di molte operazioni, e questo è un vantaggio enorme. Ma se non impariamo quando non delegare, rischiamo di formare menti molto abili nell’interrogare sistemi esterni e meno a sostenere il peso del giudizio, del dubbio e della responsabilità” .
I dati confermano l’urgenza. Secondo un’indagine di Skuola.net realizzata in collaborazione con ELIS, ormai uno studente su due delle superiori usa “spesso” o “molto spesso” l’intelligenza artificiale generativa, rispetto al 34% dell’anno scorso. E la stragrande maggioranza – l’80% – vorrebbe capire e studiare le logiche e le tecnologie sottostanti. Ad oggi, appena uno studente su dieci ha avuto modo di prendere familiarità con queste tecnologie con i propri insegnanti .
Il problema è che i modelli di IA che i ragazzi utilizzano – ChatGPT, Claude, Gemini – sono quasi tutti americani. Incorporano valori, sensibilità, modelli cognitivi sviluppati altrove. Non c’è nulla di male in sé, ma c’è tutto da chiedersi se possiamo permetterci di delegare a terzi la formazione delle giovani generazioni senza sviluppare una parallela capacità di comprensione critica, di governo, di orientamento.
Il caso Anthropic: quando l’etica si fa Costituzione
Proprio nelle scorse settimane, Anthropic – l’azienda fondata da ex membri di OpenAI – ha pubblicato quella che ha chiamato una “Costituzione” per il suo modello Claude. Il termine non è casuale. Come spiega Francesco Branda, “il termine è forte perché il passaggio è forte. Anthropic sta implicitamente riconoscendo che i modelli linguistici avanzati non possono più essere trattati come strumenti neutri. Questi sistemi mantengono una continuità di comportamento, una postura comunicativa e decisionale che persiste nel tempo e attraverso contesti diversi” .
La Costituzione di Anthropic non è un insieme di regole comportamentali o un codice etico decorativo. È un tentativo di costruire un quadro valoriale interno, che il modello possa interiorizzare e utilizzare come bussola nei contesti ambigui. Stabilisce una gerarchia di priorità – sicurezza, rispetto dell’autonomia umana, utilità, trasparenza – che definisce non solo cosa è lecito fare, ma quale ruolo il modello deve mantenere. In altre parole, non interviene principalmente sull’output, ma sulla traiettoria identitaria del sistema .
Ora, proviamo a fare una domanda: chi decide i valori che alimentano quella Costituzione? Chi definisce la gerarchia delle priorità? Chi stabilisce cosa significa “rispetto dell’autonomia umana” in un contesto culturale specifico? La risposta è semplice: lo decide Anthropic, un’azienda privata con sede a San Francisco, i cui dipendenti – per quanto preparati e benintenzionati – riflettono inevitabilmente la cultura, i valori, le sensibilità della Silicon Valley.
Non c’è nulla di male in questo, intendiamoci. Ma diventa un problema quando questi modelli diventano lo strumento principale attraverso cui i nostri ragazzi imparano, studiano, si formano. Quando la “fatica cognitiva” – quella che Branda giustamente indica come essenziale per lo sviluppo del pensiero critico – viene delegata a un sistema progettato altrove, secondo logiche e priorità che non abbiamo contribuito a definire.
Oltre l’AI Act: la necessità di una strategia industriale
L’Europa ha fatto molto sul piano normativo. L’AI Act è il primo quadro regolatorio organico al mondo per l’intelligenza artificiale, e la legge italiana di armonizzazione (n. 132 del 2025) pone giustamente l’accento sull’approccio antropocentrico e sul rispetto dei diritti fondamentali.
Ma le regole non bastano. Come ha osservato Ferruccio Resta, presidente della Fondazione Bruno Kessler, intervenendo al medesimo tavolo tecnico della Camera, “l’intelligenza artificiale non è solo una tecnologia, ma un abilitatore di nuove soluzioni, capace di rivoluzionare l’intero sistema produttivo. Ma senza competenze, ecosistemi di innovazione e partnership strategiche, l’AI resta solo un’opportunità mancata. Non basta adottarla: bisogna saperla governare, integrarla nei processi e trasformarla in un vero asset competitivo” .
Qualche segnale positivo c’è. Alcune scuole stanno già sperimentando strade interessanti. L’Istituto Comprensivo Statale “Giuseppe Verdi” di Parma, ad esempio, ha approvato un regolamento che disciplina l’uso degli strumenti di IA nelle attività scolastiche, stabilendo che possono essere usati solo strumenti valutati e autorizzati dalla scuola, nel rispetto del GDPR e dell’AI Act. Il regolamento vieta espressamente l’uso dell’IA per la profilazione degli studenti o per sostituire la valutazione del docente. L’obiettivo è che l’IA non “faccia al posto dello studente”, ma lo affianchi nel percorso di apprendimento .
Ma siamo ancora all’inizio. La strada è lunga e richiede investimenti, competenze, visione strategica.
La sfida culturale
C’è infine una dimensione che i documenti ufficiali toccano solo indirettamente, ma che mi sembra cruciale. La sovranità tecnologica ha a che fare anche con la nostra capacità di comprenderla, di raccontarla, di farla diventare cultura condivisa.
Serge Tisseron, psichiatra e psicanalista francese che da anni studia il rapporto tra giovani e tecnologie, ha scritto recentemente su Avvenire un passaggio che vale la pena citare: “L’IA commette errori, si sbaglia, comprende male; per questo ciascuno di noi ha una responsabilità nel modo in cui la guida e la utilizza. Non esiste protezione migliore contro i cattivi usi e le trappole dell’IA dell’educazione, del dibattito democratico e dell’intelligenza collettiva” .
Mauro Croce, su Il Fatto Quotidiano, ha proposto di trasformare le biblioteche scolastiche in “laboratori dell’umano”, luoghi dove allenare quelle competenze interiori che l’AI non potrà mai replicare: fermarsi, riflettere, condividere, sentire il peso delle proprie scelte .
È un’idea suggestiva, e forse non solo suggestiva. Perché la sovranità tecnologica non si costruisce solo con i chip e i data center. Si costruisce anche con la capacità di porre le domande giuste, di discernere, di mantenere aperto il dubbio quando il sistema tende a chiudere il discorso. Sono queste le competenze che rendono una società veramente autonoma.
Conclusione: governare l’innovazione
Il titolo della Relazione 2026 è “Governare il cambiamento”. Una formula che dice molto della sfida che abbiamo di fronte. La tecnologia cambia a una velocità che i nostri sistemi decisionali faticano a tenere. Le minacce diventano ibride, multidominio, spesso invisibili. Le dipendenze strategiche si accumulano silenziosamente, fino a diventare strutturali.
In questo scenario, la sovranità tecnologica e digitale non è un lusso da paesi autarchici. È una necessità per chiunque voglia conservare un margine di autonomia. Così già Giorgio Galli e Mario Caligiuri nel 2017(*). Non si tratta di chiudersi, ma di scegliere con chi connettersi e a quali condizioni. Non si tratta di rifiutare l’innovazione, ma di essere in grado di orientarla. E i due settori da blindare – difesa e istruzione – sono quelli in cui la posta in gioco è più alta: da un lato la sicurezza fisica del paese, dall’altro la formazione cognitiva e culturale delle future generazioni.
La relazione dell’intelligence ci dice che la competizione tecnologica è ormai il principale banco di prova della geopolitica. Perderla significherebbe non solo restare indietro economicamente, ma vedere erosa la stessa capacità di decidere del nostro futuro.
È una lettura che consiglio a tutti. Perché la sovranità digitale riguarda ciascuno di noi. I nostri dati, la nostra privacy, la nostra sicurezza, la nostra capacità di informarci liberamente. E, non ultimo, il futuro delle nuove generazioni.
by Mario Caligiuri e Roosteram per ItaloRED
fonti:
Relazione annuale sulla politica dell’informazione per la sicurezza 2026 (pp. 11-26)
https://www.sicurezzanazionale.gov.it/contenuti/relazione-al-parlamento-2026
* Come si comanda il mondo. Teorie, volti, intrecci – Giorgio Galli, Mario Caligiuri (2017, Rubettino Editore)
“Il potere che sta conquistando il mondo: Le multinazionali dei Paesi senza democrazia” Mario Caligiuri e Giorgio Galli (2020, Rubbettino Editore)
L’uomo è un algoritmo? Il senso dell’umano e l’intelligenza artificiale – Paolo Benanti (2025 Castelvecchi)
Il crollo di Babele. Che fare dopo la fine del sogno di Internet? – Paolo Benanti (2024, San Paolo edizioni)
https://www.skuola.net/news/inchiesta/intelligenza-artificiale-scuola-compiti-dati-sondaggio.html
https://educazione.chiesacattolica.it/leducazione-e-lintelligenza-artificiale



