Avvocato specializzato in diritto delle tecnologie.
Dal 2018 Presidente di Global Professionals for Artificial Intelligence
NELL’ANALISI DEL QUADRO EUROPEO E NAZIONALE ALLA LUCE DELL’AI ACT, DEL CYBER RESILIENCE ACT E DELLA DIRETTIVA NIS2.
Quando un’innovazione nata per ridurre l’errore umano si trasforma in una fonte di inganno automatizzato.
INTRODUZIONE
Immaginate di ricevere un messaggio da un vostro superiore, o dal vostro datore di lavoro, che vi chiede con tono familiare un’informazione riservata, oppure di partecipare a una riunione virtuale con degli interlocutori che sembrano autentici ma che, in realtà, non esistono. In un simile scenario, l’inganno assume la forma dell’intelligenza artificiale e la manipolazione diviene invisibile. Come può il diritto proteggere la verità, la fiducia e la sicurezza cognitiva quando l’algoritmo è in grado di replicare formalmente l’Umano con precisione assoluta? La diffusione della dark artificial intelligence, altrimenti nota come “dark AI”, ossia l’uso intenzionale di sistemi di intelligenza artificiale generativa per fini fraudolenti, rappresenta, in alcune sfere, uno dei fenomeni più rilevanti nella riflessione giuridica contemporanea. Il diritto dell’Unione Europea ha ormai predisposto un corpo normativo integrato, composto dall’Artificial Intelligence Act Regolamento UE 2024/1689, dalla Direttiva UE 2022/2555 (NIS2), dal Cyber Resilience Act e dal Cybersecurity Act del 2019 in corso di revisione. In Italia, il recente recepimento tramite la Legge 23 settembre 2025, n. 132 e il D.Lgs. 4 settembre 2024, n. 138 segna l’avvio di un nuovo perimetro di responsabilità pubblica e privata nella governance tecnologica.
IL CASO CONCRETO: GENESI, OPERATIVITÀ E DIFFUSIONE DELLA DARK AI
La dark AI rappresenta l’evoluzione più sofisticata del dark web perché i modelli linguistici e multimodali vengono modificati per generare codici malevoli, immagini sintetiche e comunicazioni ingannevoli. Le indagini condotte dall’ ENISA e dal CERT-UE confermano, già dal 2024, la crescita delle piattaforme che offrono AI-as-a-Service per scopi criminali, tra cui la creazione di deepfake e la redazione di messaggi di spear phishing altamente personalizzati¹. In Italia, l’Agenzia per la Cybersicurezza Nazionale ACN, in collaborazione con l’Autorità Giudiziaria e le Forze di Polizia specializzate, partecipa a iniziative di monitoraggio tecnico e condivisione informativa sui canali di diffusione di strumenti di intelligenza artificiale malevola, nell’ambito del Quadro Strategico Nazionale per la Sicurezza Cibernetica 2024. Le operazioni hanno evidenziato reti decentralizzate, spesso collocate in Paesi extra UE, che distribuiscono modelli di AI generativa non conformi ai requisiti di sicurezza e trasparenza previsti dal Regolamento UE 2024/1689. L’evoluzione più recente è rappresentata dalle dark AI modulari, aggiornabili tramite plug-in di terze parti che possono modificare la propria logica di funzionamento attraverso aggiornamenti non verificabili, ponendo questioni di responsabilità diretta del produttore e, ovviamente, di vigilanza permanente.
IL QUADRO NORMATIVO DI RIFERIMENTO
Livello europeo Il Regolamento UE 2024/1689 Artificial Intelligence Act, pubblicato il 12 luglio 2024 ed entrato in vigore il 1º agosto 2024, prevede l’applicazione progressiva delle sue disposizioni, ovvero, i divieti sui sistemi manipolativi decorrono dal 2 febbraio 2025, mentre l’applicazione generale entrerà in vigore il 2 agosto 2026. L’articolo 5, per esempio, vieta i sistemi che influenzano il comportamento Umano in modo dannoso o sfruttano vulnerabilità cognitive, mentre gli articoli 9 e 15 stabiliscono obblighi di gestione del rischio e di trasparenza. La Direttiva UE 2022/2555 NIS2 è in vigore dal 2023 e ha imposto agli Stati membri il recepimento sin dal 17 ottobre 2024, con abrogazione della NIS1 a partire dal giorno successivo. Essa estende gli obblighi di sicurezza e notifica agli operatori essenziali e ai fornitori di servizi digitali. Il Cyber Resilience Act, entrato in vigore il 10 dicembre 2024, disciplina la sicurezza dei prodotti digitali e prevede la responsabilità del produttore per l’intero ciclo di vita, con obblighi applicativi a partire dall’11 dicembre 2027. Il Cybersecurity Act Regolamento UE 2019/881 resta il fondamento del sistema europeo di certificazione e attribuisce all’ENISA funzioni di coordinamento tecnico, oggi rafforzate dal processo di revisione 2025 per l’adeguamento agli standard di intelligenza artificiale. A livello nazionale interno, con la Legge 23 settembre 2025, n. 132, che sarà in vigore dal 10 ottobre 2025, l’Italia ha recepito i principi dell’AI Act, istituendo un sistema di vigilanza preventivo coordinato dall’ACN e dal Garante per la Protezione dei Dati Personali. La Normativa NIS italiana è disciplinata dal D.Lgs. 4 settembre 2024, n. 138, entrato in vigore il 16 ottobre 2024, che estende gli obblighi di sicurezza informatica e la responsabilità degli operatori di servizi essenziali. In Italia, il DPCM dell’8 luglio 2024 ha riguardato la ripartizione dei fondi per l’attuazione della strategia nazionale di cybersicurezza (GU n. 207 del 4 settembre 2024). In tale contesto, l’architettura strategica nazionale già delineata nel Quadro Strategico per la Sicurezza dello Spazio Cibernetico (documento strategico preesistente) prevede la cooperazione tra ACN, AgID, AGCOM e MAECI, ciascuno nei propri ambiti di competenza, per promuovere resilienza e azioni integrate nel sistema digitale nazionale.
ANALISI DI COMPATIBILITÀ GIURIDICA: DIVIETI, OBBLIGHI E RESPONSABILITÀ
Alla data attuale, le applicazioni di dark AI destinate alla manipolazione cognitiva o alla creazione di contenuti ingannevoli rientrano nei divieti dell’art. 5, paragrafo 1, lettere b) e c) del Regolamento (UE) 2024/1689. Gli articoli 9 e 15 impongono misure di risk management e audit documentali per i modelli di alto rischio. Le organizzazioni che utilizzano o integrano tali tecnologie sono tenute, ai sensi della Direttiva NIS2 e del D.Lgs. 138/2024, ad adottare misure di sicurezza e a notificare incidenti significativi entro 24 ore. L’inadempimento comporta sanzioni amministrative e, nei casi più gravi, responsabilità civile per negligenza. Il Cyber Resilience Act amplia la responsabilità del produttore, imponendo la garanzia di sicurezza per tutto il ciclo di vita del prodotto, incluse le fasi di aggiornamento. Ogni update o integrazione di terze parti può modificare il livello di rischio e richiede pertanto una nuova valutazione di conformità.
I NODI CRITICI: SICUREZZA, PROTEZIONE DEI DATI E TUTELA DEI TERZI
La dark AI presenta una pervasività che investe anche soggetti estranei al trattamento, i cosiddetti ‘bystanders’. Tali soggetti possono essere coinvolti inconsapevolmente in operazioni di addestramento o generazione di contenuti, con violazione indiretta dei principi di liceità e minimizzazione dei dati previsti dal Regolamento (UE) 2016/679 (GDPR).
Alla luce del quadro europeo e nazionale vigente, le misure essenziali per la protezione dei dati e la sicurezza includono:
• Minimizzazione dei dati e anonimizzazione dei metadati;
• Cifratura end-to-end dei flussi informativi;
• Autenticazione a più fattori per l’accesso ai modelli;
• Meccanismi di esercizio dei diritti semplificati;
• Audit indipendenti e logging continuo;
• Notifica obbligatoria degli incidenti all’ACN o al CERT nazionale ai sensi dell’art. 21 NIS2.
Queste misure costituiscono la soglia minima di conformità, ma non bastano a neutralizzare i rischi cognitivi connessi alla manipolazione percettiva.
VIGILANZA E PROSPETTIVE
Sul piano europeo, la vigilanza è affidata congiuntamente all’ENISA, ECCC (European Cybersecurity Competence Centre) e CERT-UE, che assicurano il coordinamento operativo e la diffusione delle best practices. In Italia, l’Agenzia per la Cybersicurezza Nazionale ACN esercita poteri di indirizzo e controllo tecnico, in sinergia con il Garante Privacy, l’AgID, l’AGCOM, il MAECI e l’Autorità Giudiziaria per i profili penali. Allo stato attuale, è richiesto un doppio livello di verifica, cioè, la conformità formale alle prescrizioni del Regolamento UE 2024/1689 e del Cyber Resilience Act, e l’accountability sostanziale, intesa come capacità di dimostrare con prove documentali la sicurezza e la tracciabilità del sistema. Pare che entro la fine del 2025 la Commissione Europea, in collaborazione con ENISA, avvierà il Cybersecurity Certification Scheme per la validazione dei modelli di AI, che sarà un primo passo verso una standardizzazione paneuropea della sicurezza artificiale.
CONCLUSIONI
La dark artificial intelligence costituisce un forte punto di frizione tra progresso tecnologico e diritto positivo. Strumenti creati per semplificare processi e decisioni sono oggi impiegati per erodere la fiducia, alterare la percezione e compromettere la sicurezza cognitiva. Il paradosso è evidente perché un’innovazione nata per ridurre l’errore umano si trasforma in una fonte di inganno automatizzato. La vera posta in gioco è la tutela dell’autonomia intellettuale e della dignità informativa dell’individuo. Il diritto, se vuole restare garante della libertà e della verità, deve divenire architetto di protezioni preventive e non mero curatore del danno. L’armonizzazione tra AI Act, NIS2, Cyber Resilience Act e norme italiane segna la direzione verso una sicurezza che non difende solo le reti, ma l’integrità della conoscenza Umana.
Avv. Claudio Caldarola
Riferimenti
ENISA, Threat Landscape 2025, Bruxelles, 2025.
Regolamento (UE) 2024/1689 (Artificial Intelligence Act); Direttiva (UE) 2022/2555 (NIS2); Cyber Resilience Act, 10 dicembre 2024; Cybersecurity Act (Regolamento UE 2019/881, in revisione 2025).
Legge 23 settembre 2025, n. 132 (recepimento AI Act, in vigore dal 10 ottobre 2025);
D.Lgs. 4 settembre 2024, n. 138 (attuazione NIS2, in vigore dal 16 ottobre 2024); Quadro Strategico Nazionale per la Sicurezza dello Spazio Cibernetico (DPCM 8 luglio 2024).



