spot_img

L’intelligenza artificiale e la giustizia distributiva

by Claudio Caldarola
Avvocato specializzato in diritto delle tecnologie.
Dal 2018 Presidente di Global Professionals for Artificial Intelligence


verso una “costituzione globale della tecnologia”

ABSTRACT

L’intelligenza artificiale rappresenta una delle più profonde trasformazioni della storia economica e giuridica contemporanea. Essa ridefinisce i confini tra lavoro, valore e conoscenza, aprendo interrogativi inediti sul modo in cui le società distribuiscono i benefici del progresso. Le principali istituzioni internazionali – UNESCO, OCSE, OIL, Consiglio d’Europa, G20, Unione Europea e ISO/IEC – convergono oggi verso una visione comune, ovvero quella che l’innovazione tecnologica dev’essere governata secondo principi di equità, trasparenza e responsabilità.

Dalla Raccomandazione UNESCO sull’Etica dell’IA del 2021 al Regolamento UE 2024/1689 AI Act, passando per i Principles on AI dell’OCSE del 2019 e gli standard ISO/IEC 42001:2023, emerge una nuova “Costituzione mondiale della tecnologia”, fondata suI diritti Umani, sulla giustizia economica e sulla “responsabilità” algoritmica.

La riflessione analizza le principali direttrici di giustizia distributiva, ossia il reddito di base universale, la tassazione algoritmica, l’azionariato diffuso, la formazione permanente, le cooperative digitali, i servizi pubblici potenziati dall’IA e le licenze sui dati.

L’intelligenza artificiale, se regolata da un diritto etico e partecipativo, può divenire il più potente strumento di coesione e dignità sociale del XXI secolo.

INTRODUZIONE

L’automazione intelligente promette di moltiplicare la produttività e ridurre l’incertezza decisionale. Tuttavia, se i vantaggi economici generati dai sistemi di intelligenza artificiale restano concentrati in pochi attori, mentre la collettività, fonte primaria di dati e infrastrutture, ne rimane esclusa, il progresso rischia di trasformarsi in diseguaglianza strutturale.

In tale scenario, il diritto internazionale è chiamato a ridefinire le proprie funzioni, costruendo un’architettura multilivello di responsabilità tecnologica.

Dai principi etico-universali dell’ONU alle raccomandazioni dell’UNESCO e dell’OCSE, dalle politiche del lavoro dell’OIL alle linee di indirizzo del G20, fino al quadro vincolante dell’Unione Europea e agli standard ISO/IEC, prende forma un sistema normativo che sembra configurare una vera e propria “Costituzione globale della tecnologia”.

I suoi pilastri sono tre, i diritti Umani, la giustizia economica e la responsabilità algoritmica.

I DIRITTI UMANI E L’ETICA UNIVERSALE

Alla base della gerarchia delle fonti si collocano le dichiarazioni di principio delle Nazioni Unite.

La Dichiarazione Universale dei Diritti Umani del 1948 e l’Agenda 2030 per lo Sviluppo Sostenibile del 2015 riconoscono a ogni individuo il diritto di partecipare ai benefici del progresso scientifico.

La Raccomandazione dell’UNESCO sull’Etica dell’Intelligenza Artificiale del 2021 traduce questi principi nel linguaggio contemporaneo della governance digitale. Essa infatti introduce i concetti di equità algoritmica, responsabilità umana e solidarietà dei dati, chiedendo che i vantaggi dell’intelligenza artificiale siano condivisi in modo equo.

Quindi spiccano, tra le misure raccomandate:

– un reddito di base universale finanziato dai profitti dell’automazione;

– dividendi sociali derivanti dall’uso dei dati, riconoscendo valore collettivo all’informazione personale;

– servizi pubblici digitali potenziati dall’intelligenza artificiale, destinati a sanità, istruzione e trasporti.

La giustizia distributiva, in questa prospettiva, non è un complemento etico, bensì la condizione di legittimità democratica della trasformazione tecnologica.

LA GOVERNANCE INTERGOVERNATIVA: OCSE E OIL

Il livello intergovernativo traduce i principi etici in politiche operative.

L’OCSE, con i Principles on Artificial Intelligence del 2019 e i successivi rapporti The State of Implementation of the AI Principles del 2023 e Governing with Artificial Intelligence del 2024, afferma la necessità di un’intelligenza artificiale al servizio dell’inclusione.

Tali documenti incoraggiano gli Stati a introdurre forme di fiscalità algoritmica, in modo che i profitti generati dall’automazione contribuiscano al finanziamento di infrastrutture sociali, formazione e innovazione pubblica.

Si delinea così un principio emergente di equa contribuzione tecnologica.

L’Organizzazione Internazionale del Lavoro OIL, nel rapporto Work for a Brighter Future del 2019, propone un nuovo patto sociale per l’era digitale, articolato in tre assi:

– Un diritto universale alla formazione permanente gratuita, sostenuta da imprese automatizzate;

– la promozione di cooperative digitali e modelli di proprietà condivisa delle piattaforme;

– la creazione di fondi e strumenti di partecipazione collettiva ai profitti tecnologici.

L’automazione, dunque, deve divenire il motore dell’inclusione redistributiva, la tecnologia lo strumento di emancipazione e (idealmente) mai di esclusione.

L’EUROPA E IL CONSIGLIO D’EUROPA

Il Consiglio d’Europa, attraverso il CAHAI Feasibility Study on a Legal Framework for AI del 2021, ha avviato il percorso verso una futura convenzione internazionale sui diritti Umani e l’intelligenza artificiale, richiamando la trasparenza, non la discriminazione in pratica, la giustizia algoritmica.

Sicché l’Unione Europea ha poi consolidato la propria posizione con due testi cardine: il Libro Bianco sull’Intelligenza Artificiale – COM del 2020 65, che propone un modello di eccellenza e fiducia, e il conseguente Regolamento UE 2024/1689, altrimenti noto come AI Act, entrato in vigore nell’agosto 2024.

L’AI Act introduce un sistema di classificazione dei rischi, obblighi di trasparenza, sorveglianza umana e gestione documentata della sicurezza, definendo una cornice di responsabilità che potrà supportare future politiche redistributive.

La fiducia pubblica diviene così bene giuridico collettivo.

GLI STANDARD TECNICI E LA RESPONSABILITÀ OPERATIVA

Gli standard ISO/IEC rappresentano la traduzione tecnica dei principi giuridici.

La ISO/IEC 42001 del 2023 – Artificial Intelligence Management System⁷ definisce i requisiti per la governance dei sistemi di intelligenza artificiale, basata sulla tracciabilità, sulla supervisione e sul miglioramento continuo.

Il Chair Summary of Plenary Outcomes del Comitato ISO/IEC JTC 1/SC 42 dell’Ottobre 2024 annuncia ulteriori standard in sviluppo:

ISO/IEC 4 del 2007, sulla valutazione della conformità dei sistemi di intelligenza artificiale;

Serie 42119, dedicata ai test e alla validazione;

ISO/IEC 5259, per la qualità dei dati nel machine learning;

– specifiche tecniche per la de-identificazione, l’affidabilità e la qualità dei contenuti generati.

Queste norme costituiscono la base di una responsabilità verificabile, in cui la certificazione tecnica diviene anche garanzia di etica operativa.

LA DIMENSIONE ECONOMICA GLOBALE: G20 E WEF

Il livello macroeconomico, rappresentato da G20 e World Economic Forum – WEF, colloca la governance dell’intelligenza artificiale nel quadro della cooperazione internazionale.

I Principles for Responsible AI del G20 di Osaka del 2019⁹, riaffermati nel 2023, promuovono l’uso dell’intelligenza artificiale per una crescita equa e condivisa.

Il WEF, nel Global Technology Governance Report del 2022¹⁰, propone un paradigma di value-sharing economy, in cui il valore generato dai sistemi digitali venga redistribuito mediante licenze sui dati, dividendi sociali e fondi pubblici per l’innovazione inclusiva.

Questi orientamenti, sebbene non siano vincolanti, costituiscono l’orizzonte politico di una “giustizia tecnologica globale”.

PROSPETTIVE E RACCOMANDAZIONI

L’analisi delle fonti dimostra che la regolazione dell’intelligenza artificiale deve evolversi da un modello puramente tecnico a un modello etico-distributivo.

Le istituzioni internazionali convergono su un obiettivo comune, ovvero quello di trasformare il progresso tecnologico in una infrastruttura di equità.

Le linee d’azione coerenti con le fonti ufficiali includono:

– Un reddito di base universale e dividendi digitali come compensazione collettiva dei profitti automatizzati;

– la tassazione dei profitti algoritmici per finanziare il welfare, la formazione e i servizi pubblici;

– Un azionariato diffuso e fondi tecnologici pubblici, per restituire ai cittadini parte del valore prodotto dai dati;

– I servizi pubblici intelligenti e inclusivi, basati esclusivamente sull’intelligenza artificiale certificata e trasparente;

– La formazione continua garantita, il diritto universale per affrontare la transizione automatizzata;

– Le cooperative digitali e le piattaforme etiche, fondate sulla partecipazione e la condivisione;

– Le licenze sui dati, strumenti di riconoscimento del valore umano e collettivo.

Tali misure, integrate con gli standard ISO e con l’AI Act europeo, delineano un “patto tecnologico globale tra Stati, imprese e cittadini”.

CONCLUSIONI

La costruzione di una gerarchia internazionale delle fonti sull’intelligenza artificiale rappresenta una svolta giuridica epocale. Dalla Dichiarazione dei Diritti Umani agli standard ISO/IEC, passando per UNESCO, OCSE, OIL, Consiglio d’Europa, Unione Europea, G20 e WEF, emerge un sistema in cui l’etica, il diritto e la tecnica si fondono in “un’unica architettura di responsabilità”.

Il futuro della tecnologia non sarà misurato dalla potenza di calcolo, ma dalla sua capacità di servire la giustizia e la dignità Umana.

Un’intelligenza artificiale governata da regole eque, verificabili e condivise potrà diventare non solo il motore del progresso, ma uno strumento di coesione e di solidarietà universale.

Riferimenti

UNESCO, Recommendation on the Ethics of Artificial Intelligence, Parigi, 2021;

OECD, Principles on Artificial Intelligence (2019); The State of Implementation of the OECD AI Principles Four Years On (2023); Governing with Artificial Intelligence (2024);

International Labour Organization, Work for a Brighter Future, Ginevra, 2019;

Council of Europe, CAHAI – Feasibility Study on a Legal Framework for AI, Strasburgo, 2021;

Commissione Europea, Libro Bianco sull’Intelligenza Artificiale – COM(2020)65, Bruxelles, 2020;

Parlamento Europeo e Consiglio, Regolamento (UE) 2024/1689 sull’Intelligenza Artificiale (AI Act);

ISO/IEC, 42001:2023 – Artificial Intelligence Management System – Requirements;

ISO/IEC JTC 1/SC 42, Chair Summary of Plenary Outcomes, Ottawa, ottobre 2024;

G20, Principles for Responsible AI, Osaka, 2019;

World Economic Forum, Global Technology Governance Report, Davos, 2022.

suggeriti

- Advertisement -spot_img

Latest Articles

INFORMATIVA  cookie policy 
Su questo sito utilizziamo strumenti di
prime o terze parti che memorizzano
piccoli file (cookie) sul tuo dispositivo.
I cookie sono normalmente utilizzati
per consentire il corretto funzionamento
del sito (cookie tecnici),

UTILIZZIAMO SOLO COOKEI TECNICI ESSENZIALI

ATTENZIONE!
SE DISABILITI i cookie NON POTRAI:
visualizzare
filmati di YOUTUBE, ANIMAZIONI
ed altre FUNZIONI.