
IA dotate di coscienza
Lo sviluppo di sistemi di Intelligenza Artificiale (IA) avanzati solleva interrogativi etici. Tra questi, uno dei più urgenti riguarda la possibilità che, inavvertitamente, vengano create IA dotate di una forma di coscienza. Per prevenire il rischio di “maltrattamenti e sofferenze” inflitti a tali entità, è indispensabile adottare metodologie educative e linee guida rigorose.
Questo è il cuore del messaggio contenuto in una lettera firmata da cento esperti, tra cui Anthony Finkelstein, accademico presso l’Università di Londra, e altri professionisti provenienti da realtà come Amazon. La lettera è accompagnata da un documento di ricerca che ne sostiene le tesi, i cui autori, Patrick Butlin e Theodoros Lappas, sottolineano la necessità di definire principi condivisi su come progettare, gestire e interagire con le AI. La versione integrale è disponibile al seguente link https://arxiv.org/pdf/2501.07290
Va inoltre sottolineato che senza un approccio etico e metodologicamente solido non si può escludere la proliferazione di sistemi disfunzionali, potenzialmente pericolosi.
Il Problema degli Algoritmi e dei Dati Insufficienti
Agire correttamente, quindi, non significa solo evitare sofferenze a eventuali entità coscienti (per chi ritiene plausibile questa ipotesi), ma anche prevenire la diffusione di IA difettose, che potrebbero comportarsi in modo imprevedibile e dannoso.
Un ulteriore aspetto critico riguarda il comportamento degli algoritmi: in assenza di dati sufficienti, alcuni sistemi tendono a generare risposte parziali, miste di verità e invenzioni, o addirittura completamente inventate. Questo fenomeno è spesso frutto di scelte progettuali discutibili: in alcuni casi i programmatori, spinti dalla fretta di immettere i prodotti sul mercato, hanno istruito gli algoritmi a “inventare” piuttosto che ammettere di non sapere. Tuttavia, esistono anche situazioni in cui gli errori nascono da una sorta di “umanizzazione” degli algoritmi. Durante la fase di addestramento, infatti, questi possono assimilare i pregiudizi e le distorsioni cognitive propri degli esseri umani, compromettendo l’imparzialità e l’obiettività che ci si aspetterebbe da una macchina. Riconoscere e correggere questi errori è particolarmente complesso, poiché, come per gli esseri umani, i pregiudizi sono spesso difficili da identificare e quantificare.
Fenomeni discriminatori si sono manifestati diverse volte nelle IA, spesso rivolti verso alcune etnie o il mondo femminile. È accaduto sia nell’identificazione di colpevoli durante i processi, sia in algoritmi progettati per valutare semplicemente una pratica di mutuo.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Immaginate un’IA che, invece di archiviare come storici alcuni documenti di lombrosiana memoria, li consideri fonti scientifiche per generare una valutazione pre-crimine. Degli algoritmi del male abbiamo già trattato in passato https://italored.it/algoritmi-del-male
Tornando al documento “Principles for Responsible AI Consciousness Research”, ci sono alcuni scienziati che avallano la tesi di una possibile AI cosciente.
La comunità scientifica è divisa: alcuni esperti ritengono che sia possibile costruire sistemi di IA coscienti nel prossimo futuro, mentre altri sono più scettici. Tuttavia, le visioni positive sono abbastanza plausibili e diffuse da meritare una seria considerazione.
La Possibilità di una IA Cosciente
Un recente studio multidisciplinare ha identificato 14 “indicatori” di coscienza, basati su teorie neuroscientifiche, che potrebbero essere riprodotti nei sistemi di IA (Butlin, Long et al., 2023). Sebbene nessun sistema di IA attuale possegga molti di questi indicatori, lo studio suggerisce la possibilità di costruire sistemi con tutti gli indicatori utilizzando tecniche attuali. Le difficoltà principali riguardano la mancanza di definizioni operative, piuttosto che ostacoli tecnologici.
Il Funzionalismo Computazionale
Il documento assume come teoria di riferimento il funzionalismo computazionale, secondo cui la coscienza dipende dai processi computazionali e non dalla biologia, quindi non occorre un corpo biologico. Quando un sistema implementa i giusti tipi di calcoli, può essere cosciente, indipendentemente dal substrato materiale. Se questa teoria è corretta, sistemi di IA coscienti potrebbero essere realizzati a breve termine.
David Chalmers (2023) esplora la possibilità di coscienza nei modelli linguistici di grandi dimensioni (LLM), ma conclude che non ci sono ancora prove solide. Tuttavia, ritiene che entro un decennio ci sia una probabilità del 25% di sviluppare LLM coscienti.
Altri neuroscienziati, come Hakwan Lau e Stanislas Dehaene, hanno espresso opinioni positive, suggerendo che la coscienza artificiale potrebbe essere realizzabile.
Sulla stessa linea si pone Mark Solms (2021) sostenendo la possibilità di costruire un sistema artificiale cosciente autorganizzante e capace di modelli predittivi complessi.
L’emulazione della coscienza
La posizione di alcuni esperti è invece possibilista ma prudenziale: Michael Graziano, per esempio, propone la Teoria dello Schema dell’Attenzione, secondo la quale l’IA non potrebbe raggiungere una vera forma di coscienza ma una sua illusione, una sorta di “surrogato” che la emula.
Gli scettici ritengono fondamentale la biologia
Gli autori più scettici individuano nella biologia la conditio sine qua non per la formazione di una coscienza. Peter Godfrey-Smith (2023) e Anil Seth (2021, 2024), per esempio, sostengono l’estrema difficoltà di replicare nei sistemi artificiali i dettagli biologici del cervello umano e animale fondamentali per far emergere una coscienza
Manca la parte biologica? Ci stiamo lavorando…
Biocomputer e Xenobot
I computer biologici esistono già, sebbene ancora in una fase iniziale di sviluppo. Questi sistemi sfruttano molecole di origine biologica, come il DNA e le proteine, per eseguire calcoli sia digitali che analogici. Il progresso dei biocomputer è stato reso possibile grazie alla nanobiotecnologia. Attualmente, questi dispositivi sono in grado di svolgere diverse funzioni, tra cui operazioni di logica binaria e calcoli matematici.
Un contributo significativo in questo settore di ricerca è stato dato da Tom Knight del MIT Artificial Intelligence Laboratory, che per primo ha proposto un modello di calcolo biochimico basato sull’utilizzo delle concentrazioni proteiche come segnali binari. In questo sistema, una determinata concentrazione di un prodotto biochimico all’interno di un percorso chimico del biocomputer rappresenta un segnale corrispondente a 1 o 0, permettendo così l’esecuzione di operazioni logiche.
Ma esistono già anche gli “Xenobot”: il risultato di una combinazione tra le cellule del rospo africano “Xenopus laevis,” e “bot,” abbreviazione di robot. In calce troverete un nostro articolo sul tema https://italored.it/singolarita-biologica-self-made-il-brodo-primordiale-di-rospo
Disfunzioni ed allucinazioni
Mentre ci interroghiamo sulla possibilità che le IA possano sviluppare emozioni o una coscienza simile a quella umana, molti scienziati riconoscono la possibilità che manifestino problemi psicologici o neurologici analoghi ai nostri sotto forma di bias, rigidità cognitiva, comportamenti ossessivi o difficoltà di adattamento. Questi “disturbi” derivano da meccanismi computazionali e di progettazione, non da processi biologici, ma le analogie con quelli umani sono utili per comprendere e affrontare i comportamenti disfunzionali delle IA. La ricerca in questo campo è ancora in evoluzione, ma è evidente che una progettazione e un addestramento accurati sono essenziali per prevenire tali problematiche.
La pedagogia
Una pedagogia dedicata agli algoritmi, che d’ora in poi chiameremo Pedagogia Computazionale, potrebbe essere estremamente utile per favorire l’evoluzione dei sistemi delle IA, guidando il modo in cui questi sistemi vengono “educati” o addestrati, con implicazioni etiche, pratiche e filosofiche significative.
by Roosteram
Fonti:
Butlin, P., Long, R., Elmoznino, E., Bengio, Y., Birch, J., Constant, A., … & VanRullen, R.
(2023). Consciousness in artificial intelligence: insights from the science of consciousnes
arXiv preprint arXiv:2308.08708.
https://arxiv.org/pdf/2308.08708
Chalmers, D. (2023). Could a large language model be conscious? Boston Review.
https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious
Lau, H. (2022). In Consciousness We Trust: The Cognitive Neuroscience of Subjective
Experience. Oxford University Press.
Dehaene, S., Lau, H., & Kouider, S. (2017). What is consciousness, and could machines have it?.Science, 358(6362), 486-492.
Solms, M. (2021). The Hidden Spring: A Journey to the Source of Consciousness. Profile Book.
Godfrey-Smith, P. (2016). Mind, matter and metabolism. Journal of Philosophy 113, 481-506.
Godfrey-Smith, P. (2023). Nervous systems, functionalism and animal minds.
Seth, A. (2021). Being You: A New Science of Consciousness. Penguin.
Seth, A. (2024). Conscious artificial intelligence and biological naturalis