Perché l’IA sa scrivere software ma non sa aprire una porta?

DandD italo red italo
Gemelli? Boh, Forse
Si dice che ognuno di noi ha una doppia anima...
by D&D

…Quello che state per leggere non è il prodotto di ricerche accademiche, ma divagazioni di un passante per caso intorno alla tecnologia.

C’è una cosa che mi colpisce ogni volta che uso gli strumenti di intelligenza artificiale per lavorare. Le IA oggi scrivono codice sorprendentemente bene. Non solo piccoli script, ma intere funzioni, moduli, a volte perfino architetture software complete. Strumenti come GitHub Copilot, Claude o Cursor AI sono ormai diventati assistenti quotidiani per molti programmatori. Bravi. Precisi. Instancabili. Quasi irritanti, a essere onesti.

Eppure succede una cosa curiosa. Se chiedi alla stessa IA di progettare un’interfaccia — dove mettere un bottone, come organizzare un menù, quale colore usare per un avviso — il risultato è spesso quello di qualcuno che ha studiato design su un libro, ma non ha mai usato un’app alle sette di mattina con gli occhi ancora mezzi chiusi.

Il motivo è semplice, e forse anche un po’ consolante per chi come noi fa fatica con il codice. Programmare, per una macchina, è un ambiente ideale: tutto è strutturato, tutto ha regole, e soprattutto c’è sempre una risposta giusta. Il programma funziona oppure no. Compila oppure no. Il server parte oppure no. Non c’è spazio per l’interpretazione, per il dubbio, per il “boh, dipende”. Il web poi è pieno zeppo di codice su cui allenarsi: repository, tutorial, forum, documentazioni. Le IA hanno divorato tutto questo materiale e lo riconoscono come un sommelier riconosce l’annata da un sorso.

Il design di interfacce, invece, è un’altra storia. Dove cade lo sguardo? Cosa sembra cliccabile? Cosa genera confusione? Sono domande che non hanno una risposta giusta. Una UI può essere efficace, mediocre, elegante, frustrante, geniale. Spesso tutte e cinque contemporaneamente, a seconda di chi la usa e quando. Per un modello statistico che vive di risposte corrette, questo è un incubo. È come chiedere a un calcolatore di stabilire se una barzelletta è divertente. Tecnicamente può provarci. Ma si vede.

Lo stesso limite emerge in altri contesti. Prova a chiedere a una IA di partire da una planimetria e ricostruire una stanza in tre dimensioni. Un essere umano ci mette un attimo: deduce i volumi, immagina dove batte la luce, capisce istintivamente se quella porta apre verso il corridoio o verso il muro. L’IA deve invece affrontare una serie di problemi molto più complessi — interpretare il disegno, ricostruire la geometria, dedurre quello che non è scritto — perché quella che per noi è intuizione spaziale, per lei è un algoritmo di ricostruzione da zero.

E già che parliamo di porte, c’è un esempio che vale la pena raccontare per bene. Aprire una maniglia è una cosa che facciamo decine di volte al giorno senza pensarci. Mentre parliamo al telefono, mentre abbiamo la testa altrove, mentre abbiamo una pila di libri in braccio. Eppure, per una mano robotica, è un’operazione di complessità quasi filosofica. Non per la forza richiesta — quella non è il problema — ma per tutto quello che ci sta intorno.

Prima di tutto, il robot deve riconoscere la maniglia. Un essere umano lo fa in automatico perché il cervello ha milioni di esempi accumulati nel tempo. Un robot invece deve identificare la porta, distinguere la maniglia dal resto dell’immagine, capire dove afferrarla. E già qui iniziano le sorprese: maniglie di forme diverse, superfici metalliche che riflettono la luce in modo imprevedibile, ombre, oggetti davanti alla porta. È una sfida di visione artificiale non banale, e stiamo ancora parlando solo di guardare.

Una volta trovata la maniglia, il robot deve capire come funziona. Le varianti sono moltissime: maniglie a leva da abbassare, pomelli da ruotare, porte scorrevoli, porte che si aprono verso l’interno o verso l’esterno. Un essere umano deduce la fisica dell’oggetto quasi istantaneamente, per una combinazione di esperienza e buon senso visivo. Un robot spesso deve aver visto esempi simili durante l’addestramento, oppure procedere per tentativi — il che, davanti a una porta chiusa a chiave, non è propriamente pratico.

Poi arriva il momento di afferrare. Una mano robotica deve posizionare le dita, regolare la pressione, evitare di scivolare. Noi abbiamo un sistema tattile di precisione incredibile che modula la forza in modo continuo e quasi inconscio. I robot invece spesso hanno pochi sensori di forza e un controllo meno fine. Risultato: stringono troppo, stringono troppo poco, o la presa scivola. E non parliamo della coordinazione finale — afferrare, ruotare, spingere o tirare, mantenere la presa mentre cambiano le forze in gioco. Per un umano è naturale. Per un robot è un problema di controllo dinamico che farebbe sudare freddo un ingegnere meccanico.

E poi c’è il vero nemico della robotica: il mondo reale. Maniglie dure, porte pesanti, attriti diversi, angoli imprevisti. Il robot deve adattarsi in tempo reale, senza poter contare su un ambiente controllato. Per questo nei laboratori di robotica — dal MIT a Boston Dynamics — aprire una porta è stato per anni un benchmark serio, una specie di esame di maturità per i robot. Ci sono video celebri del robot Spot che apre porte, ma spesso utilizzando maniglie modificate apposta per semplificargli la vita. Nessuno glielo dice, ma lui se la cava lo stesso. Applausi.

Aprire una porta è facile per un umano perché il cervello integra visione, tatto, esperienza fisica del mondo e ragionamento motorio. Tutto insieme, tutto in simultanea, senza nemmeno accorgersene. Per questo la macchina riesce a scrivere software complesso ma fatica a ricostruire uno spazio tridimensionale da una piantina: il mondo reale richiede una comprensione implicita della realtà che non si impara leggendo documentazione.

Ed è esattamente qui che entra in gioco quello che il filosofo Michael Polanyi, a metà del Novecento, chiamava tacit knowledge — conoscenza tacita. È quella cosa che sai fare ma non riesci a spiegare. Il designer che guarda un’interfaccia e dice “questo bottone è sbagliato” senza saper dire esattamente perché. L’architetto che entra in una stanza e sente subito se opprime o respira. Il product manager che apre un’app per trenta secondi e capisce già dove gli utenti si perderanno. Non è magia. È sedimento. Anni di errori, osservazioni, frustrazioni accumulate. Conoscenza che passa prima attraverso il corpo e poi attraverso la testa. Le macchine, per quanto sofisticate, non hanno un corpo. Non hanno un prima. Non hanno mai cercato l’interruttore della luce al buio bestemmiando sottovoce.

Ed è lo stesso paradosso che gli studiosi di robotica chiamano — con nome proprio — il paradosso di Moravec, formulato da Hans Moravec negli anni ’80 e mai davvero risolto. Le cose più facili per noi — camminare su un terreno sconnesso, capire da un’occhiata se qualcuno è di cattivo umore, intuire che quella porta si apre spingendo e non tirando — sono computazionalmente mostruose. Le cose più difficili per noi — calcolare, memorizzare, ottimizzare, trovare pattern in milioni di righe di dati — sono banali per le macchine. Dopo quarant’anni di progressi straordinari, questo paradosso non solo è ancora vero: si è fatto più visibile che mai.

La storia del design è piena di oggetti perfetti sulla carta e disastrosi nella realtà. I Google Glass, presentati nel 2013, erano tecnologicamente straordinari: un computer sul naso, connesso, con realtà aumentata. Peccato che socialmente fossero indossabili nel senso sbagliato del termine. Chi li portava veniva guardato come uno che potrebbe stare riprendendo tutto. Nessun algoritmo aveva previsto che mettere una telecamera sul volto di qualcuno avrebbe cambiato radicalmente il modo in cui gli altri lo guardavano. Senza contare che quegli occhiali erano perfettamente in grado di raccogliere e trasmettere — spesso senza esplicito consenso — volti di persone, ambienti privati, conversazioni, targhe. Tutte cose che, condivise con terze parti, diventano un problema serio in base al GDPR e ad altri ordinamenti. Ma questo, come si dice, è un altro discorso.

Non è un caso isolato. Quante app brillanti tecnicamente sono state abbandonate perché “non si capisce come funzionano”? I checkout con un passaggio in più del necessario. I form che ti respingono senza spiegarti perché il tuo numero di telefono “non è valido”. Le notifiche che arrivano sempre nel momento sbagliato. Piccoli fallimenti di comprensione umana, non di engineering. Si accumulano silenziosamente, fino a quando l’utente smette di usare il prodotto senza nemmeno sapere bene perché.

Le IA possono imitare buone interfacce — e lo fanno anche abbastanza bene. Hanno visto milioni di screenshot, letto milioni di recensioni, analizzato milioni di pattern. Possono generare layout coerenti, suggerire testi efficaci, scovare anomalie nel comportamento degli utenti. Ma imitare non è capire. Un sistema che ha letto tutte le recensioni di un’app non sa cosa si prova ad aprirla di corsa mentre stai cercando l’autobus. Non ha mai perso la pazienza. Non ha mai detto, neanche sottovoce, “ma chi ha fatto questa cosa?”. Non ha mai avuto la voglia di lanciare il computer dalla finestra.

Zia Rosina, a questo punto della conversazione, alzerebbe le spalle e direbbe che lei queste cose non le ha mai avute. Il suo cellulare vecchio chiama, manda messaggi e la batteria dura una settimana. Non ha bisogno di interfacce intuitive perché non ha interfacce, o per lo meno l’interfaccia è estremamente semplice e collaudata da anni: la tastiera del telefono. Per questo non riesce a capire perché i moderni smartphone sembrino progettati da ingegneri che non hanno mai visto un essere umano in vita loro.

Ma sappiamo che il valore dell’intelligenza umana non è resistere all’innovazione ed alle macchine. Il vero valore non è “cosa sanno fare ancora solo gli esseri umani?” ma “cosa ha sempre davvero significato fare bene uno specifico lavoro?” Un designer, un architetto, uno scrittore, un product manager: il loro valore non è mai stato nell’esecuzione. Non stava nel saper tracciare una wireframe più velocemente o nel memorizzare le linee guida di Material Design. Stava nel saper abitare il problema. Nel mettersi nei panni di qualcuno che non si conosce, in un contesto che non si controlla, con esigenze che cambiano nel tempo. Nel portare dentro il lavoro tutta la complessità dell’esperienza umana — compresa aprire una porta con una pila di libri in braccio o trovare il pulsante della luce al buio.

L’intelligenza artificiale non toglie niente a chi ha sempre lavorato così. Semmai, lo rende più visibile. Espone, invece, chi ha sempre lavorato come una macchina — ottimizzando processi, replicando pattern, eseguendo senza interpretare. Quel lavoro sì, è destinato a cambiare, e forse è già cambiato. Ma il lavoro di chi ha sempre messo l’esperienza umana al centro non è mai stato in pericolo. Non lo è adesso. E probabilmente non lo sarà domani.

Il codice è logica. Le interfacce sono vita. E la vita, per fortuna, non si può compilare… almeno per ora.

by D&D

suggeriti

- Advertisement -spot_img

Latest Articles