Ogni volta che un’azienda pubblica o privata presenta un sistema di intelligenza artificiale come “sicuro perché c’è l’umano nel processo“, si usa la parola giusta (human) dentro il framework sbagliato (loop).
Human in the Loop non è un approccio sbagliato. È semplicemente un approccio degli anni ’70 applicato a problemi contemporanei. E questa distanza temporale è il cuore del problema.
La genealogia del controllo.
Come sempre, per capire dove siamo, serve capire da dove veniamo.
Human in the Loop nasce negli anni ’70 dalla teoria del controllo, quel ramo dell’ingegneria che si occupa di sistemi dinamici: chi ha l’autorità finale? Chi può intervenire? Chi decide quando qualcosa va storto?
Il lavoro seminale di Sheridan e Verplank (1978) sui livelli di automazione costruisce un framework che Parasuraman e colleghi raffineranno negli anni ’90 e 2000, soprattutto applicato all’aviazione e ai sistemi militari. Da questa tradizione ereditiamo tre livelli:
Human in the Loop: l’umano esegue. L’AI propone, l’operatore valida ed esegue l’azione.
Human on the Loop: l’umano supervisiona. L’AI agisce autonomamente, l’operatore interviene solo per eccezione.
Human out of the Loop: l’umano delega. L’AI opera completamente in autonomia su obiettivi predefiniti, l’umano monitora a posteriori.
Questo framework funziona magnificamente per un cockpit, una catena di montaggio, un sistema di controllo industriale. Luoghi dove le variabili sono note, i comportamenti prevedibili, le responsabilità chiare. Ma collassa quando applicato a sistemi che apprendono dai dati, evolvono attraverso l’uso, e operano in reti di relazioni complesse.
Il problema strutturale: l’intelligenza è “dentro”
Tutti e tre i livelli classici condividono un assunto implicito: l’intelligenza sta dentro l’umano, l’AI è uno strumento nelle sue mani. Questo assunto non regge più per una ragione empirica: nei sistemi generativi, l’intelligenza non sta in nessuno dei due. Emerge dall’interazione. Quando chiedi a un LLM di simulare la prospettiva di uno stakeholder lontano per un’analisi di doppia materialità ESG, non stai “usando uno strumento”. Stai costruendo una relazione con qualcosa che altrimenti rimarrebbe invisibile al tuo processo decisionale.
L’output non è “tuo” (non l’hai pensato tu) né “dell’AI” (non è autonomo). È del sistema che avete creato insieme attraverso il prompt, il contesto, l’iterazione.
L’AI Act e il cemento normativo
L’AI Act europeo, per quanto storicamente necessario e mi trovi d’accordo sulla genesi, cementa questo approccio obsoleto. Impone supervisione umana sui sistemi ad alto rischio. Chiede: chi decide? Chi è responsabile? Chi può intervenire? Domande giuste per sistemi deterministici. Inadeguate per sistemi generativi che co-producono significato nell’interazione.
Il risultato? Organizzazioni che implementano “supervisione umana” come checkbox di compliance, non come architettura di responsabilità distribuita. Medici che approvano il 94% delle diagnosi proposte dall’AI senza verificare, perché il sistema chiede loro di essere “nel loop” ma non gli dà strumenti per essere davvero parte del processo cognitivo.
Due livelli che mancano
Per uscire da questo vicolo cieco, servono almeno altri due livelli. Non li ho inventati io: esistono già nella letteratura scientifica su Human-Centered AI (Shneiderman), Actor-Network Theory (Latour), Hybrid Intelligence. Ma rimangono confinati in ambito accademico, senza traduzione operativa per chi progetta e governa questi sistemi.
AI in the Loop
L’AI non è strumento, è partner cognitivo. Estende capacità che da soli non avremmo: elaborare pattern in dataset troppo grandi per l’attenzione umana, simulare prospettive di attori che non possiamo intervistare, esplorare scenari controfattuali troppo costosi da testare nella realtà.
Non si tratta di controllo, ma di collaborazione asimmetrica. L’intelligenza emerge dall’interazione, non dalla delega. L’umano non “supervisiona” l’AI, ma dialoga con un sistema che ha capacità diverse e complementari.
Esempio concreto: in un’analisi di materialità ESG, chiedi all’AI di assumere il punto di vista di una comunità locale impattata da un’infrastruttura. L’AI non sta “simulando” quella comunità (non è intelligenza artificiale generale). Sta rendendo visibile una prospettiva che altrimenti rimarrebbe fuori dal tuo campo percettivo, limitato dalla distanza geografica, dalla differenza culturale, dall’asimmetria di potere.
L’intelligenza del processo non sta in te (non hai pensato tu quelle obiezioni) né nell’AI (non è autocosciente). Sta nel sistema che ha reso quella relazione possibile.
More than Human
Il livello successivo riconosce che l’intelligenza non sta né nell’umano né nell’AI, ma nella rete operativa che li tiene insieme. Sistemi ibridi dove la decisione non ha un “proprietario” ma una geometria di responsabilità distribuite. Non è delega, non è supervisione. È ecologia operativa.
Pensiamo al monitoraggio infrastrutturale di cui parlo in “Empatia aumentata”: sensori IoT che rilevano variazioni micro-strutturali in un ponte, algoritmi che interpretano pattern anomali, tecnici che validano interventi, sistemi di allerta che attivano protocolli.
Chi ha “deciso” di chiudere il ponte? Il sensore che ha rilevato la vibrazione? L’algoritmo che ha classificato il pattern come anomalo? Il tecnico che ha confermato la criticità? Il sistema che ha attivato l’allerta? La domanda stessa è mal posta. L’intelligenza sta nella rete che ha reso quella decisione possibile, non in un singolo nodo.
Questo è ciò che Bruno Latour chiamava “parlamento delle cose” e che io ho ribattezzato “parlamento degli attanti”: una rete dove umani e non-umani partecipano alla produzione di realtà condivisa, non come strumenti passivi ma come attori con agency differenziali.
Empatia aumentata come framework operativo
Nel libro che ho scritto per McGraw Hill sviluppo questi concetti dentro un framework operativo che chiamo empatia aumentata. L’idea centrale è questa: l’empatia umana funziona benissimo con chi è vicino, simile, presente. Ma collassa sistematicamente con chi è lontano, diverso, futuro, non-umano.
L’AI può rendere l’empatia “più esigente” estendendo il nostro campo percettivo oltre i limiti biologici. Non sostituisce l’empatia umana, la aumenta rendendola capace di relazionarsi con stakeholder altrimenti invisibili.
Ma questo richiede un cambio di paradigma: smettere di pensare all’AI come strumento da controllare (Human in the Loop) e iniziare a pensarla come dispositivo istituente (Accoto) che modifica le geometrie relazionali dentro cui operiamo. Quando implementi AI in the Loop o More than Human, non stai aggiungendo un tool. Stai ridisegnando l’architettura delle responsabilità nella tua organizzazione.
Perché continuiamo a sbagliare
Allora perché continuiamo a vendere Human in the Loop come soluzione etica?
Per tre ragioni, io credo:
Inerzia cognitiva: abbiamo 50 anni di letteratura, standard, procedure basate su quel framework. Buttarlo via fa paura.
Illusione di controllo: “l’umano nel loop” ci fa sentire al sicuro. Anche se l’umano approva il 94% delle decisioni senza verificare, l’importante è che potrebbe intervenire. È un talismano psicologico, non un meccanismo di governance.
Compliance normativa: l’AI Act richiede supervisione umana. Implementare Human in the Loop è il modo più veloce per spuntare quella casella, anche se non risolve il problema strutturale.
Ma proporre Human in the Loop come soluzione etica per sistemi generativi è come proporre il fax per la trasformazione digitale. Funziona, tecnicamente. Ma state risolvendo il problema sbagliato.
Cosa fare concretamente
Se lavori con sistemi AI generativi, ecco tre domande operative:
1. L’intelligenza emerge dall’interazione o dalla delega? Se la risposta è “dall’interazione”, stai già fuori dal framework classico. Hai bisogno di AI in the Loop, non Human in the Loop.
2. Chi/cosa partecipa alla decisione? Se la risposta include sensori, dati, algoritmi, protocolli oltre agli umani, stai già in una rete More than Human. Mappala come tale.
3. La supervisione umana è architettura cognitiva o checkbox di compliance? Se è la seconda, stai costruendo illusione di controllo, non governance reale.