Un’ articolo eccezionale di Mariarosaria Taddeo, Andreas Tsamados e Luciano Floridi Human control of AI systems: from supervision to teaming – AI and Ethics, esplora il nostro rapporto con l’intelligenza artificiale: L’evoluzione del controllo umano sui sistemi di AI: dalla supervisione al teaming.

Questi dibattiti sono fondamentali per guidare lo sviluppo futuro delle tecnologie AI.

Studi recenti hanno esaminato la sinergia tra umani e AI, concentrandosi su come le decisioni interdipendenti possano migliorare l’efficienza. Questi studi indicano che, per massimizzare i benefici, è fondamentale progettare AI che possano collaborare in modo fluido con gli umani, adattandosi alle esigenze dei team e contribuendo attivamente al processo decisionale​ (MDPI)​.

Negli ultimi anni, l’integrazione dei modelli di intelligenza artificiale (AI) nei processi decisionali e operativi ha sollevato importanti questioni etiche e operative riguardo al ruolo del controllo umano.

Negli Stati Uniti, la ricerca sull’AI e il teaming umano-macchina è vista con particolare interesse per le applicazioni militari e industriali. Ad esempio, l’Air Force Research Laboratory (AFRL) ha esplorato il teaming umano-macchina per le operazioni militari, enfatizzando l’importanza di mantenere il controllo umano per garantire decisioni etiche e sicure in contesti complessi​ (Air Force Research Lab)​.

Il concetto di Supervisory Human Control (SHC) rappresenta uno dei principali approcci adottati per garantire che l’intelligenza artificiale operi sotto la supervisione e il controllo degli esseri umani.

Tuttavia, con l’avvento dei modelli di AI basati su fondamenti, come i modelli linguistici avanzati, l’efficacia e l’applicabilità di SHC sono state messe in discussione, portando alla nascita del concetto di Human-Machine Teaming (HMT).

Il controllo umano supervisore e le sue sfide

Il controllo umano supervisore (SHC) implica una collaborazione tra un agente umano e un agente artificiale, dove il primo ha il compito di supervisionare il secondo.

Questo approccio si basa su una sequenza temporale di cinque passaggi: pianificazione, insegnamento, monitoraggio, intervento e apprendimento dall’esperienza​​. Nonostante la sua diffusione,

SHC presenta numerosi ostacoli, tra cui la perdita di consapevolezza situazionale e la difficoltà di mantenere livelli adeguati di automazione in contesti dinamici​​.

La tassonomia dei livelli di automazione, introdotta da Sheridan e Verplank, è stata ampiamente adottata per valutare il grado di controllo umano sui sistemi artificiali.

Tuttavia, trovare e mantenere il livello adeguato di automazione non è un compito semplice, data la mancanza di linee guida chiare su come applicare e adattare la tassonomia ai diversi contesti operativi​​.

Frameworks Adattivi per il Teaming Umano-Macchina: Un’area di studio emergente è quella dei frameworks adattivi per il teaming umano-macchina, che prevedono ruoli dinamici e flessibili sia per gli umani che per le macchine. Questi frameworks aiutano a distribuire compiti in modo che il carico cognitivo umano sia gestito efficacemente, migliorando le prestazioni complessive del team​.

Le sfide nell’applicazione del SHC ai sistemi di AI basati su modelli fondamentali

Con l’aumento dell’adozione dei modelli di AI basati su fondamenti, emergono nuove sfide per l’approccio SHC.

Questi modelli richiedono un’interazione continua e dinamica tra l’operatore umano e il sistema di AI, superando i limiti delle tradizionali pratiche di supervisione.

Le capacità conversazionali avanzate dei modelli di AI, ad esempio, richiedono interventi umani regolari e una rotazione più rapida delle fasi temporali di controllo​​.

Questo rende necessario ripensare la validità del SHC e adattare l’approccio per garantire un controllo umano efficace.

L’approccio del Human-Machine Teaming (HMT)

Per rispondere alle limitazioni del SHC, l’approccio del Human-Machine Teaming (HMT) propone una collaborazione più stretta e integrata tra esseri umani e agenti artificiali.

Invece di confinare gli operatori umani a ruoli di supervisione, HMT promuove una configurazione in cui agenti umani e artificiali collaborano attivamente per raggiungere gli obiettivi desiderati​​.

Questo approccio considera i modelli di AI come partner attivi nel processo decisionale, permettendo una maggiore flessibilità e adattabilità nelle operazioni.

Implementazione dell’HMT nei sistemi basati su modelli fondamentali

Nonostante i vantaggi potenziali, l’implementazione dell’HMT presenta diverse sfide. È necessario superare quattro principali ostacoli per adattare e applicare efficacemente questo approccio ai sistemi di AI basati su modelli fondamentali:

  1. Interazione continua e dinamica: La natura interattiva dei modelli di AI richiede che gli operatori umani siano costantemente coinvolti nel processo di controllo, adattandosi rapidamente ai cambiamenti operativi.
  2. Capacità di apprendimento continuo: I modelli di AI devono essere aggiornati regolarmente attraverso l’apprendimento continuo e il feedback degli utenti, garantendo che rimangano efficaci e rilevanti.
  3. Collaborazione tra agenti umani e artificiali: È essenziale stabilire protocolli chiari per la collaborazione e la comunicazione tra agenti umani e artificiali, assicurando che entrambi i partner possano lavorare insieme in modo efficiente.
  4. Responsabilità e controllo: È fondamentale definire chiaramente i livelli di autorità e responsabilità tra agenti umani e artificiali, garantendo che gli esseri umani mantengano il controllo significativo e morale sui sistemi di AI​​.

Un tema cruciale emerso è quello della sicurezza e della privacy nelle interazioni uomo-AI. Gli studi sottolineano l’importanza di proteggere i dati sensibili e garantire che le interazioni siano sicure, soprattutto in contesti dove l’AI ha accesso a informazioni personali o critiche​

L’evoluzione dei modelli di intelligenza artificiale richiede un ripensamento dei tradizionali approcci di controllo umano. Mentre il Supervisory Human Control ha servito bene per i sistemi di AI tradizionali, le complessità dei modelli basati su fondamenti richiedono una nuova strategia.

Il Human-Machine Teaming offre una soluzione promettente, promuovendo L’UE ha mostrato un forte interesse nella regolamentazione e nella supervisione dell’AI. Le istituzioni europee hanno evidenziato la necessità di framework robusti che garantiscano il controllo umano, prevenendo abusi e assicurando che l’AI operi in maniera trasparente e responsabile​ (Mitchell Institute for Aerospace Studies)​.una collaborazione più stretta e integrata tra esseri umani e AI.

Tuttavia, la sua implementazione richiede di superare significative sfide operative e concettuali, per garantire che il controllo umano rimanga significativo ed efficace.