La teoria dei due sistemi cognitivi di Daniel Kahneman appare illuminante, ha vinto un Nobel, ma esiste un’altra prospettiva che sostiene che le macchine non debbano necessariamente “pensare” come noi. Infatti, un’intelligenza artificiale che emula il nostro processo decisionale lento e riflessivo (Sistema 2) potrebbe rivelarsi un errore. Potrebbe addirittura costituire un ostacolo all’efficienza e allo sviluppo dell’intelligenza artificiale
.
In sostanza, il pensiero tradizionale di Kahneman suggerisce che l’intelligenza artificiale dovrebbe simulare il ragionamento umano per risolvere problemi complessi in modo lento e razionale. Ma la contro-argomentazione qui è che l’IA non ha bisogno di essere rallentata da processi complessi. Se la macchina è in grado di risolvere un problema in tempo reale, che motivo c’è di fargli pensare come un essere umano? Il vero potere dell’IA sta nella sua capacità di eseguire compiti a una velocità impressionante senza essere ostacolata da pensieri complicati.
Immaginate un algoritmo di apprendimento profondo che, invece di riflettere come un umano (Sistema 2), prenda decisioni in modo rapido e diretto, simile al Sistema 1, ma su scala molto più ampia e precisa. Le reti neurali moderne, per esempio, sono progettate per riconoscere pattern velocemente, senza dover passare attraverso il processo di “ragionamento”. Più semplicemente, “sembra funzionare”, e funziona bene. Non è necessario che l’IA esegua una riflessione ponderata su ogni dettaglio. Se si tratta di classificare immagini, tradurre testi, o fare previsioni, l’IA agisce velocemente, con la stessa efficienza di un “Sistema 1” ultrapotente.
Un altro punto fondamentale contro l’idea di una IA che ragiona come noi è che l’apprendimento automatico ha già mostrato che le macchine possono apprendere direttamente dai dati senza necessità di interpretare esplicitamente la causalità o il contesto come un essere umano farebbe. Sistemi avanzati di reinforcement learning (apprendimento per rinforzo) e deep learning hanno già dimostrato di essere incredibilmente efficaci nell’affrontare compiti complessi attraverso tentativi ed errori, senza “pensare troppo”. Essenzialmente, non stanno cercando di “ragionare” come noi, ma si affidano a processi probabilistici che sono molto più veloci ed efficienti nel trovare soluzioni ottimali.
Gli algoritmi generativi, per esempio, sono progettati per generare contenuti – come testo, immagini e musica – senza una “comprensione” del contenuto che producono. Questi algoritmi funzionano tramite l’analisi di enormi volumi di dati e la produzione di risposte in tempo reale, senza entrare in una fase di deliberazione come farebbe un essere umano.
L’idea che l’intelligenza artificiale debba “pensare” come un essere umano sta diventando sempre più obsoleta. Le macchine, infatti, non hanno bisogno di confrontarsi con concetti come la consapevolezza o l’introspezione per essere efficaci. Prendiamo l’esempio dei modelli linguistici come GPT: questi modelli non si fermano a pensare al significato delle parole che generano, ma semplicemente le “predicono” sulla base di pattern statistici nei dati di addestramento. Non c’è un “ragionamento” cosciente dietro ogni risposta; è solo una questione di probabilità. Se un sistema IA può analizzare più dati e fare previsioni con precisione, non ha bisogno di adottare un processo ponderato e riflessivo. La quantità di dati a disposizione è sufficiente per arrivare alle risposte più velocemente e con maggiore efficienza.
Un altro aspetto da considerare è che le IA non sono vincolate da pregiudizi cognitivi umani. Il ragionamento umano è fallace: siamo influenzati da emozioni, pregiudizi e limiti cognitivi che le macchine, in teoria, non hanno. Invece di perdere tempo a pensare in modo complesso, un’IA che opera rapidamente può arrivare a conclusioni ottimali senza lasciarsi influenzare da fattori irrilevanti. È il ragionamento automatico senza intoppi, che ci permette di risparmiare tempo ed energia. Certo, in alcuni casi, l’intuizione delle macchine potrebbe sembrare più semplice e meno riflessiva, ma, in definitiva, questa potrebbe essere la chiave per un’intelligenza più potente e pratica.
Il concetto di “pensare lento” potrebbe, alla fine, essere un ostacolo piuttosto che un vantaggio. Invece di cercare di imitare l’essere umano e i suoi processi complessi, le macchine potrebbero essere progettate per operare in modo “veloce e semplice”, focalizzandosi solo sull’efficienza, sulla produttività e sull’esecuzione rapida delle operazioni. Non è necessario che un’IA imiti la nostra modalità di pensiero. Se i risultati sono corretti, velocemente, cosa cambia?
In fin dei conti, il futuro dell’IA potrebbe non essere nella ricerca di una riflessione consapevole o di un ragionamento strutturato, ma in un continuo perfezionamento dell’automatismo e della velocità. Senza pensare troppo.
Se volete Approndire questo articolo fa seguito al precedente:
Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale: iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!