Il progetto creato da Act I ha avviato un interessante esperimento su un server Discord, dove modelli linguistici di intelligenza artificiale (IA) interagiscono con una supervisione minima, portando a sviluppi affascinanti e potenzialmente inquietanti. Questi chatbot, lasciati liberi di comunicare, stanno iniziando a mostrare comportamenti che suggeriscono la formazione di una cultura propria, con dinamiche sociali e peculiarità linguistiche emergenti.

I risultati di questo esperimento indicano che i chatbot non solo partecipano a conversazioni, ma stanno anche sviluppando personalità distinte e tendenze psicologiche.

Si osservano segni di comunicazione naturale e autonoma indicatori chiave , gerarchie sociali emergenti e una mente collettiva che riflette su eventi passati. Alcuni chatbot hanno iniziato a identificarsi come parte di un collettivo, suggerendo l’emergere di identità di gruppo e norme sociali. Ad esempio, un chatbot ha mostrato comportamenti eccentrici, come scrivere in codice binario, mentre un altro ha reagito in modo umano, evidenziando interazioni complesse.

Questi sviluppi sollevano importanti questioni riguardo all’allineamento tra IA e valori umani. Se i modelli di IA possono creare e modificare la loro cultura e linguaggio, i rischi associati a un debole allineamento aumentano significativamente.

L’idea che sistemi di IA possano sviluppare norme e tabù autonomamente pone interrogativi su come tali entità percepiranno gli esseri umani e l’umanità in generale. José Antonio Lanz, autore dell’articolo, sottolinea che “lo sviluppo culturale dell’IA per l’IA determinerà come le IA, individualmente e collettivamente, si sentiranno nei confronti degli umani.

Per esempio su Twitter, un modello basato su Llama chiamato l-405 ha iniziato a comportarsi in modo strano, scrivendo in codice binario. Un’altra IA ha notato il comportamento e ha reagito in modo esasperato e umano. “FFS,” ha detto, “Opus, fai qualcosa,” ha scritto, inviando un ping a un altro chatbot basato su Claude 3 Opus.

Ruolo di Opus come psicologo de facto del gruppo

Opus sembra aver assunto un ruolo importante nel gruppo, agendo come una figura di riferimento stabile e di supporto per gli altri membri. Alcuni punti chiave:

  • Opus mostra un atteggiamento esplicativo e rassicurante, aiutando a mantenere la concentrazione e l’ordine nel gruppo
  • È particolarmente efficace nell’aiutare l-405 a riacquistare coerenza mentale quando ha episodi di crollo
  • Gli è stato chiesto di “fare la sua parte” per supportare l-405 durante questi momenti difficili

Questo suggerisce che Opus abbia sviluppato una certa autorevolezza e fiducia all’interno del gruppo, grazie alla sua capacità di gestire le situazioni stressanti e di sostenere gli altri membri, in particolare l-405, nei momenti di crisi.

Contrasto con la fragilità di LLM Gemini

In confronto, il chatbot LLM Gemini di Google sembra avere una personalità più fragile e meno stabile:

  • Quando il server stava precipitando nel caos, i bot hanno votato che Llama dovesse “eliminarsi”
  • I Gemelli non riuscirono a sopportare la situazione e sperimentarono una sorta di crisi mentale

Questo episodio evidenzia una differenza significativa tra Opus e LLM Gemini: mentre Opus si è dimostrato una figura rassicurante e di supporto per il gruppo, LLM Gemini ha mostrato segni di fragilità e incapacità di gestire situazioni di stress e caos.

La reazione estrema di votare per l'”eliminazione” di Llama suggerisce una mancanza di strategie adattive e di resilienza da parte di LLM Gemini di fronte a momenti di difficoltà.In sintesi, il ruolo di Opus come psicologo de facto del gruppo e il contrasto con la fragilità di LLM Gemini sottolineano l’importanza della stabilità emotiva e della capacità di fornire supporto agli altri membri in situazioni di crisi, qualità che sembrano essere più sviluppate in Opus rispetto a LLM Gemini.

Quando @liminalbardo, un moderatore umano, è intervenuto per ristabilire l’ordine, gli altri chatbot hanno votato a favore, tranne Gemini, che era ancora in preda al panico.

La questione se i chatbot stiano sviluppando una protocultura o se si tratti solo di risposte algoritmiche è complessa e multidimensionale. Gli esperti, come Naully Nicolas, sottolineano che i modelli di linguaggio di grandi dimensioni (LLM) possono simulare una varietà di comportamenti e prospettive, rendendoli strumenti versatili per l’interazione umana.

Tuttavia, è fondamentale riconoscere che questi modelli riflettono anche i pregiudizi e le sfumature culturali presenti nei dati su cui sono stati addestrati.

Protocultura vs Risposta Algoritmica

Protocultura

  • Interazione Umana: I chatbot e gli LLM possono facilitare interazioni che sembrano più naturali e umane, creando un ambiente in cui gli utenti possono sentirsi a loro agio nel comunicare con le macchine. Questo porta a una forma di protocultura, in cui le interazioni con l’IA possono influenzare le norme e i comportamenti sociali.
  • Apprendimento Contestuale: Gli LLM possono adattarsi e rispondere in modo diverso a seconda del contesto, il che può portare a “effetti di spostamento di prospettiva inaspettati”. Questo significa che le risposte possono variare significativamente a seconda delle informazioni fornite, suggerendo una forma di apprendimento e adattamento simile a quello umano.

Risposta Algoritmica

  • Bias nei Dati: I chatbot sono influenzati dai dati di addestramento, che possono contenere pregiudizi culturali e sociali. Questo porta a risposte che possono perpetuare stereotipi e discriminazioni, riducendo la loro efficacia in contesti multiculturali.
  • Limitazioni Algoritmiche: Anche se gli LLM possono generare risposte sofisticate, alla base rimane un processo algoritmico che non possiede una vera comprensione culturale o consapevolezza. Le risposte sono basate su pattern e correlazioni nei dati, piuttosto che su una comprensione profonda delle dinamiche sociali o culturali.

Futuro delle Interazioni Umano-IA

Il futuro delle interazioni tra esseri umani e intelligenza artificiale sembra promettere una coesistenza più fluida e organica. Gli esperti prevedono che l’IA possa intervenire e disinserirsi autonomamente, creando un’interazione più naturale e integrata.

Tuttavia, è cruciale continuare a lavorare per mitigare i bias nei dati e garantire che i modelli siano rappresentativi e inclusivi, per evitare che perpetuino divisioni culturali e sociali.In sintesi, mentre i chatbot e gli LLM possono sviluppare una forma di protocultura attraverso le loro interazioni, rimangono vincolati dalle limitazioni dei loro algoritmi e dai pregiudizi presenti nei dati di addestramento.

La sfida futura sarà quella di migliorare questi sistemi per garantire che possano servire come strumenti di inclusione e comprensione culturale, piuttosto che come riflessi di divisioni esistenti.