Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: ai Pagina 6 di 7

Midjourney, la versione V6 disponibile in alpha test

Midjourney ha rilasciato la versione V6 anche se non si tratta di un rilascio definitivo ma di una versione alpha messa a disposizione della community affinché gli utenti possano testarla.

Diversi i miglioramenti introdotti dal nuovo modello che ora è in grado di seguire i prompt in modo molto più preciso, inclusi prompt più lunghi, la possibilità di specificare colori e altri dettagli in un’immagine, la composizione controllata utilizzando il linguaggio naturale, l’aggiunta di testo, una migliore comprensione delle sfumature grammaticali e la possibilità di aggiungere cornici e bordi alle immagini tramite testo descrittivo. Anche gli upscaler sono stati migliorati, per un incremento di 2 volte della risoluzione.

Midjourney V6 però è molto diverso da quello della versione V5 e sarà quindi necessario imparare di nuovo il modo in cui comporre i prompt di richiesta.

In ogni caso, la versione V6, il terzo modello di Midjourney addestrato da zero sui supercluster AI del research lab in lavorazione da 9 mesi, è in grado di generare immagini molto più realistiche della versione più recente, v5.2

Il sito di fotografia PetaPixel ha provato a mettere a confronto i risultati delle due versioni.

1° Prompt: “Albert Einstein che fa un esperimento scientifico”

Midjourney 5.2

Midjourney v6

2° Prompt: “Un ritratto di Marie Curie nel suo laboratorio”

Midjourney 5.2
Midjourney v6

I risultati della v6 sono spettacolari, con un’enorme quantità di dettagli in ogni immagine e una luce eccellente. Pur riconoscendo che i risultati della versione 5.2 non sono negativi, è indubbio che la complessità delle scene nella v6 è davvero impressionante.

La community sta ovviamente testando le nuove funzionalità, sopratutto per quel che riguarda l’inserimento di testo all’interno delle immagini, una funzionalità generalmente ritenuta più debole sulla versione precedente.

Cinema, accordo sul primo contratto nazionale degli attori: illegittimo il machine learning per l’AI

Un accordo definito storico quello siglato dalle organizzazioni confederali di settore di Cgil, Cisl e Uil e dei datori di lavoro, Anica, Apa e Apee: dopo anni di battaglie, anche gli attori avranno un loro contratto collettivo nazionale che, tra le altre cose affronta anche questioni di straordinaria attualità come come l’Intelligenza Artificiale.

L’ipotesi di contratto – che dovrà comunque essere sottoposto al voto dei lavoratori e che interessa sia le situazioni di lavoro dipendente che autonomo abbracciando tutti gli interpreti di opere destinate alla distribuzione e proiezione nelle sale cinematografiche, in tv e sulle piattaforme di streaming – prevede infatti che venga costituito un tavolo di lavoro focalizzato sull’evoluzione delle tecnologie e dell’Intelligenza Artificiale.

Sull’intelligenza artificiale il contratto dispone che, in assenza di espliciti accordi, la cessione dei diritti che riguardano la riproduzione dell’immagine e della voce di ciascun interprete siano considerati leciti e validi solamente se riferiti al prodotto audiovisivo per cui sono stati realizzati e al suo conseguente sfruttamento e promozione in ogni forma, mezzo, canale e modalità.

Sono quindi considerate illegittime le estrazioni di parti di recitazione o di campionamento dell’immagine o della voce degli interpreti per sviluppare o addestrare algoritmi di intelligenza artificiale ovvero il cosiddetto machine learning, una disposizione simile a quella contenuta nel contratto dei doppiatori che prevede espressamente il divieto di modifica, rielaborazione e utilizzo in qualsiasi altra forma della voce di ciascun interprete per sviluppare o addestrare algoritmi di Intelligenza Artificiale.

L’Intelligenza Artificiale tra normativa (EU) e sviluppo (US)

Promuovere anzitutto lo sviluppo dell’Intelligenza Artificiale come sta accadendo negli Stati Uniti o preoccuparsi prima di tutto di normare la materia, i cui tassi di sviluppo e le nuove capacità stanno emergendo più velocemente di quanto i legislatori saranno comunque in grado di affrontare, come sta facendo l’Europa?

Ne parla Stefano Epifani, presidente della Fondazione per la Sostenibilità Digitale, con Enrico Pulcini di RAI GR Parlamento.

Per un tema delicato come quello dell’AI il limite tra normare e bloccare è sottile, e si colloca nella paura di ciò che non si conosce.

Un limite che non dobbiamo superare ma che, per non essere superato, richiede da una parte una profonda conoscenza delle dinamiche che sottendono la tecnologia, e dall’altra la capacità di declinarne gli impatti economici e sociali in ottica di sostenibilità.

L’AI Act non è che la mossa di apertura di una partita a scacchi che, senza una strategia, sarà impossibile vincere.

Stefano EPIFANI, Presidente FONdazione per la Sostenibilità digitale

Synthesia: generazione automatica di video con l’AI

Synthesia è una startup che si occupa di generazione automatica di video con l’ausilio dell’Intelligenza Artificiale. Creare un video non è proprio una passeggiata, bisogna avere a disposizione uno studio, degli attori, le telecamere, fare attenzione alle luci, al suono, lavorare sulla post-produzione: insomma un processo complesso. Almeno fino ad ora. Perché la capacità dei sistemi guidati dall’Intelligenza Artificiale di generare contenuti audiovisivi sta facendo dei progressi enormi grazie al rilascio di sistemi di syntetic media in grado di generare video, immagini, testi e voci direttamente dal computer.

Ed è proprio quello che fa Synthesia, il tool di creazione video AI in grado di combinare Intelligenza Artificiale generativa, avatar, voci fuori campo e montaggio per creare in pochi minuti video di alta qualità, offrendo un’ampia gamma di funzionalità, come avatar, voci, sintesi vocale e un assistente di script per semplificare il processo di creazione dei video.

E’ anche possibile personalizzare il proprio avatar in modo che abbia il nostro aspetto, così come la nostra voce, oppure accedere ad una libreria di 60 template, video, 140 avatar e l’opzione di 120 lingue. Anche se, a proposito delle lingue, forse l’italiano è ancora da perfezionare.

Sotto un breve video di esempio di quello che si può realizzare con Synthesia. La facilità di generazione video è davvero impressionante, così come l’adattabilità nelle sfumature linguistiche, tranne forse che per l’italiano.

Qui sotto la versione in inglese:

Questa la versione in spagnolo:

La versione francese:

E infine, la versione in italiano, forse la meno riuscita:

PS: il tool è a pagamento, da 20,00 euro/mese

Editoria e Intelligenza Artificiale: accordo OpenAi e Axel Springer

ChatGPT potrà accedere e proporre ai propri utenti gli articoli di Bild, Die Welt, Politico e Business Insider. E’ il risultato dell’accordo tra l’editore tedesco Axel Spriger e OpenAI che pagherà per consentire a ChatGPT di riassumere gli articoli nelle risposte generate dal chatbot e di fornire collegamenti agli articoli completi per trasparenza e ulteriori informazioni.

E’ il primo accordo del genere in Europa per il settore dell’editoria e segna un precedente importante per il settore legato al tanto discusso tema del copyright. Precedentemente Associated Press ha dichiarato di avere concesso in licenza parte del proprio archivio a OpenAI, autorizzandone l’utilizzo per l’addestramento di ChatGPT a fronte di una adeguata remunerazione.

Il settore dell’editoria e dei mezzi di informazione ha un forte interesse per lo sviluppo e l’implementazione delle tecnologie di intelligenza artificiale, perché in grado di offrire agli editori digitali la possibilità di innovare e ampliare la propria offerta informativa utilizzando nuovi strumenti (l’ottimizzazione dei processi distributivi, l’analisi dei trend di mercato e delle preferenza dei lettori, lo sviluppo di tool di raccomandazioni personalizzate), ma solleva anche interrogativi sull’idoneità del quadro normativo esistente, soprattutto per quanto riguarda i diritti d’autore e il loro utilizzo non autorizzato e non retribuito per addestrare i sistemi di Intelligenza Artificiale.

Automotive: anche l’industria dell’auto punta sull’Intelligenza Artificiale

L’Intelligenza Artificiale sarà disponibile dal prossimo anno su un’ampia gamma di auto Stellantis. A dichiararlo la stessa azienda che in una nota riporta come la sperimentazione sia già partita con successo su 20.000 vetture Ds in Italia, Francia, Spagna, Germania e Regno Unito per essere poi estesa anche ad alcuni modelli Citroen, Peugeot, alla Jeep Avenger e alla Fiat 600.

L’azienda ha anche annunciato l’obiettivo di vendere il prossimo anno in Europa 8 auto su 10 connesse con servizi che renderanno più sicura la guida e più emozionante il viaggio.

L’AI consentirà di interagire in modo sempre più completo con i passeggeri, offrendo risposte sulla destinazione del viaggio e sui luoghi attraversati, ma anche sui parcheggi e sulle colonnine di ricarica.

Il piano strategico dell’azienda mira a creare entro il 2030 un parco auto globale di oltre 34 milioni di auto connesse, continuamente aggiornate e capace di generare 20 miliardi di euro di fatturato con oltre il 40% di margine e cambiando anche il modello di business. Se prima al centro c’era l’auto con le sue caratteristiche di guida, la potenza e lo stile, sempre di più la value proposition si sposterà sul software e sulla user-experience attraverso assistenti vocali evoluti di nuova generazione.

Aleph Alpha, la startup tedesca di Intelligenza Artificiale Generativa raccoglie 500 milioni di dollari

Aleph Alpha è una start-up tedesca che fornisce sistemi di intelligenza artificiale generativa ad aziende e governi. Nel suo ultimo round di finanziamento ha raccolto più di 500 milioni di dollari da Innovation Park Artificial Intelligence (Ipai), Bosch Ventures e le società del Gruppo Schwarz, diventando un questo modo una delle start-up di AI in più rapida crescita e più apprezzate in Europa, assieme alla francese Mistral AI.

Il finanziamento farà avanzare la ricerca proprietaria sull’intelligenza artificiale e accelererà lo sviluppo e la commercializzazione dell’intelligenza artificiale generativa.

Aleph Alpha, che è stata fondata nel 2019 da Jonas Andrulis (che aveva maturato una precedente esperienza lavorando sull’intelligenza artificiale in Apple), si concentra sulla costruzione di modelli linguistici di grandi dimensioni (LLM) ma, a differenza della francese Mistral AI, è già attiva a livello commerciale. I clienti dell’azienda, che vanno dalle banche alle agenzie governative, utilizzano i LLM di Aleph Alpha per scrivere nuovi rapporti finanziari, riassumere report di centinaia di pagine e creare chatbot aziendali. Ma gli LLM sono solo una parte dell’attività su cui è concentrata l’azienda che punta allo sviluppo dell’intelligenza artificiale generale e la cui specializzazione è nella protezione e nella sicurezza dei dati regolamentati.

Proprio per questo ha aperto il suo primo data center a Berlino in modo da poter soddisfare meglio settori altamente regolamentati, come quello delle aziende governative o della sicurezza, che ritengono mandatorio il fatto che i propri dati sensibili siano ospitati in Germania o comunque all’interno dell’UE. A tale proposito il modello sviluppato da Aleph Alpha può già comunicare oltre che in tedesco, in francese, spagnolo, italiano e inglese, e i suoi dati di addestramento includono il vasto archivio di documenti pubblici multilingue pubblicati dal Parlamento Europeo.

I cambiamenti recenti e imminenti nella regolamentazione europea dell’IA generativa con l’AI Act potrebbero contribuire a detreminarne il successo nel prossimo futuro, grazie ai suoi collegamenti con enti governativi e con le forze dell’ordine. Nonostante ciò Aleph Alpha deve ancora dimostrare che la sua tecnologia sia sufficientemente avanzata da poter diventare un competitor effettivo delle grandi aziende Usa del settore.

Mistral AI, la startup francese di Intelligenza Artificiale Generativa raccoglie 385 milioni di finanziamento

Mistral AI, la start-up francese specializzata in Intelligenza Artificiale Generativa, ha appena completato un round di finanziamento da 385 milioni di euro guidato dai fondi statunitensi Andreessen Horowitz e Lightspeed Venture insieme a una serie di altri investitori tra cui Salesforce Ventures, BNP Paribas, CMA CGM, General Catalyst e, secondo quanto riportato dal quotidiano economico francese Les Echos, Nvidia.

L’azienda è stata fondata lo scorso mese di maggio da Arthur Mensch, ex ricercatore di Google DeepMind e da due soci, Timothée Lacroix e Guillaume Lample che hanno lavorato entrambi a Meta nel team responsabile dei grandi modelli linguistici (LLM), lo stesso tipo di tecnologia alla base di applicazioni come ChatGPT.

L’obiettivo dell’azienda è quello di creare un campione europeo con una vocazione globale nell’intelligenza artificiale generativa, basato su un approccio aperto, responsabile e decentralizzato alla tecnologia.

A settembre, Mistral AI ha rilasciato il suo primo modello chiamato Mistral 7B. Questo modello linguistico di grandi dimensioni non è pensato per competere direttamente con GPT-4 o Claude 2 poiché è stato addestrato su un set di dati “piccolo” di circa 7 miliardi di parametri. Invece di consentire l’accesso al modello Mistral 7B tramite API, l’azienda lo ha reso disponibile come download gratuito in modo che gli sviluppatori potessero eseguirlo sui propri dispositivi e server.

Il modello è stato rilasciato con licenza Apache 2.0, una licenza open source che non prevede restrizioni sull’uso o sulla riproduzione oltre l’attribuzione. Sebbene il modello possa essere gestito da chiunque, è stato sviluppato a porte chiuse con un set di dati proprietario e pesi non divulgati.

Adesso, senza addentrarci troppo su aspetti legati alla tecnologia, quello che mi preme sottolineare è la straordinaria attenzione che quest’azienda ha saputo catalizzare su di se, non solo in casa propria, in quella Francia alla disperata ricerca di un campione nazionale dell’AI da poter ostentare sul piano politico (ricordiamoci che il presidente Emmanuel Macron è uno dei suoi grandi sponsor) ma anche oltreoceano, dove aziende del calibro di Salesforce e Nvidia hanno ritenuto di scommettere su questa startup.

Vale peraltro la pena sottolineare come Mistral AI abbia svolto un ruolo importante nel dare forma alle discussioni sull’AI Act dell’UE, esercitando pressioni per un’esenzione totale per i modelli fondamentali e guidando in qualche modo la posizione della Francia favorevole ad una regolamentazione dell’AI che dovrebbe applicarsi invece a valle, ai casi d’uso e alle aziende che lavorano su prodotti utilizzati direttamente dagli utenti finali.

I modelli di fondazione: cosa sono e perché sono al centro del dibattito sull’Intelligenza Artificiale

L’Intelligenza Artificiale è al centro di una grande rivoluzione tecnologica, guidata principalmente dai rapidi progressi nei modelli di apprendimento automatico. Tra questi, i modelli di fondazione stanno attirando particolare attenzione, suscitando da un lato entusiasmo dall’altro preoccupazioni e controversie.

In questo articolo cercheremo di analizzare le possibili applicazioni, le controversie etiche e le problematiche legate alla loro applicazione, partendo dalla definizione del termine stesso. Nell’ambito dell’Intelligenza Artificiale infatti, con il termine “modello” si fa riferimento a un insieme strutturato di algoritmi e parametri che permettono di eseguire specifici compiti di apprendimento automatico. Tali modelli sono addestrati tramite l’analisi e l’elaborazione di dati, al fine di identificare e apprendere schemi o relazioni tra di essi.

modelli “generici” di Intelligenza Artificiale sono progettati e addestrati per svolgere compiti specifici e ben definiti e possono essere addestrati su set di dati di dimensioni variabili, a seconda del compito che dovranno svolgere.

modelli di fondazione, invece, sono addestrati su enormi quantità di dati e con moltissimi parametri. Ciò permette loro di svolgere una serie di compiti più ampia rispetto ai modelli tradizionali e possono essere definiti come “modelli di base di grandi dimensioni”. Di base perché, essendo addestrati su enormi dataset che gli consentono di acquisire una conoscenza profonda e poliedrica che può essere trasferita a una vasta gamma di compiti, costituiscono appunto le “fondamenta” o il punto di partenza per lo sviluppo di sistemi avanzati.

Le applicazioni potenziali sono enormi e la comunità scientifica ha accolto con entusiasmo i modelli di fondazione per la loro capacità di generare risultati impressionanti in diversi compiti, dalla traduzione automatica alla generazione di testo creativo. L’idea di un modello versatile, capace di apprendere in modo autonomo e migliorarsi continuamente, ha alimentato l’ottimismo riguardo alle future applicazioni dell’Intelligenza Artificiale.

Tuttavia, questa rapida evoluzione non è priva di controversie. Sorgono preoccupazioni etiche riguardo alla privacy, al bias nei dati di addestramento e alla possibile amplificazione delle disuguaglianze sociali. Inoltre, la mancanza di trasparenza nei processi decisionali di alcuni modelli di fondazione solleva interrogativi sulla responsabilità e sull’interpretabilità.

La comunità accademica è attivamente impegnata nella ricerca di soluzioni a queste problematiche. Si stanno esplorando approcci per rendere i modelli più trasparenti, per ridurre i bias nei dati di addestramento e per stabilire linee guida etiche per lo sviluppo e l’implementazione dei modelli di fondazione che siano in grado di massimizzare i benefici di questa tecnologia senza comprometterne i valori fondamentali.

Intesa UE sulle regole per l’Intelligenza Artificiale

Dopo un negoziato fiume durato oltre 36 ore i politici e i legislatori dell’Unione europea hanno raggiunto venerdì un accordo sul primo insieme completo di norme al mondo che regolano l’uso dell’Intelligenza Artificiale.

Nelle prossime settimane verranno elaborati i dettagli di quello che di fatto può essere definito un accordo politico, che dovrà poi passare dall’approvazione finale degli Stati membri oltre che dal Parlamento europeo.

I punti chiave su cui si è arrivati ad un accordo riguardano principalmente i cosidetti sistemi ad alto rischio, quelli che si ritiene possano avere una significativa potenzialità potenziale di nuocere alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia, alle elezioni e allo Stato di diritto. Questi sistemi, in particolare, dovranno rispettare una serie di requisiti e sono previsti una serie di obblighi nei confronti dei fornitori e dei sviluppatori di sistemi di IA a seconda dei livelli di rischio identificati.

I sistemi di intelligenza artificiale che si ritiene presentino rischi limitati sarebbero soggetti a obblighi di trasparenza molto leggeri, come etichette informative che dichiarino che il contenuto è stato generato dall’intelligenza artificiale per consentire agli utenti di decidere come utilizzarlo.

Uno dei capitoli più importanti, su cui il negoziato si è incagliato per ore, è quello delle pratiche di AI vietate perché potenzialmente in grado di minare i diritti fondamentali, come il divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici.

L’uso di sistemi di identificazione biometrica remota in tempo reale negli spazi pubblici da parte delle forze dell’ordine sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire una minaccia terroristica specifica e attuale. Sarà inoltre autorizzato per rintracciare persone sospettate di reati di terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale e crimini ambientali.

Tra i punti controversi, anche quello sui modelli di fondazione come GPT-4, alla base di ChatGPT. L’accordo prevede obblighi più stringenti per i modelli ad alto impatto con rischio sistemico che saranno soggetti a requisiti di trasparenza come la stesura di documentazione tecnica, il rispetto della normativa UE sul copyright e la diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione degli algoritmi.

Sono invece espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali (come invece avviene in Cina); i sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio e, più in generale, tutte quelle applicazioni dell’AI volte a sfruttare le vulnerabilità delle persone a causa della loro età, disabilità, situazione sociale o economica.

L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale“, ha scritto su X il commissario per il mercato interno Thierry Breton, secondo cui l’AI Actè molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell’UE per guidare la corsa globale all’intelligenza artificiale”.

Dello stesso tono anche il commento di uno dei correlatori della legge sull’Intelligenza Artificiale, il deputato Dragoș Tudorache: “Siamo i primi al mondo a mettere in atto una vera regolamentazione per il futuro mondo digitale guidato dall’intelligenza artificiale, guidando lo sviluppo e evoluzione di questa tecnologia in una direzione incentrata sull’uomo.

Tuttavia non mancano reazioni critiche come quella del deputato del Ppe Axel Voss che si è detto “non convintoche questo sia il modo giusto per garantire che l’Europa rimanga competitiva nell’IA. L’innovazione si farà comunque altrove“.

E il punto forse è proprio questo. L’Europa ha sicuramente vinto la gara per legiferare in materia di Intelligenza Artificiale, ma l’innovazione su questo campo si sta facendo altrove, negli Stati Uniti e in Cina. Bene guardare ad uno sviluppo responsabile dell’Intelligenza Artificiale che, come tutte le tecnologie va prima o poi regolamentata. Ma occorre anche che non si mettano troppi vincoli alle aziende europee che già sono destinate a rincorrere, perché il Vecchio Continente su questo tema non è competitivo. Non si parla poi di investimenti, di una cornice unica europea in grado di favorire la ricerca e lo sviluppo in questo ambito, con finanziamenti e interventi nel capitale di rischio di start up e piccole imprese. Perché altrimenti, ancora una volta, l’Europa rischia di perdere il treno dell’innovazione, così come è già stato per Internet e per i Social.

Large Language Model: la rivoluzione linguistica nell’Intelligenza Artificiale


Negli ultimi anni, i Large Language Model (LLM) hanno assunto un ruolo centrale nel panorama dell’Intelligenza Artificiale, rivoluzionando il modo in cui le macchine comprendono e generano linguaggio naturale. In questo articolo, esploreremo cosa sono i LLM, le loro applicazioni e il loro impatto cruciale nello sviluppo di app di intelligenza artificiale.

Definizione di Large Language Model:
I Large Language Model sono modelli di apprendimento automatico ad alta capacità computazionale addestrati su enormi dataset linguistici. Questi modelli, come GPT-3 (Generative Pre-trained Transformer 3), sono in grado di comprendere il contesto, generare testo coerente e svolgere compiti linguistici complessi.

Applicazioni Pratiche:
I Large Language Model trovano applicazione in una vasta gamma di settori, dall’elaborazione del linguaggio naturale alla creazione di contenuti e all’assistenza virtuale. Ad esempio, nella traduzione automatica, i LLM sono in grado di produrre risultati più precisi e naturali, migliorando l’accessibilità globale. In campo creativo, questi modelli possono generare testi, poesie e persino script cinematografici.

Importanza nello Sviluppo di App di Intelligenza Artificiale:
I Large Language Model sono fondamentali nello sviluppo di app di intelligenza artificiale per diverse ragioni. La loro capacità di comprendere il contesto e generare linguaggio coerente li rende preziosi per la creazione di interfacce utente più intuitive e conversazioni virtuali più naturali. Inoltre, l’adattabilità di questi modelli consente loro di essere utilizzati in una varietà di settori, dalla salute alla finanza, ampliando così il loro impatto.

Esempi Concreti:
Un esempio tangibile dell’efficacia dei Large Language Model è l’applicazione di chatbot avanzati nei servizi clienti online. Un assistente virtuale basato su un LLM può comprendere richieste complesse, rispondere in modo coerente e adattarsi a diverse interazioni con gli utenti, migliorando significativamente l’esperienza complessiva.

Prospettive Future:
I Large Language Model rappresentano quindi una pietra miliare nell’evoluzione dell’AI, potenziando applicazioni che richiedono comprensione avanzata del linguaggio naturale. Tuttavia, mentre ne esploriamo le potenzialità, è fondamentale che si affrontino sfide come la trasparenza e il bias, garantendo un utilizzo etico di queste tecnologie.

Stefano Epifani (Fondazione per la Sostenibilità Digitale): rischi e opportunità dell’Intelligenza Artificiale

Ad un anno dal lancio di Chat GPT da parte di Open AI, il prof. Stefano Epifani, presidente della Fondazione per la Sostenibilità Digitale – intervistato a Tagadà da Tiziana Panella – fa il punto sui rischi e sulle opportunità di questa nuova tecnologia che consente di simulare i processi dell’intelligenza umana attraverso la creazione e l’applicazione di algoritmi integrati in un ambiente di calcolo dinamico.

Tagadà, condotto da Tiziana Panella (edizione del 30 novembre 2023)

Un anno di Chat GPT

Esattamente un anno fa, il 30 novembre 2022, OpenAI rilasciava ChatGPT che nel giro di pochi mesi è diventata l’applicazione con la crescita più rapida di tutti i tempi. È raro che un singolo prodotto crei un impatto così forte sull’industria tecnologica in un solo anno eppure, grazie al fatto di aver reso disponibili i modelli linguistici di grandi dimensioni (LLM) ad un vasto pubblico, ha creato un nuovo filone nel mondo della tecnologia.

Durante questi 365 giorni, ChatGPT ha ampliato la percezione pubblica dell’Intelligenza Artificiale, ha catturato l’immaginazione, attirato i critici e alimentato in alcuni una sorta di angoscia esistenziale per il timore che macchine e algoritmi potessero conquistare a breve il mondo.

Ha rilanciato Microsoft (che ha investito in OpenAI 10 miliardi di dollari), ha messo sotto pressione Google, ha dettato l’agenda dei leader mondiali spingendo vari tentativi di regolamentazione governativa, ha contribuito ad aggiungere parole al nostro dizionario quotidiano, ispirando conferenze e dando il via ad una serie di altre applicazioni basate sull’intelligenza generativa per realizzare immagini, foto, musica e persino video, allarmando anche il mondo di Holliwood.

ChatGPT ha contributo ad accelerare le attività di programmazione degli sviluppatori di software, ha assistito editor, scrittori e marketing manager nelle proprie attività, ha fatto intravedere le opportunità infinite di questa tecnologia connesse alla ricerca scientifica, all’educazione e a tanti altri campi della società, anche se, da un punto di vista tecnologico, inizialmente ChatGPT non è sembrato particolarmente nuovo agli esperti del settore. I chatbot esistevano già da tempo e GPT-3, il modello di AI che ha portato a ChatGPT, era in circolazione dal 2020.

Tuttavia OpenAI non si è fermata, ha continuato a testare nuove funzionalità, aggiungendo anche un livello a pagamento per l’accesso prioritario e con il lancio di GPT-4 nel marzo 2023, ChatGPT ha ricevuto un notevole aggiornamento, diventando un assistente sempre più affidabile e ampiamente considerato il leader tra i modelli linguistici di Intelligenza Artificiale.

Come porre domande migliori a Chat GPT: i fattori chiave per scrivere dei buoni prompt

Vi è mai capitato di avere una conversazione con qualcuno e di sentirvi frustrati perché il vostro interlocutore sembrava non riuscisse a comprendere esattamente quello che stavate chiedendo?

È esattamente quello che succede con l’Intelligenza Artificiale: il modo in cui formuliamo le domande può fare la differenza nell’accuratezza delle risposte che riceviamo. Per questo è importante assicurarsi che le domande siano chiare e concise e fornire al tempo stesso informazioni di contesto e indicazioni specifiche.

Cassandra, il primo cortometraggio realizzato con il contributo dell’Intelligenza Artificiale

È disponibile da oggi su RaiPlay ‘Cassandra‘, un cortometraggio realizzato grazie alla collaborazione tra intelligenze umane e artificiali, prodotto da Scuola Holden con Rai Cinema.

Protagoniste della storia sono Agatha, una giovane studentessa della Scuola Holden, e Cassandra, una app di intelligenza artificiale predittiva. Cassandra è stata progettata per analizzare i dati raccolti sulle abitudini degli utenti e, in base a un semplice calcolo delle probabilità, può prevedere con una certa esattezza quel che accadrà nelle loro vite.

Agatha insegna a Cassandra a somigliare il più possibile a un essere umano e a parlare alle persone con una voce viva. Con il passare dei giorni, però, la ragazza capisce che le previsioni di Cassandra si spingono ben oltre i calcoli matematici, rischiando di influenzare attivamente le scelte personali di chi si affida alle sue predizioni.

Cassandra – spiega una nota di produzione – segna un nuovo modello produttivo: è il primo cortometraggio concepito e realizzato insieme all’Ai potenziando la creatività umana. I pensieri di Cassandra sono stati ispirati da un dialogo tra gli autori e un’applicazione di AI, Google Bard.

Il cortometraggio è stato poi girato in parte facendo recitare gli attori in carne e ossa, e in parte utilizzando Runway, un tool di editing video basato su intelligenza artificiale generativa che ha creato alcune scene del corto trasformandole nei pensieri di Cassandra, mentre il personaggio stesso di Cassandra è stato interamente generato con l’AI grazie alla combinazione tra Midjourney e HeyGen per l’animazione.

Infine anche il logo di Cassandra è stato sviluppato grazie a Looka, anche questa una piattaforma basata sull’intelligenza artificiale.

Di seguito il trailer:

Clicca qui per guardare il corto su Rai Play.

Intelligenza Artificiale in Russia. Putin: inaccettabile il monopolio dell’Occidente

Il presidente russo Vladimir Putin ha annunciato venerdì (23 novembre 2023) un piano per sostenere una strategia nazionale per lo sviluppo dell’intelligenza artificiale, sottolineando che è essenziale prevenire il monopolio occidentale.

Intervenendo a una conferenza sull’intelligenza artificiale a Mosca, Putin ha osservato che “è imperativo utilizzare soluzioni russe nel campo della creazione di sistemi di intelligenza artificiale affidabili e trasparenti che siano sicuri anche per l’uomo”.

Il dominio monopolistico di tale tecnologia straniera in Russia è inaccettabile, pericoloso e inammissibile”, ha affermato Putin, sottolineando come, a suo avviso, “molti sistemi moderni, basati su dati occidentali, sono destinati al mercato occidentale” riflettendo per questo “quella parte dell’etica occidentale, delle norme di comportamento e della politica pubblica a cui ci opponiamo”.

Si è impegnato a investire risorse aggiuntive nello sviluppo di supercomputer e altre tecnologie per contribuire a intensificare la ricerca nazionale sull’intelligenza artificiale.

Il governo russo da parte sua ha annunciato l’intenzione di rilasciare una tabella di marcia ufficiale per lo sviluppo dell’IA, che mira a identificare e rimuovere gli ostacoli allo sviluppo di soluzioni di IA e a stimolare la domanda di mercato interna in Russia promuovendo la cooperazione pubblico-privato e coinvolgendo l’industria privata nello sviluppo dell’IA.

Il Paese d’altra parte può contare un significativo background accademico in ambito scientifico, tecnologico, ingegneristico e matematico (STEM) assieme ad un importante bacino di talenti in all’interno delle forze armate che, attraverso la Advanced Research Foundation (ARF), svolgono un ruolo significativo nello sviluppo dell’IA, in particolare

La strategia enfatizza anche l’educazione all’IA e lo sviluppo di hardware e software per l’IA da parte delle industrie del Paese. Il settore privato russo sta vivendo una rinascita nello sviluppo dell’IA, con progetti di rilievo nelle tecnologie di riconoscimento delle immagini e del parlato. Tuttavia, il settore privato deve affrontare sfide come la limitatezza dei finanziamenti e del supporto. Anche l’esercito russo sta investendo nello sviluppo dell’IA, in particolare nei sistemi di armamento e nell’elaborazione delle informazioni per le guerre informatiche per incorporare l’IA in vari sistemi d’arma e hanno identificato i principi di sviluppo dell’IA, tra cui il riconoscimento delle immagini, il riconoscimento vocale, il controllo di sistemi militari autonomi e il supporto al ciclo di vita delle armi. Il governo sta inoltre istituendo una “tecnopoli” dell’innovazione militare chiamata “ERA” per creare un laboratorio di IA e facilitare la collaborazione tra l’esercito e il settore privato il cui sviluppo in quest’ambito è relativamente ridotto rispetto ad altri Paesi a causa della mancanza di disponibilità di capitale di rischio (come quello che guida gli investimenti nella Silicon Valley), sebbene vi siano aziende come Yandex.ru, ABBYY e VisionLabs che stanno sviluppando e utilizzando le tecnologie AI soprattutto nei settori del riconoscimento dei dati di testo e del riconoscimento facciale.

10 corsi gratuiti offerti da IBM per una carriera nel settore dell’IT

Dai fondamenti dell’Intelligenza Artificiale al Machine Learning, dai linguaggi di programmazione come Phyton alla cybersecurity, dai database relazionali agli analytics, dal supporto tecnico allo sviluppo software, sono molti i corsi totalmente gratuiti messi a disposizione da IBM tramite la piattaforma di e-learning Coursera.

Ne abbiamo selezionati 10 da non perdere per acquisire o migliorare le proprie skill professionali:

1. IBM AI Engineering

L’Intelligenza Artificiale sta rivoluzionando intere industrie, cambiando il modo in cui le aziende di tutti i settori sfruttano i dati per prendere decisioni. Per rimanere competitive, le organizzazioni hanno bisogno di ingegneri AI qualificati che utilizzino metodi all’avanguardia come gli algoritmi di apprendimento automatico e le reti neurali di apprendimento profondo per fornire informazioni azionabili basate sui dati alle loro aziende. Questo corso è stato progettato per fornire gli strumenti necessari per avere successo nella carriera di ingegneri di intelligenza artificiale o di machine learning. Imparerete i concetti fondamentali dell’apprendimento automatico e del deep learning, utilizzando linguaggi di programmazione come Python.

Link per l’iscrizione

2. IBM Machine Learning

Il Machine Learning è una delle competenze più richieste per i lavori legati alle moderne applicazioni di AI, un settore in cui le assunzioni sono cresciute del 74% all’anno negli ultimi quattro anni (fonte: LinkedIn). Questo Certificato Professionale di IBM è rivolto a chiunque sia interessato a sviluppare competenze ed esperienze per intraprendere una carriera nel Machine Learning e sfruttare i principali tipi di Machine Learning.

Link per l’iscrizione

3. IBM Cybersecurity Analyst

Certificato professionale Analista IBM per la sicurezza informatica. Se vi interessa una carriera nella cybersecurity. Il corso aiuta ad acquisire competenze pronte per un ruolo richiesto nel settore, senza bisogno di lauree o esperienze precedenti.

Link per l’iscrizione

4. IBM Data Science

Certificato professionale Scienza dei dati IBM. Per una carriera come Data Science Manager, il corso è strutturato per sviluppare le competenze richieste e l’esperienza pratica in soli 5 mesi. Non è richiesta alcuna esperienza precedente.

Link per l’iscrizione

5. IBM Data Analyst

Certificato professionale di Analista dei Dati. Con questo corso è possibile acquisire le competenze richieste e l’esperienza pratica in soli 4 mesi. Non è richiesta alcuna esperienza precedente.

Link per l’iscrizione

6. IBM Full Stack Software Developer

Certificato professionale di sviluppatore software IBM full stack. Il corso vi fornirà tutte le competenze chiave e il know-how tecnico per avviare la vostra carriera come sviluppatori di applicazioni cloud native full-stack. Guidati dagli esperti di IBM, imparerete a costruire le vostre applicazioni basate sul cloud e a lavorare con le tecnologie che le supportano.
Per iniziare questo programma non è richiesta alcuna esperienza di programmazione o background Cloud.

Link per l’iscrizione

7. IBM Data Engineering

Certificato professionale Ingegneria dei dati IBM. Il corso è pensato per aquisire le competenze richieste e l’esperienza pratica in meno di 5 mesi. Creare, progettare e gestire i database relazionali e ad applicare i concetti di amministrazione dei database (DBA) a RDBMS come MySQL, PostgreSQL e IBM Db2. Non è richiesta alcuna esperienza precedente.

Link per l’iscrizione

8. IBM Data Analytics with Excel and R

Certificato professionale IBM Data Analytics con Excel e R. Per chi è interessato ad una carriera nell’analisi dei dati. Tramite il corso si acquisiranno le competenze richieste e l’esperienza pratica in meno di 3 mesi. Non è richiesta alcuna esperienza precedente.

Link per l’iscrizione

9. IBM DevOps and Software Engineering

Certificato professionale IBM DevOps e Ingegneria del software per una carriera in DevOps e Ingegneria del Software. Il corso consente di padroneggiare DevOps, Agile, Scrum, CI/CD e Cloud Native con competenze pratiche e pronte per il lavoro.

Link per l’iscrizione

10. IBM Technical Support

Certificato professionale Assistenza IT IBM per una carriera come specialista dell’assistenza IT. Non è richiesta alcuna esperienza precedente.

Link per l’iscrizione

Auxilium, l’Intelligenza Artificiale sia un’opportunità: Don Bosco non aveva paura delle novità

L’Intelligenza Artificiale è tutt’altro che una visione di futuro ad appannaggio di pochi privilegiati: può essere un’opportunità concreta. E’ stato questo in sintesi il senso della mattinata su “Intelligenza artificiale ed Insegnamento/Apprendimento“, primo appuntamento del percorso di formazione interdisciplinare organizzato dalla Pontificia Facoltà di Scienze dell’Educazione ‘Auxilium’ di Roma.

La complessità del discorso sull’Intelligenza Artificiale” ha sottolineato la preside dell’istituto, Piera Ruffinatto “è tale da richiedere una scelta di prospettiva dalla quale osservarla. Come Facoltà di Scienze dell’Educazione siamo interessate soprattutto alle ricadute del discorso in campo educativo e formativo” sottolineando poi che l’IA si rivela “anche una straordinaria opportunità per migliorare la didattica e l’apprendimento e ottima soluzione per la didattica inclusiva“.

Michele Kettmajer, docente di Etica del digitale all’Università Cattolica di Benguela (Angola), ha sottolineato il profondo legame tra il tema dell’IA e il carisma salesiano: “Don Bosco, alla fine dell’800, promosse la nascita delle tipografie per evitare che la stampa rimanesse in mano a pochi. Lui, come pure i suoi ragazzi, non avevano paura di imparare una tecnologia, quelle del suo tempo evidentemente. Se fosse qui oggi, apprenderebbe ad usare l’IA“.

Susanna Sancassani, Responsabile del Centro Metid, il servizio di Metodi e Tecnologie Innovative per la Didattica, del Politecnico di Milano, ha sottolineato che l’IA è “una catastrofe nel senso di capovolgimento improvviso, che non possiamo sottovalutare come insegnanti, educatori e futuri docenti, in questa sua dimensione di discontinuità profonda“.

Tuttavia, se “l’IA offre ampie potenzialità, docenti ed educatori devono anche essere consapevoli delle sfide che essa presenta“. È allora importante puntare al fatto che “l’essere umano dà l’input. È la persona a dare il riferimento alla realtà, attraverso un sistema di conoscenze cui si aggancia e di cui si serve per verificare risposte giuste“.

Nasce Kyutai: il primo laboratorio europeo di ricerca sull’Intelligenza Artificiale. Open Source e No-profit

È stato inaugurato in Francia il primo laboratorio europeo dedicato alla ricerca sull’Intelligenza Artificiale. Il progetto si chiama Kyutai e poggia sui principi dell’open source e del no-profit, un modello simile a quello con cui è nata OpenAI a San Francisco qualche tempo fa.

Tra i promotori del progetto, che ha a disposizione un finanziamento iniziale di circa 300 milioni di euro, Xavier Niel, CEO e fondatore del gruppo Iliad, Rodolphe Saadé, presidente del gruppo logistico CMA CGM e Eric Schmidt, ex CEO di Google. All’evento di lancio, tenutosi nei locali di Station F, un campus per startup da 34mila metri quadri nella Halle Freyssinet, a Parigi, è intervenuto anche Jensen Huang, CEO di Nvidia, i cui processori H100 garantiscono la potenza di calcolo necessaria al nuovo progetto.

Il laboratorio punta a diventare un polo di attrazione per i talenti del settore e un centro di eccellenza nel campo dell’AI per quell’Europa che su questo tema si trova a dover inseguire Stati Uniti e Cina.

Guida ai Prompt: il RISEN framework

Mettiamo che abbiate aperto ChatGPT con in testa un’idea di ciò che volete chiedergli, ma che abbiate difficoltà a tradurre i vostri pensieri in istruzioni precise affinché ChatGPT capisca effettivamente cosa volete che faccia.

In questo caso è possibile usare i cosidetti Prompt framework che servono per dare una struttura precisa per fornire le informazioni giuste al vostro chatbot AI che state utilizzando.

YouTube lancia Dream Track per creare musica con l’Intelligenza Artificiale

YouTube ha svelato un nuovo esperimento di applicazione dell’Intelligenza Artificiale alla musica in collaborazione con il laboratorio DeepMind di Google. Uno di questi in particolare, offre agli utenti la possibilità di generare frammenti di canzoni originali, con una durata massima di 30 secondi, utilizzando l’Intelligenza Artificiale per clonare la voce dell’artista prescelto.

Dream Track, questo il nome dell’esperimento di cui parliamo, che si trova su YouTube Shorts, è realizzato in collaborazione con 9 artisti, tra cui Demi Lovato, John Legend, Alec Benjamin, Charlie Puth, Sia, Charli XCX, Papoose, T-Pain e Troye Sivan, che hanno accettato di partecipare a questo innovativo esperimento.

Dream Track è alimentato da Lyria, il modello di generazione musicale più avanzato di Google DeepMind, e al momento è accessibile solo a un piccolo gruppo di artisti e creatori.

Il funzionamento è semplice: gli utenti inseriscono un’idea nel prompt di creazione, selezionano un artista partecipante, et voilà, ottengono un frammento di canzone unico generato dall’intelligenza artificiale con la voce e lo stile di quell’artista.

Secondo Lyor Cohen, responsabile di YouTube per la musica, e Toni Reid, vicepresidente delle esperienze emergenti e dei prodotti per la comunità, l’obiettivo di questo esperimento è esplorare come la tecnologia può creare connessioni più profonde tra gli artisti, i creatori e i loro fan. I dirigenti hanno paragonato il progresso dell’intelligenza artificiale nella musica all’impacto del sintetizzatore, che ha trasformato la musica elettronica e rock.

YouTube ha condiviso esempi di tracce generate, come una frase melodica di “Charlie Puth” basata sulla richiesta di “Una ballata sugli opposti che si attraggono“.

Allo stesso modo, è stata creata un’anteprima di Dream Track per T-Pain, ispirata dalla descrizione “Una mattina soleggiata in Florida, R&B“.

Tuttavia, l’uso dell’intelligenza artificiale per imitare voci e stili artistici ha sollevato e continua a sollevare dubbi e perplessità, per i possibili abusi.

Uno degli esempi più noti è Heart on My Sleeve, una canzone con voci create dall’intelligenza artificiale che si spacciavano per Drake e The Weeknd. La canzone è stata ritirata dai servizi di streaming dopo che Universal Music Group, la casa discografica di entrambi gli artisti, l’ha criticata per “contenuti illeciti creati con l’IA generativa“. Tuttavia, la canzone è ancora accessibile agli ascoltatori su YouTube.

https://www.youtube.com/watch?v=pIJSKxVJppA

In risposta, YouTube ha adottato nuove politiche che non solo richiedono ai creator di indicare quando caricano contenuti generati dall’intelligenza artificiale, ma anche la possibilità per le case discografiche di richiedere la rimozione dei brani che utilizzano versioni generate dall’intelligenza artificiale delle voci degli artisti senza autorizzazione.

L’entusiasmo degli artisti coinvolti è palpabile. “Lo sviluppo della tecnologia AI sta cambiando rapidamente il modo in cui ci muoviamo nel mondo, e credo che come artisti dobbiamo essere parte del futuro“, ha dichiarato Demi Lovato in un comunicato. “La mia carriera è stata incentrata sul superamento dei confini… e sulla creazione della musica più interessante per i miei fan. Sono aperta e spero che questo esperimento con Google e YouTube sia un’esperienza positiva e illuminante“.

Charlie Puth ha dichiarato: “Sono estremamente emozionato e ispirato… YouTube è stato un grande partner nel delineare il proprio approccio all’IA e comprende la necessità di lavorare insieme per sviluppare questa tecnologia in modo responsabile, assicurandosi che acceleri la creatività invece di sostituirla“.

Da parte sua, T-Pain ha dichiarato: “Ho sempre voluto spingermi oltre i confini della tecnologia e sfruttarla per creare la musica più interessante per i miei fan. Chissà cosa ci riserva il futuro, ma unire le mani con YouTube e Google per contribuire a plasmare quel futuro mi sembra un ottimo primo passo“.

YouTube sottolinea l’importanza di affrontare responsabilmente l’intelligenza artificiale, riconoscendo che si tratta di una tecnologia destinata ad amplificare la creatività umana, non a sostituirla. Quel che è certo è che quando innovazione tecnologica, creatività umana e musica si incontrano, possono accadere cose straordinarie. 

Prompt Chat GPT per scrivere un articolo Seo ottimizzato

Scrivere un articolo Seo con l’aiuto di Chat GPT è abbastanza semplice, basta utilizzare il giusto Prompt. Vediamolo di seguito nel dettaglio come impostarlo al meglio.

Affrontare il rischio di Bias nei sistemi di Intelligenza Artificiale

L’introduzione e l’adozione sempre più diffuse dell’Intelligenza Artificiale (AI) hanno aperto nuove frontiere in vari settori, dall’assistenza sanitaria all’industria. Tuttavia un aspetto cruciale che richiede attenzione critica è il rischio di bias nei sistemi di AI. Questo articolo esplorerà il concetto di bias, le sue cause e le implicazioni significative nei contesti accademici e applicativi.

Definizione di Bias nell’AI:
Il bias nei sistemi di Intelligenza Artificiale si verifica quando gli algoritmi mostrano una preferenza sistematica o discriminazione nei confronti di determinati gruppi, basata su caratteristiche come razza, genere, età o altro. Questo fenomeno può influenzare le decisioni automatizzate, portando a risultati ingiusti o discriminatori.

Cause del Bias:
Le cause del bias nei sistemi di AI possono derivare da diversi fattori. Uno di essi è la natura dei dati di addestramento utilizzati per insegnare agli algoritmi. Se i dati contengono pregiudizi o riflettono disuguaglianze presenti nella società, l’AI può assimilare e perpetuare tali schemi discriminatori.

Un altro fattore critico è la progettazione degli algoritmi stessi. Se i programmatori incorporano involontariamente i propri pregiudizi nelle logiche decisionali, gli algoritmi produrranno risultati distorti. La mancanza di diversità nel team di sviluppo può anche contribuire alla mancanza di prospettive diverse nella creazione di algoritmi, aumentando il rischio di bias.

Implicazioni Accademiche:
Nel contesto accademico, il rischio di bias nei sistemi di AI solleva questioni etiche e mette in discussione l’obiettività della ricerca e delle applicazioni. Se gli algoritmi incorporano pregiudizi culturali o sociali, i risultati della ricerca potrebbero essere distorti, minando la validità e l’affidabilità delle conclusioni.

Applicazioni Pratiche:
Nel mondo reale, il bias nei sistemi di AI può avere impatti significativi. Nei settori come la finanza, la salute e la giustizia, l’adozione di decisioni basate su algoritmi con bias potrebbe tradursi in disuguaglianze e ingiustizie. Ad esempio, un sistema di selezione del personale che mostra bias potrebbe perpetuare disuguaglianze di genere o razziali.

Affrontare il Bias:
Affrontare il rischio di bias richiede un approccio multifattoriale. Dall’addestramento degli algoritmi con dati equi alla promozione della diversità nei team di sviluppo, è essenziale adottare misure preventive. L’implementazione di controlli etici e la trasparenza nell’uso dell’IA possono contribuire a ridurre il rischio di bias.


Comprendere e affrontare il rischio di bias nei sistemi di Intelligenza Artificiale è quindi fondamentale per garantire che questa innovazione sia etica e inclusiva. Nel contesto accademico, è cruciale promuovere una ricerca basata sull’equità e sull’obiettività e nei settori applicativi, la consapevolezza e l’adozione di pratiche correttive sono essenziali per evitare discriminazioni ingiuste e per plasmare un futuro in cui l’AI sia veramente al servizio della società senza perpetuare disuguaglianze.

Guida ai Prompt di Chat GPT: come ottenere suggerimenti per scrivere post e articoli

ChatGPT, come abbiamo visto, è un potente modello linguistico in grado di generare idee, fornire assistenza nella ricerca, offrire suggerimenti per la scrittura e persino aiutare con la modifica e la correzione di bozze.

In questo articolo vi proponiamo diversi suggerimenti per scrivere post e articoli per il vostro blog, tra cui la generazione di idee per argomenti, l’organizzazione di contenuti, la creazione di titoli accattivanti, le meta descrizioni, il miglioramento dello stile e del tono di scrittura e molto altro ancora.

10 Prompt per scrivere la premessa di un libro con l’aiuto di Chat GPT

Scrivere un romanzo con Chat GPT non è proprio così semplice come molti possono pensare. Non si può semplicemente chiedere a Chat GPT di scrivere un libro partendo dal nulla, così come non è possibile chiedergli di scrivere il primo, poi il secondo, il terzo capitolo e così via.

L’intelligenza artificiale non funziona in questo modo, occorre sapere come procedere passo passo per sfruttare appieno tutte le sue potenzialità.

Certamente possiamo utilizzare ChatGPT per generare idee, personaggi, dialoghi e persino parti di testo per un romanzo. Possiamo usarlo per chiedergli suggerimenti, aiutarci a sviluppare trame o anche a rispondere a domande specifiche sul nostro progetto editoriale.

ll futuro della cardiologia: Susan-Gpt-4 rivela come l’Intelligenza Artificiale sta rivoluzionando la medicina

Provate ad immaginate un futuro in cui l’Intelligenza Artificiale applicata alla medicina sarà così normale da far si che ci si possa trovare davanti non un medico vero e proprio, in carne ed ossa intendo, ma un avatar, un chat bot virtuale. Ebbene non c’è bisogno di immaginarlo perché il futuro è già qui. Bastava essere presenti all’ultimo convegno dedicato alle malattie cardiovascolari e alla cura del cuore organizzato dall’ospedale Molinette di Torino per rendersene conto.

La guest star dell’evento, se così possiamo definirla, è stata infatti proprio un algoritmo, sviluppato da Chat GPT che, assumendo le sembianze di un’avatar, ha presentato le potenzialità dell’AI in ambito medico, rispondendo alle domande di una squadra internazionale di professori e medici: Gaetano Maria De Ferrari, direttore della Cardiologia universitaria delle Molinette, Amedeo Chiribiri di Londra, Amir Lerman della Mayo Clinic di Rochester USA ed il dottor Maurizio Roberto direttore della Cardiochirurgia di Cuneo.

L’avatar cardiologa ha accettato la proposta di De Ferrari di farsi chiamare Susan per la durata della sessione scientifica e ha chiarito che il suo ruolo e la sua capacità erano quelle di fornire risposte sulla base della consultazione di una smisurata banca dati mondiale aggiornata ad aprile 2023.

Ha altresì chiarito di non provare emozioni o sentimenti in prima persona, ma di capire le emozioni dell’uomo e di poter fornire informazioni su emozioni ed esperienze umane.

Rispondendo a domande più specifiche, l’avatar cardiologa ha detto che l’Intelligenza Artificiale sta rapidamente rivoluzionando la medicina, indicando moltissimi campi di applicazione. Per quanto riguarda la cardiologia, Susan-Gpt-4 ha indicato settori specifici per i quali entro 5 anni nulla sarà come prima. Tra questi l’analisi dell’elettrocardiogramma, dove l’AI si è già dimostrata molto superiore all’uomo, l’analisi delle immagini diagnostiche come Tac, risonanza magnetica ed ecocardiogramma, l’ottimizzazione delle procedure interventistiche, quali l’ablazione della aritmie e l’impianto della valvola aortica ed anche la predizione del rischio nel singolo paziente.

Proprio in questo ultimo ambito peraltro, la Cardiologia dell’Ospedale Molinette di Torino ha, prima al mondo, sviluppato un punteggio per il rischio dopo infarto, proprio utilizzando la IA.

Susan ha anche sostenuto con forza la necessità che l’AI venga rapidamente inserita tra gli insegnamenti che si impartiscono agli studenti di Medicina ed ai neo-laureati che frequentano una scuola di specializzazione, segnalando come questi medici si troveranno ad operare in un sistema dove gli algoritmi di AI saranno utilizzati in ogni processo diagnostico ed operativo, ma con il rischio di non aver ricevuto alcuna educazione per capire le potenzialità e i limiti di questo approccio rivoluzionario, se non adeguatamente formati.

Nel corso del suo intervento Susan-Gpt-4 ha chiarito che in ogni ambito medico non potremo mai più fare a meno dell’AI, vigilando sulla correttezza del suo utilizzo e che l’uomo, in particolare il dottore empatico, che prova emozioni e le comunica al paziente ed allo studente, sarà sempre necessario sia per curare i malati che per insegnare ai giovani.

Seguiamo l’intervento:

Come scrivere un libro con l’aiuto di Chat GPT: i Prompt di scrittura

Scrivere un romanzo con Chat GPT non è proprio così semplice come molti possono pensare. Non si può semplicemente chiedere a Chat GPT di scrivere un libro partendo dal nulla, così come non è possibile chiedergli di scrivere il primo, poi il secondo, il terzo capitolo e così via.

L’intelligenza artificiale non funziona in questo modo, occorre sapere come procedere passo passo per sfruttare appieno tutte le sue potenzialità.

Certamente possiamo utilizzare ChatGPT per generare idee, personaggi, dialoghi e persino parti di testo per un romanzo. Possiamo usarlo per chiedergli suggerimenti, aiutarci a sviluppare trame o anche a rispondere a domande specifiche sul nostro progetto editoriale.

Il Giappone passa la presidenza del G7 all’Italia. Tra gli obiettivi lavoro e Intelligenza Artificiale

Il Giappone ha passato l’8 novembre all’Italia la Presidenza del G7 (che ha durata annuale e ruota tra i paesi membri in base alla sequenza Stati Uniti, Regno Unito, Germania, Giappone, Italia, Canada, Francia): tra le attività già annunciate dall’Italia ci sarà una conferenza sul rapporto tra Intelligenza Artificiale e lavoro.

Una materia, quella dell’AI “sulla quale dobbiamo coinvolgere gli attori privati, perché costruire una governance dell’intelligenza artificiale non vuol dire lavorare contro le aziende, ma dialogare col mondo privato in un mondo in cui gli interessi pubblici e privati, entrambi legittimi, non sono sempre sovrapponibili e a volte sono in contrasto” il commento del presidente del Consiglio Giorgia Meloni al Comitato per la Transizione digitale a Palazzo Chigi.

Noi dobbiamo evitare” continua la Meloni “che aumenti il divario tra i ricchi e i poveri, che scompaia la classe media e che in definitiva l’impatto dell’intelligenza artificiale sia più negativo che positivo sulle nostre vite e sulle nostre società”.

Tra le priorità indicate dal presidente del Consiglio, quella di fare in modo che l’IA sia incentrata sull’uomo e controllata dall’uomo, lavorando “per garantire delle barriere etiche all’Intelligenza artificiale e dare applicazione pratica al concetto di algoretica, ovvero dare un’etica agli algoritmi” che ha chiuso ringraziando su questo punto Padre Paolo Benanti, docente all’Università Gregoriana, che è stato recentemente nominato dal Segretario Generale delle Nazioni Unite, unico italiano, come membro del Comitato di esperti sull’Intelligenza Artificiale.

Il G7 2024 si svolgerà dal 13 al 15 giugno in Puglia, nella Valle d’Itria, a Borgo Egnazia.

Samsung: l’Intelligenza Artificiale tradurrà le telefonate in tempo reale

Anche Samsung si lancia nel mondo dell’intelligenza artificiale. L’azienda sta lavorando alla sua IA che dovrebbe arrivare a inizio del 2024 ed essere resa disponibile sui telefoni più recenti. Tra le funzioni più interessanti che verranno abilitate un traduttore audio e testo delle telefonate in tempo reale, rendendo così più semplice effettuare una chiamata in un’altra lingua grazie all’AI generativa Gauss.

Sviluppata da Samsung Research, l’intelligenza artificiale generativa è composta da tre modelli: Samsung Gauss Language, Samsung Gauss Code e Samsung Gauss Image.

Il colosso tecnologico sudcoreano ha affermato che il suo modello di intelligenza artificiale prende il nome da Carl Friedrich Gauss, il matematico che stabilì la teoria della distribuzione normale, la spina dorsale dell’apprendimento automatico e dell’intelligenza artificiale.

Samsung Gauss incarnerà la nostra visione di sfruttare la potenza dell’intelligenza artificiale per migliorare la vita dei consumatori di tutto il mondo”, ha affermato un dirigente dell’azienda al Samsung AI Forum 2023 che si è tenuto questa settimana a Seul.

In particolare, la funzione di traduzione AI Live Translate Call metterà a disposizione degli utenti un traduttore personale ogni volta che ne avranno bisogno. Le traduzioni audio e testuali appariranno in tempo reale mentre si parla, rendendo estremamente semplice effettuare una chiamata in un’altra lingua.

Sebbene Samsung non abbia specificato la disponibilità della sua piattaforma AI al forum, gli esperti del settore si aspettano che l’IA on-device basata su Samsung Gauss sarà incorporata nella sua linea di smartphone di prossima generazione della serie Galaxy S24, il cui lancio è previsto per gennaio 2024.

Con il rilascio di Samsung Gauss, Samsung entra nell’arena dell’AI globale, preparandosi a competere seriamente con le Big Tech del settore.

Chat GPT fallisce il test di Touring

Non ce l’ha fatta: ChatGpt non ha superato il test di Turing, ideato per capire se una macchina ha raggiunto un livello di intelligenza tale da poter ingannare qualcuno facendogli credere di essere umana.

Ci è andata però molto vicino: nella sua versione più aggiornata, Gpt-4, è riuscita a ingannare i partecipanti il 41% delle volte. Il risultato è stato pubblicato sulla piattaforma arXiv, che ospita lavori non ancora passati al vaglio della comunità scientifica, da due ricercatori dell’Università della California a San Diego.

I due ricercatori Cameron Jones e Benjamin Bergen hanno arruolato 650 partecipanti per sostenere brevi conversazioni con altri volontari oppure con ChatGpt, a loro insaputa.

L’ultima versione Gpt-4, rilasciata dall’azienda OpenAI quest’anno, ha convinto i partecipanti di essere una persona il 41% delle volte, mentre la versione precedente, chiamata Gpt-3.5, solo dal 5% al 14% delle volte.

È interessante anche notare che gli esseri umani sono riusciti a convincere gli altri volontari di non essere delle macchine solo nel 63% delle prove.

Coloro che hanno smascherato correttamente ChatGpt si sono basati su alcuni fattori chiave: conversazioni troppo formali o, all’opposto, troppo informali, testi eccessivamente prolissi o molto sintetici, oppure anche una grammatica e una punteggiatura eccezionalmente buona o pessima, erano tutti elementi che facevano risuonare un segnale di ‘allarme’. Un’altra caratteristica rivelatrice è risultata la genericità della risposta. “Questi sistemi sono ottimizzati per produrre testi altamente probabili e per evitare opinioni controverse“, spiegano gli autori dello studio: “e ciò incoraggia risposte molto generiche, prive delle idiosincrasie tipiche di una persona“.

Boom dell’Intelligenza Artificiale: previsto un mercato da 3.636 miliardi di dollari entro il 2033

Secondo l’ultimo report pubblicato da Allied Market, il mercato globale dell’Intelligenza Artificiale (AI) ha un valore pari a 153,6 miliardi di dollari nel 2023 e si prevede che raggiungerà i 3.636 miliardi di dollari entro il 2033, crescendo a un CAGR del 37,3% dal 2024 al 2033.

La domanda di sistemi di intelligenza artificiale è aumentata negli ultimi anni e si prevede che questa tendenza continuerà anche nei prossimi anni, a causa della maggiore competitività sul mercato e dell’aumento degli standard di qualità, che consentiranno lo sviluppo di applicazioni basate sull’intelligenza artificiale nell’automatizzare le operazioni aziendali mantenendone e molto probabilmente aumentandone la qualità e l’efficienza.

Le crescenti applicazioni dell’intelligenza artificiale stanno inoltre aumentando la sua domanda da parte dei Governi e delle Organizzazioni del settore pubblico in un’ottica di crescente digitalizzazione delle attività.

I principali fornitori del mercato dell’intelligenza artificiale come Amazon Web Services, Inc., Apple Inc., Google LLC, IBM Corporation, Intel Corporation, Microsoft Corporation, Nvidia , Oracle Corporation, SAP SE, Siemens e OpenAI rappresentano e continueraano a rappresentare una quota significativa del mercato. Con la crescente richiesta di hardware e software per l’intelligenza artificiale, diverse aziende stanno chiudendo accordi di partnership per sviluppare ulteriormente le capacità dell’intelligenza artificiale. Si prevede inoltre una crescita delle attività di merger e acquisition ne settore. 

In particolare, i fattori che guideranno la crescita del settore saranno l’aumento degli investimenti nei sistemi di intelligenza artificiale, l’aumento della collaborazione tra le industrie e le società di soluzioni di intelligenza artificiale e apprendimento automatico, l’aumento della soddisfazione dei clienti e l’adozione di applicazioni cloud affidabili.

AI Safety Summit a Bletchley Park: la Gran Bretagna prova a guidare il dibattito globale sull’Intelligenza Artificiale

La Gran Bretagna ha deciso di ospitare il suo primo vertice globale sull’intelligenza artificiale, l’AI Safety Summit, a Bletchley Park, proprio nel sito considerato il luogo di nascita dell’informatica grazie ai progressi nei processi crittografici e di intelligence durante la Seconda Guerra Mondiale.

I timori sull’impatto che l’Intelligenza Artificiale potrebbe avere sulle economie e sulla società sono esplosi nel novembre dello scorso anno quando OpenAI ha reso disponibile al pubblico la sua tecnologia. ChatGPT, utilizzando strumenti di elaborazione del linguaggio naturale per creare un dialogo simile a quello umano, ha alimentato i timori (anche tra alcuni pionieri dell’intelligenza artificiale), che le macchine potrebbero col tempo raggiungere un’intelligenza maggiore rispetto agli umani, portando a conseguenze illimitate e non intenzionali.

Negli ultimi tempi si rileva un grande fermento sotto questo aspetto, con i Governi e la politica che stanno cercando di tracciare una via da seguire insieme alle aziende di intelligenza artificiale che temono dal canto loro di essere appesantite dalla regolamentazione prima ancora che la tecnologia raggiunga il suo pieno potenziale.

Mentre l’Unione Europea ha concentrato la sua supervisione sull’AI, l’AI Act, sui temi come la privacy, la sorveglianza dei dati e il loro potenziale impatto sui diritti umani – un po’ come fatto dall’amministrazione Biden con l’Ordine Esecutivo sull’AI – il vertice britannico ha invece come obiettivo principale quello di esaminare i cosiddetti rischi esistenziali derivanti da modelli generici altamente capaci chiamati “AI di frontiera”, anche perché la Gran Bretagna non ha in programma, almeno per il momento, una legislazione specifica per regolamentare l’Intelligenza Artificiale.

Il vertice, che si è tenuto il 1° e 2 novembre scorsi, nasce per volontà del primo ministro britannico Rishi Sunak, che vorrebbe ritagliare per la Gran Bratagna post-Brexit un ruolo come intermediario tra i blocchi economici di Stati Uniti, Cina e UE.

Anche se l’evento è stato un po’ offuscato dalla decisione della vicepresidente americana Kamala Harris di tenere un discorso a Londra proprio il giorno di inizio del summit sulla risposta del suo governo all’intelligenza artificiale, esponendo la sua visione su come il mondo dovrebbe governare questa tecnologia (e auspicando che tutti i Paesi aderiscano all’approccio USA su questa tematica), il Summit ha comunque avuto il merito di coinvolgere anche la Cina, un partecipante chiave al vertice, dato il ruolo del Paese nello sviluppo dell’Intelligenza Artificiale, sia pure con il solito doppio standard di Pechino.

Alla fine, sebbene ogni delegazione presente fosse ansiosa di rivendicare la propria preminenza nella regolamentazione dell’IA, i rappresentanti dei 25 Paesi partecipanti, assieme ad altri attori pubblici e privati, tra cui il segretario generale dell’Onu, Antònio Guterres e la presidente della Commissione europea, Ursula Von der Leyen, hanno firmato la “Dichiarazione di Bletchley” in cui si afferma che i Paesi devono lavorare insieme e stabilire un approccio comune sulla supervisione.

La dichiarazione definisce un’agenda su due fronti incentrata sull’identificazione dei rischi di preoccupazione condivisa e sulla costruzione della loro comprensione scientifica, sviluppando allo stesso tempo politiche transnazionali per mitigarli.

Difficile in ogni caso dire se la Gran Bretagna a guida Sunak possa davvero riuscire a ritagliarsi un ruolo nella corsa a mettere il cappello sulla regolamentazione di un tema come quello dell’Intelligenza Artificiale dove ognuno, singoli Paesi come gli USA ma anche organizzazioni, come l’Onu, l’UE e il G7 vogliono affermare la propria leadership.

La Dichiarazione di Bletchley sull’Intelligenza Artificiale

L’AI Safety Summit sull’Intelligenza Artificiale, organizzato dal Primo Ministro inglese Rishi Sunak si è concluso con un accordo noto come la Dichiarazione di Bletchley, che mira a gestire i rischi dell’IA e a promuovere la collaborazione attraverso organizzazioni internazionali esistenti e nuove iniziative.

Quali sono i punti Chiave della Dichiarazione di Bletchley
La Dichiarazione di Bletchley traccia una visione condivisa per promuovere la sicurezza e le considerazioni etiche nello sviluppo e nell’implementazione dell’Intelligenza Artificiale (IA).

Di seguito i principi fondamentali inclusi nella dichiarazione:

Cooperazione Internazionale
Si pone un forte accento sulla promozione della cooperazione internazionale per affrontare il complesso panorama della sicurezza dell’IA. La dichiarazione sottolinea la necessità di un fronte unito nel far fronte alle sfide e nel sfruttare le opportunità che l’IA presenta su scala globale.

Standard di Sicurezza
La dichiarazione sostiene l’istituzione e l’adesione a standard di sicurezza elevati nella progettazione, sviluppo e implementazione dei sistemi di IA. Ciò include un impegno condiviso a ridurre i rischi associati all’IA e assicurare che queste tecnologie siano sviluppate con un approccio orientato alla sicurezza.

IA Etica
Una forte bussola morale guida la dichiarazione, enfatizzando l’importanza delle considerazioni etiche nell’IA. Questo include assicurare che le tecnologie di IA rispettino i diritti umani, la privacy e i valori democratici, promuovendo un approccio centrato sull’essere umano all’IA.

Trasparenza e Responsabilità
La dichiarazione mette in luce anche l’importanza critica della trasparenza e della responsabilità nei sistemi di IA. Questo è visto come un pilastro fondamentale per costruire la fiducia e la comprensione del pubblico, essenziali per l’integrazione di successo delle tecnologie di IA nella società.

Condivisione della Conoscenza
L’incoraggiamento alla condivisione della conoscenza e alla ricerca collaborativa tra le nazioni è un aspetto chiave della dichiarazione. Questo mira ad accelerare la comprensione globale e la mitigazione dei rischi legati all’IA, promuovendo una cultura di apprendimento condiviso e miglioramento continuo nelle pratiche di sicurezza dell’IA.

Sotto il testo integrale della Dichiarazione di Bletchley:

“L’intelligenza artificiale (AI) presenta enormi opportunità globali: ha il potenziale per trasformare e migliorare il benessere umano, la pace e la prosperità. Per realizzare ciò, affermiamo che, per il bene di tutti, l’intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo tale da essere incentrata sull’uomo, affidabile e responsabile. Accogliamo con favore gli sforzi compiuti finora dalla comunità internazionale per cooperare sull’intelligenza artificiale per promuovere la crescita economica inclusiva, lo sviluppo sostenibile e l’innovazione, per proteggere i diritti umani e le libertà fondamentali e per promuovere la fiducia del pubblico nei sistemi di  intelligenza artificiale per realizzare appieno il loro potenziale.

I sistemi di intelligenza artificiale sono già utilizzati in molti ambiti della vita quotidiana, tra cui alloggio, occupazione, trasporti, istruzione, sanità, accessibilità e giustizia, e il loro utilizzo è destinato ad aumentare. Riconosciamo che questo è quindi un momento unico per agire e affermare la necessità di uno sviluppo sicuro dell’IA e di utilizzare le opportunità di trasformazione dell’IA per il bene e per tutti, in modo inclusivo nei nostri paesi e a livello globale. Ciò include servizi pubblici come sanità e istruzione, sicurezza alimentare, scienza, energia pulita, biodiversità e clima, per realizzare il godimento dei diritti umani e per rafforzare gli sforzi verso il raggiungimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite.

Oltre a queste opportunità, l’intelligenza artificiale comporta anche rischi significativi, anche negli ambiti della vita quotidiana. A tal fine, accogliamo con favore gli sforzi internazionali volti a esaminare e affrontare il potenziale impatto dei sistemi di intelligenza artificiale nei forum esistenti e in altre iniziative pertinenti, e il riconoscimento che la tutela dei diritti umani, la trasparenza e la spiegabilità, l’equità, la responsabilità, la regolamentazione, la sicurezza, un’adeguata È necessario affrontare il problema del controllo umano, dell’etica, della mitigazione dei pregiudizi, della privacy e della protezione dei dati. Notiamo inoltre i potenziali rischi imprevisti derivanti dalla capacità di manipolare contenuti o generare contenuti ingannevoli. Tutte queste questioni sono di fondamentale importanza e affermiamo la necessità e l’urgenza di affrontarle. 

Particolari rischi per la sicurezza emergono alla “frontiera” dell’IA , intesa come quei modelli di IA per scopi generali altamente capaci , compresi i modelli di base, che potrebbero svolgere un’ampia varietà di compiti, così come l’ IA specifica e ristretta che potrebbe mostrare capacità che causano danno – che corrispondono o superano le capacità presenti nei modelli più avanzati di oggi. Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi di controllo non intenzionali relativi all’allineamento con l’intento umano. Questi problemi sono in parte dovuti al fatto che tali capacità non sono completamente comprese e sono quindi difficili da prevedere. Siamo particolarmente preoccupati da tali rischi in settori quali la sicurezza informatica e la biotecnologia, nonché laddove i sistemi di intelligenza artificiale di frontiera possono amplificare rischi come la disinformazione. Esiste il rischio di danni gravi, persino catastrofici, deliberati o involontari, derivanti dalle capacità più significative di questi modelli di intelligenza artificiale . Dato il tasso di cambiamento rapido e incerto dell’intelligenza artificiale e nel contesto dell’accelerazione degli investimenti nella tecnologia, affermiamo che approfondire la nostra comprensione di questi potenziali rischi e delle azioni per affrontarli è particolarmente urgente.

Molti rischi derivanti dall’intelligenza artificiale sono intrinsecamente di natura internazionale e quindi possono essere affrontati meglio attraverso la cooperazione internazionale. Decidiamo di lavorare insieme in modo inclusivo per garantire un’IA incentrata sull’uomo, affidabile e responsabile che sia sicura e sostenga il bene di tutti attraverso i forum internazionali esistenti e altre iniziative pertinenti, per promuovere la cooperazione per affrontare l’ampia gamma di rischi posti da AI . In tal modo, riconosciamo che i paesi dovrebbero considerare l’importanza di una governance e di un approccio normativo proporzionato e pro-innovazione che massimizzi i benefici e tenga conto dei rischi associati all’intelligenza artificiale . Ciò potrebbe includere, ove opportuno, classificazioni e categorizzazioni dei rischi basate sulle circostanze nazionali e sui quadri giuridici applicabili. Notiamo inoltre l’importanza della cooperazione, ove opportuno, su approcci quali principi comuni e codici di condotta. Per quanto riguarda i rischi specifici riscontrati molto probabilmente in relazione all’IA di frontiera, decidiamo di intensificare e sostenere la nostra cooperazione e di ampliarla con altri paesi, per identificare, comprendere e, se del caso, agire, attraverso i forum internazionali esistenti e altre iniziative pertinenti, tra cui futuri vertici internazionali sulla sicurezza dell’intelligenza artificiale .

Tutti gli attori hanno un ruolo da svolgere nel garantire la sicurezza dell’IA : le nazioni, i forum internazionali e altre iniziative, le aziende, la società civile e il mondo accademico dovranno lavorare insieme. Rilevando l’importanza di un’intelligenza artificiale inclusiva e di colmare il divario digitale, riaffermiamo che la collaborazione internazionale dovrebbe cercare di coinvolgere un’ampia gamma di partner, a seconda dei casi, e accogliere con favore approcci e politiche orientati allo sviluppo che potrebbero aiutare i paesi in via di sviluppo a rafforzare lo sviluppo e l’effetto leva delle capacità dell’intelligenza artificiale . il ruolo abilitante dell’intelligenza artificiale per sostenere la crescita sostenibile e colmare il divario di sviluppo.

Affermiamo che, sebbene la sicurezza debba essere considerata in tutto il ciclo di vita dell’IA , gli attori che sviluppano capacità di IA di frontiera , in particolare quei sistemi di IA insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di IA , anche attraverso sistemi per i test di sicurezza, attraverso valutazioni e altre misure appropriate. Incoraggiamo tutti gli attori rilevanti a fornire trasparenza e responsabilità adeguate al contesto sui loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che potrebbero emergere, in particolare per prevenire abusi e problemi di controllo e l’amplificazione di altri rischi.

Nel contesto della nostra cooperazione, e per informare l’azione a livello nazionale e internazionale, la nostra agenda per affrontare il rischio dell’IA di frontiera si concentrerà su:

  • identificare i rischi per la sicurezza dell’IA di interesse condiviso, costruire una comprensione scientifica condivisa e basata sull’evidenza di questi rischi e sostenere tale comprensione mentre le capacità continuano ad aumentare, nel contesto di un approccio globale più ampio alla comprensione dell’impatto dell’IA nelle nostre società .
  • costruendo rispettive politiche basate sul rischio in tutti i nostri paesi per garantire la sicurezza alla luce di tali rischi, collaborando in modo appropriato e riconoscendo che i nostri approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili. Ciò include, oltre a una maggiore trasparenza da parte degli attori privati ​​che sviluppano capacità di intelligenza artificiale di frontiera , parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di capacità pertinenti del settore pubblico e della ricerca scientifica.

A sostegno di questo programma, decidiamo di sostenere una rete inclusiva a livello internazionale di ricerca scientifica sulla sicurezza dell’IA di frontiera che comprenda e integri la collaborazione multilaterale, plurilaterale e bilaterale esistente e nuova, anche attraverso forum internazionali esistenti e altre iniziative pertinenti, per facilitare la fornitura di la migliore scienza disponibile per l’elaborazione delle politiche e il bene pubblico.

Riconoscendo il potenziale positivo di trasformazione dell’IA e come parte della garanzia di una più ampia cooperazione internazionale sull’IA , decidiamo di sostenere un dialogo globale inclusivo che coinvolga i forum internazionali esistenti e altre iniziative pertinenti e contribuisca in modo aperto a discussioni internazionali più ampie, e continuare la ricerca sulla sicurezza dell’IA di frontiera per garantire che i vantaggi della tecnologia possano essere sfruttati in modo responsabile per il bene e per tutti. Non vediamo l’ora di incontrarci di nuovo nel 2024″.

Kamala Harris ruba la scena a Rishi Sunak. Gli USA vogliono scrivere le regole dell’AI

Mentre l’evento clou sul tema dell’Intelligenza Artificiale organizzato dal primo ministro britannico Rishi Sunak prendeva il via mercoledì scorso (1° novembre) a Bletchley Park, 50 miglia più a sud presso l’ambasciata americana a Londra, il vicepresidente americano Kamala Harris ha esposto la sua visione su come il mondo dovrebbe governare questa tecnologia, annunciando una serie di nuove iniziative degli USA per promuovere un uso sicuro e responsabile dell’IA.

Un intervento quello della Harris – preceduto dall’Ordine Esecutivo in materia di AI firmato dal Presidente Joe Biden il 30 ottobre – che ha messo un po’ in ombra l’AI Safety Summit inglese, volto a dimostrare al mondo la leadership degli Stati Uniti su questa tecnologia e a ribadire la volontà di Washington di voler dettare le regole in tema di Intelligenza Artificiale.

Nel suo discorso la vicepresidente Kamala Harris ha invitato i leader mondiali ad affrontare le minacce che l’intelligenza artificiale rappresenta per i diritti umani e i valori democratici ed ha annunciato le misure che l’amministrazione Biden adotterà per gestire i rischi e le sfide normative della tecnologia emergente.

In particolare, la Harris ha posto l’enfasi sulla tutela dei consumatori e su come l’intelligenza artificiale potrebbe esacerbare le disuguaglianze esistenti affermando che i programmi di intelligenza artificiale possono produrre risultati distorti che discriminano in base alla razza, al sesso o all’età.

“Come la storia ha dimostrato, in assenza di regolamentazione e di una forte supervisione da parte del governo, alcune aziende tecnologiche scelgono di dare priorità al profitto rispetto al benessere dei propri clienti, alla sicurezza delle nostre comunità e alla stabilità delle nostre democrazie”, ha concluso la Harris, annunciando poi alcune misure aggiuntive che gli Stati Uniti stanno adottando per arricchire e sviluppare l’Ordine Esecutivo in materia di AI di Biden tra i quali la creazione di un “Istituto per la sicurezza dell’intelligenza artificiale”, che creerebbe standard per testare la sicurezza dei modelli di intelligenza artificiale per uso pubblico e nuove linee guida per le agenzie federali per garantire che la tecnologia venga utilizzata in futuro per il bene pubblico.

Un futuro in cui l’IA sia utilizzata per promuovere i diritti umani e la dignità umana, in cui la privacy sia protetta e le persone abbiano pari accesso alle opportunità, in cui rendiamo le nostre democrazie più forti e il nostro mondo più sicuro.

“Prima che l’IA generativa conquistasse l’attenzione mondiale, il Presidente Biden e io” ha aggiunto il vicepresidente americano, “abbiamo riunito i leader di tutto il Paese, dagli informatici agli attivisti per i diritti civili, ai leader aziendali e agli studiosi di diritto, per garantire che i benefici dell’IA siano condivisi in modo equo e per affrontare le minacce prevedibili, tra cui i deep fake, le violazioni della privacy dei dati e la discriminazione algoritmica”.

“Abbiamo poi creato la Carta dei diritti dell’intelligenza artificiale” continua la Harris sottolinenando come l’amministrazione Biden si sia impregnata ad istituire un programma nazionale di segnalazione sull’uso non sicuro dell’IA negli ospedali e nelle strutture mediche, a promuovere la creazione da parte delle aziende tecnologiche di strumenti per aiutare i consumatori a distinguere se i contenuti audio e visivi sono generati dall’IA e prevedendo un obbligo per gli sviluppatori di presentare al governo degli Stati Uniti i risultati dei test sulla sicurezza dell’IA.

La Harris ha poi rimarcato come la sua amministrazione stia prendendo provvedimenti per stabilire i requisiti affinché il governo degli Stati Uniti, quando utilizza l’IA, promuova l’interesse pubblico, auspicando che queste politiche nazionali sull’IA servano da modello per tutte le politiche globali e rendendo quindi chiara l’intenzione degli Stati Uniti di rimanere l’egemone tecnologico mondiale e scrivere le proprie regole del gioco.

“Cerchiamo di essere chiari: quando si tratta di intelligenza artificiale, l’America è un leader globale. Sono le aziende americane a guidare il mondo nell’innovazione dell’intelligenza artificiale. È l’America che può catalizzare l’azione globale e costruire un consenso globale in un modo che nessun altro paese può fare”, ha dichiarato la Harris prima di volare al vertice di Bletchley Park del governo britannico sulla sicurezza dell’intelligenza artificiale.

D’altra parte il dominio americano nella ricerca e sviluppo dell’Intelligenza Artificiale è difficilmente contestabile. Secondo il rapporto State of AI del 2023 il 70% dei documenti di ricerca più citati sull’Intelligenza Artificiale sono stati pubblicati da Università e Istituti di ricerca americani, senza contare che aziende del calibro di Google, Meta, Microsoft, ma anche Open Ai e la miriade di start-up innovative sull’AI generativa hanno sede nella costa occidentale degli USA.

Rivoluzione medica: come l’Intelligenza Artificiale sta trasformando la salute e la medicina

L’Intelligenza Artificiale (IA) sta emergendo come una forza trasformativa nel settore della salute e della medicina, portando con sé una serie di benefici tangibili per pazienti e professionisti sanitari. Questo avanzamento tecnologico sta ridefinendo i paradigmi tradizionali e aprendo nuove frontiere in termini di diagnosi, trattamenti personalizzati e gestione delle cure.

Uno dei principali ambiti di applicazione dell’IA nella medicina è l’analisi di dati medici complessi. I sistemi di apprendimento automatico possono esaminare grandi dataset, identificando pattern e correlazioni difficili da individuare manualmente. Ciò si traduce in diagnosi più rapide e accurate, consentendo ai medici di pianificare trattamenti mirati e personalizzati.

In cardiologia, ad esempio, l’IA sta rivoluzionando l’interpretazione dell’elettrocardiogramma (ECG) e l’analisi delle immagini diagnostiche. Algoritmi avanzati possono individuare segni precoci di malattie cardiovascolari con una precisione sorprendente, consentendo interventi tempestivi e riducendo il rischio di complicazioni.

Un altro campo di grande potenziale è la predizione del rischio individuale. Utilizzando algoritmi predittivi, l’IA può valutare i fattori di rischio di un paziente e prevedere lo sviluppo di malattie, consentendo interventi preventivi e strategie di gestione personalizzate.

L’automazione dei compiti ripetitivi è un ulteriore vantaggio offerto dall’IA nel settore della salute. I chatbot intelligenti possono gestire le interazioni paziente-medico, fornendo informazioni, prenotando appuntamenti e rispondendo a domande comuni. Inoltre l’Intelligenza Artificiale può contribuire in modo importante alla precisione delle diagnosi, alla personalizzazione dei trattamenti e anche alla semplificazione delle procedure amministrative.

Sono tutte attività che liberano il tempo dei medici affinché possano concentrarsi su compiti più complessi e relazioni più approfondite con i pazienti, perché, ed è importante sottolinearlo, l’IA non sostituirà mai completamente il ruolo umano nella cura della salute. La componente umana dell’empatia, della comprensione emotiva e della comunicazione sono elementi irrinunciabili nel rapporto tra paziente e dottore.

Bletchley Park, la sede iconica dei decifratori inglesi durante la II Guerra Mondiale, scelta come sede per il primo vertice sull’intelligenza artificiale del Regno Unito

La Gran Bretagna ha deciso di ospitare il suo primo vertice globale sull’intelligenza artificiale (l’AI Safety Summit) a Bletchley Park, nel sito considerato il luogo di nascita dell’informatica grazie ai progressi nei processi crittografici e di intelligence durante la Seconda Guerra Mondiale.

Durante la II guerra mondiale, un gruppo di matematici, crittografi, esperti in enigmistica e maestri di scacchi si riunirono in una casa di campagna vittoriana a 45 miglia a nord-ovest di Londra per intraprendere una guerra segreta contro la Germania nazista. Il loro obiettivo: decifrare i codici inviolabili di Adolf Hitler.

L’impresa più famosa di Bletchley Park fu quella di superare in astuzia la macchina di crittografia tedesca Enigma, che produceva un codice in costante cambiamento ed era ampiamente considerata indecifrabile. Per riuscirci, il matematico Alan Turing sviluppò una macchina considerata il precursore dei computer moderni.

I messaggi Enigma decifrati rivelarono dettagli sui movimenti delle flotte di sottomarini tedeschi e fornirono informazioni cruciali per la campagna nel deserto del Nord Africa e l’invasione alleata della Francia. Alcuni storici sostengono che decifrare il codice abbia contribuito ad abbreviare la guerra fino a due anni.

Il lavoro a Bletchley Park ha accelerato lo sviluppo dell’informatica. Gli scienziati che vi lavoravano costruirono quella che può essere considerata come la prima generazione di computer praticamente dal nulla.

Quando finì la guerra, i decifratori tornarono alla vita civile, giurando di mantenere il segreto sul loro lavoro in quel posto. Fu solo negli anni ’70 che quanto successo a Bletchley Park divenne ampiamente conosciuta in Gran Bretagna e nel mondo.

Non c’è da sorprendersi quindi se Bletchley Park,  aperto come museo nel 1994 e riportato al suo aspetto degli anni ’40, completo di macchine da scrivere manuali, telefoni d’epoca e tazze smaltate, si stato scelto come sede del primo vertice internazionale sull’Intelligenza Artificiale dal primo ministro britannico Rishi Sunak, che vorrebbe ritagliare per il suo Paese un ruolo post-Brexit come intermediario tra i blocchi economici di Stati Uniti, Cina e UE.

Sicurezza e innovazione: Joe Biden firma l’Ordine Esecutivo sull’Intelligenza Atificiale

Il Presidente degli Stati Uniti Joe Biden ha firmato lo scorso lunedì (30 ottobre) un Ordine Esecutivo sull’Intelligenza Artificiale che cerca di bilanciare le esigenze di sviluppo delle aziende tecnologiche con la sicurezza nazionale e i diritti dei consumatori, richiedendo all’industria di sviluppare standard di sicurezza e protezione, indicando una serie di linee guida che potrebbero essere rafforzate da ulteriori interventi legislativi e fornendo alle agenzie federali un ampio elenco di cose da fare per supervisionare una tecnologia in rapido sviluppo.

L’ordinanza – che dovrà essere comunque rafforzata dall’azione del Congresso – cerca di orientare il modo in cui l’intelligenza artificiale viene sviluppata in modo che le aziende possano trarre profitto senza mettere a repentaglio la sicurezza pubblica.

Utilizzando il Defense Production Act, l’ordine impone ai principali sviluppatori di intelligenza artificiale di condividere i risultati dei test di sicurezza e altre informazioni con il governo. Il National Institute of Standards and Technology (NIST) creerà standard per garantire che gli strumenti di intelligenza artificiale siano sicuri e protetti prima del rilascio pubblico.

Il Dipartimento del Commercio pubblicherà linee guida per etichettare e marchiare i contenuti generati dall’intelligenza artificiale per aiutare a distinguere le interazioni autentiche da quelle generate dal software. 

L’Ordine Esecutivo (EO) prevede otto principi guida:

  • nuovi standard per la sicurezza dell’IA; 
  • proteggere la privacy degli americani; 
  • promuovere l’equità e i diritti civili; 
  • difendere i consumatori, i pazienti e gli studenti; 
  • sostenere i lavoratori; 
  • promuovere l’innovazione e la concorrenza; 
  • far avanzare la leadership americana all’estero; 
  • garantire un uso responsabile ed efficace dell’IA da parte del governo e incaricare le agenzie federali sia di redigere linee guida per l’IA responsabile sia di adottare misure per regolamentare e rivedere le sue applicazioni. 

Con l’Unione Europea che si avvicina all’approvazione finale di una legge sull’intelligenza artificiale (l’AI ACT), il G7 che sotto la presidenza giapponese ha appena concordato con la Dichiarazione di Hiroshima una serie di principi di sicurezza dell’IA e un codice di condotta volontario per gli sviluppatori di IA e la Gran Bretagna che con l’iniziativa del suo leader Rishi Sunak di organizzare un Summit Internazionale sull’IA spera di ritagliare un ruolo di primo piano al suo Paese su questa tecnologia dopo l’uscita dalla UE, gli Stati Uniti – che peraltro ospitano ospitano molti dei principali sviluppatori di tecnologie IA all’avanguardia, tra cui i giganti della tecnologia Google, Meta e Microsoft e startup focalizzate sull’IA come OpenAI, produttore di ChatGPT – sono più che mai decisi a riprendersi la leadership anche della normativa che stabilirà le regole di utilizzo dell’Intelligenza Artificiale.

Dichiarazione di Hiroshima: gli 11 principi guida per i sistemi avanzati di AI

I Principi Guida Internazionali per le Organizzazioni che Sviluppano Sistemi AI Avanzati mirano a promuovere l’IA sicura e affidabile a livello mondiale e a fornire orientamenti per le organizzazioni che sviluppano e utilizzano i sistemi AI più avanzati, compresi i sistemi di AI generativi. Per organizzazioni si intendono realtà del settore privato, del settore pubblico, della società civile e del mondo accademico.

Una lista non esaustiva di principi guida che viene proposta come un documento in costante aggiornamento in risposta agli sviluppi recenti nei sistemi AI avanzati e ha l’obiettivo di aiutare a cogliere i benefici e affrontare i rischi e le sfide portate da queste tecnologie. Principi che dovrebbero applicarsi a tutti gli attori dell’IA, quando e come applicabili, nella progettazione, sviluppo, implementazione e l’uso dei sistemi AI avanzati.

In buona sostanza, mentre sfruttano le opportunità dell’innovazione, le organizzazioni dovrebbero rispettare lo stato di diritto, i diritti umani, la diversità, l’equità, la non discriminazione, la democrazia e l’umanocentricità, nella progettazione, sviluppo e implementazione dei sistemi AI avanzati. Le organizzazioni non dovrebbero sviluppare o implementare sistemi AI avanzati in modo che minaccino i valori democratici, che siano particolarmente dannosi per individui o comunità, che facilitino il terrorismo, consentano un uso criminale o comportino rischi sostanziali per la sicurezza, la stabilità e i diritti umani, e quindi non siano accettabili.

Gli Stati dal canto loro debbono rispettare i loro obblighi ai sensi del diritto internazionale dei diritti umani per promuovere il pieno rispetto e la protezione dei diritti umani, mentre le attività del settore privato dovrebbero essere in linea con i quadri internazionali come i Principi Guida delle Nazioni Unite su Impresa e Diritti Umani e le Linee Guida dell’OCSE per le Imprese Multinazionali.

In particolare, viene chiesto alle organizzazioni di attenersi ai seguenti principi, commisurati ai rischi:

  1. Adottare misure adeguate lungo lo sviluppo dei sistemi AI avanzati, compreso prima e durante la loro implementazione e messa sul mercato, per identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita dell’IA. Ciò include l’impiego di diverse misure di test interni ed esterni indipendenti, attraverso una combinazione di metodi come il red-teaming, e l’attuazione di adeguate misure di mitigazione per affrontare rischi e vulnerabilità identificati. Le misure di test e mitigazione dovrebbero, ad esempio, cercare di garantire l’affidabilità e la sicurezza dei sistemi per l’intero ciclo di vita, in modo che non comportino rischi irragionevoli. A sostegno di tali test, gli sviluppatori dovrebbero cercare di abilitare la tracciabilità, in relazione a set di dati, processi e decisioni prese durante lo sviluppo del sistema.
  2. Modelli di abuso, dopo l’implementazione inclusa la messa sul mercato. Le organizzazioni dovrebbero utilizzare, quando appropriato e commisurato al livello di rischio, i sistemi AI come previsto e monitorare vulnerabilità, incidenti, rischi emergenti e abusi dopo l’implementazione, prendendo le misure appropriate per affrontare questi problemi. Si incoraggiano le organizzazioni a considerare, ad esempio, come facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte di terze parti e utenti dopo l’implementazione. Le organizzazioni sono inoltre incoraggiate a mantenere una documentazione adeguata degli incidenti segnalati e mitigare i rischi e le vulnerabilità identificati, in collaborazione con altri stakeholder. I meccanismi per segnalare le vulnerabilità, dovrebbero essere accessibili a un insieme diversificato di stakeholder.
  3. Rendere pubbliche le capacità, i limiti e i domini di uso appropriato e inappropriato dei sistemi AI avanzati, per garantire una trasparenza sufficiente, contribuendo così ad aumentare la responsabilità. Questo dovrebbe includere la pubblicazione di rapporti di trasparenza contenenti informazioni significative per tutti i nuovi rilasci dei sistemi AI avanzati. Le organizzazioni dovrebbero rendere le informazioni nei rapporti di trasparenza sufficientemente chiare e comprensibili per consentire agli sviluppatori e agli utenti, secondo l’opportunità e la rilevanza, di interpretare l’output del modello/sistema e di utilizzarlo in modo appropriato, e la segnalazione di trasparenza dovrebbe essere supportata e informata da processi di documentazione esaustivi.
  4. Lavorare per la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi AI avanzati, comprese le industrie, i governi, la società civile e l’accademia. Ciò include la condivisione responsabile di informazioni, se appropriato, compresi, ma non solo, rapporti di valutazione, informazioni su rischi di sicurezza, rischi per la sicurezza, capacità pericolose, intenzionali o non intenzionali, e tentativi di attori AI di eludere le protezioni lungo l’intero ciclo di vita dell’IA.
  5. Sviluppare, implementare e divulgare politiche di governance e gestione dei rischi dell’IA, basate su un approccio basato sul rischio, comprese le politiche sulla privacy e misure di mitigazione, in particolare per le organizzazioni che sviluppano sistemi AI avanzati. Ciò include la divulgazione, quando opportuno, delle politiche sulla privacy, comprese le politiche per i dati personali, gli avvisi all’utente e gli output dei sistemi AI avanzati. Si prevede che le organizzazioni stabiliscano e divulghino le loro politiche di governance dell’IA e i meccanismi organizzativi per attuare tali politiche in conformità con un approccio basato sul rischio. Ciò dovrebbe includere processi di responsabilità e governance per valutare e mitigare i rischi, quando possibile, lungo l’intero ciclo di vita dell’IA.
  6. Investire ed implementare controlli di sicurezza robusti, inclusa la sicurezza fisica, la sicurezza informatica e le salvaguardie contro minacce interne lungo l’intero ciclo di vita dell’IA. Questi possono includere la sicurezza dei pesi e degli algoritmi del modello, dei server e dei set di dati, ad esempio attraverso misure di sicurezza operative per la sicurezza delle informazioni e controlli di accesso adeguati alla sicurezza fisica/cibernetica.
  7. Sviluppare e implementare meccanismi affidabili di autenticazione dei contenuti e di provenienza, quando tecnicamente possibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’IA. Ciò include, quando opportuno e tecnicamente possibile, meccanismi di autenticazione dei contenuti come la provenienza per i contenuti creati con il sistema AI avanzato di un’organizzazione. I dati di provenienza dovrebbero includere un identificatore del servizio o del modello che ha creato il contenuto, ma non devono includere informazioni sugli utenti. Le organizzazioni dovrebbero anche cercare di sviluppare strumenti o API per consentire agli utenti di determinare se un particolare contenuto è stato creato con il loro sistema AI avanzato, ad esempio tramite watermarking. Le organizzazioni sono inoltre incoraggiate a implementare altri meccanismi come etichettature o disclaimer per consentire agli utenti, quando possibile e appropriato, di sapere quando stanno interagendo con un sistema AI.
  8. Dare priorità alla ricerca per mitigare i rischi sociali, di sicurezza e di sicurezza e dare priorità agli investimenti in misure di mitigazione efficaci. Ciò include la conduzione, la collaborazione e l’investimento nella ricerca che supporta l’avanzamento della sicurezza, della sicurezza e della fiducia nell’IA, e l’affrontare rischi chiave, nonché investire nello sviluppo di strumenti di mitigazione appropriati.
  9. Dare priorità allo sviluppo di sistemi AI avanzati per affrontare le sfide più grandi del mondo, in particolare ma non solo la crisi climatica, la salute globale e l’istruzione. Questi sforzi sono intrapresi a sostegno dei progressi degli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite e per incoraggiare lo sviluppo dell’IA a beneficio globale. Le organizzazioni dovrebbero dare priorità alla gestione responsabile dell’IA affidabile e umana e sostenere anche le iniziative di alfabetizzazione digitale.
  10. Promuovere lo sviluppo e, quando opportuno, l’adozione di standard tecnici internazionali. Ciò include il contributo allo sviluppo e, quando opportuno, l’uso di standard tecnici internazionali e buone pratiche, compresi quelli per il watermarking, e la collaborazione con le organizzazioni di sviluppo.
  11. Implementare adeguate misure di input e protezioni dei dati personali e della proprietà intellettuale. Si incoraggia le organizzazioni a prendere misure adeguate per gestire la qualità dei dati, compresi i dati di formazione e la raccolta di dati, per mitigare eventuali pregiudizi dannosi. Si dovrebbe anche sostenere la trasparenza adeguata dei set di dati di formazione e le organizzazioni dovrebbero conformarsi ai quadri giuridici applicabili.

Dichiarazione di Hiroshima: intesa al G7 sui codici di condotta sull’Intelligenza Artificiale

L’intelligenza Artificiale rimane al centro dell’agenda politica mondiale e dopo l’Unione Europea, scende in campo anche il G7. La dichiarazione di Hiroshima adottata oggi, 30 ottobre 2023, dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti vuole sottolineare le opportunità innovative e il potenziale trasformativo dei sistemi avanzati di Intelligenza Artificiale (IA), in particolare, dei modelli di base e dell’IA generativa.

Riconosciamo la necessità di gestire i rischi connessi, di proteggere gli individui, la società e i nostri principi condivisi come lo Stato di Diritto e i valori democratici, ponendo l’umanità al centro” si legge nella dichiarazione di Hiroshima, che è integrata da 2 documenti più operativi: gli 11 principi guida per i sistemi di AI Generativa avanzata e un Codice di condotta internazionale, che saranno costantemente modificati, se necessario, alla luce del rapido evolversi della materia di cui si occupano.

A tale proposito, i leader dei Paesi del G7 sono favorevoli ad incoraggiare l’adozione di misure adeguate durante l’intero processo di sviluppo di sistemi avanzati di intelligenza artificiale anche prima e durante la loro distribuzione e commercializzazione, con l’obiettivo di identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita delle tecnologie emergenti. Tra queste misure dovrebbero essere previsti anche dei test interni ed esterni indipendenti.

Per quanto riguarda invece l’uso improprio, le organizzazioni responsabili dello sviluppo di sistemi avanzati sono chiamate a monitorare attentamente vulnerabilità, incidenti e rischi emergenti. Dovrebbero facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte degli utenti dopo l’implementazione. La trasparenza da questo punto di vista è fondamentale, e le capacità, le limitazioni e gli ambiti di utilizzo appropriato e inappropriato dovrebbero essere comunicati pubblicamente attraverso rapporti dettagliati.

La condivisione responsabile delle informazioni e la segnalazione degli incidenti rappresentano dei punti cruciali per i Paesi del G7, coinvolgendo industria, governi, società civile e mondo accademico. L’approccio raccomandato è basato sulla gestione del rischio, in linea con il Regolamento UE in fase di completamento. Ciò implica processi di responsabilità e di governance per valutare e mitigare i rischi.

Occorrono poi dei meccanismi affidabili di autenticazione e di provenienza dei contenuti, come watermarking, etichettatura o dichiarazioni di non responsabilità, in modo da consentire agli utenti di determinare se un contenuto è stato creato con il sistema di intelligenza artificiale di una specifica organizzazione.

Tra le priorità elencate vi è poi la mitigazione dei rischi per la società e la sicurezza, nonché lo sviluppo di sistemi avanzati per affrontare sfide come la crisi climatica, la salute globale e l’istruzione, in linea con gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Infine, i leader del G7 sottolineano l’importanza di promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali, insieme a misure adeguate di protezione dei dati personali e della proprietà intellettuale.

A margine di questo accordo, Ursula fon der Leyen, Presidente della Commissione Europea, si è detta lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, esprimendosi a favore dell’impegno congiunto per favorire lo sviluppo tecnologico ponendo in primo piano il tema della sicurezza e dell’affidabilità delle tecnologie.

I benefici potenziali che l’AI comporta per l’economia e i cittadini europei sono fondamentali. Non dobbiamo però dimenticare che la velocità dei processi innescati dall’AI porta con sé anche nuove sfide”, il commento della von der Leyen alla Dichiarazione di Hiroshima, che prosegue “l’Ue è già all’avanguardia, dal punto di vista normativo, grazie all’AI Act, che rappresenta un importante contributo anche a livello di governance globale”.

Italia: Parlamento e Governo in ordine sparso sull’IA

Se da un lato va riconosciuto come la gestione della transizione digitale e tecnologica in atto sia un tema oggettivamente complesso va anche detto che il Parlamento e il Governo italiani stanno viaggiando in ordine sparso nell’affrontare le implicazioni dell’uso di sistemi intelligenti che imitano e riproducono le capacità umane.

Da un lato ci ritroviamo un collegato alla manovra economica in arrivo da parte del Ministero delle Imprese e del Made in Italy, dall’altro un’indagine conoscitiva promossa dalla Commissione Attività produttive della Camera, dall’altro ancora il Comitato per la documentazione della Camera che vola oltre oceano per discutere di tecnologie avanzate con le grandi tech company americane e poi la creazione di una commissione algoritmi guidata da Giuliano Amato, ex presidente del Consiglio e della Corte Costituzionale.

Nel dettaglio, il Ministro delle Imprese e del Made In Italy, Adolfo Urso, ha dichiarato che l’AI sarà una sfida che il governo affronterà in un collegato alla manovra. A quest’attività farà poi seguito un’attenzione particolare al tema che l’Italia si impegna a promuovere durante il turno di presidenza italiana del G7 del 2024.

L’indagine conoscitiva sull’AI promossa dal presidente della Commissione Attività produttive della Camera, Alberto Gusmeroli, si focalizza invece sui possibili effetti, positivi o negativi, per il mondo produttivo, con l’obiettivo di arrivare alla stesura di un progetto di legge sulla falsariga di quanto già avvenuto per il Made in Italy.

Una delegazione del Comitato per la documentazione della Camera, composta dalla presidente del Comitato e vicepresidente della Camera, Anna Ascani, e dalle deputate Ilaria Cavo e Maria Rosaria Tassinari vola invece prima a Seattle e poi a San Francisco dove incontrerà le grandi tech company del settore, da Open AI a Microsoft, da Amazon a Meta, per cercare di comprendere quale sia lo stato dell’arte dell’intelligenza artificiale e quale impatto avrà nei diversi settori della società, in vista di futuri interventi normativi.

Dal canto suo invece il Sottosegretario alla Presidenza del Consiglio con delega all’Informazione e all’Editoria Alberto Barachini ha deciso di lanciare una Commissione Algoritmi, istituendo un Comitato formato da esperti e professori universitari che studierà l’impatto di questa tecnologia sul mondo del giornalismo e delle news di cui è stato nominato presidente Giuliano Amato, classe 1938, più volte Ministro, ex Presidente del Consiglio, docente di diritto costituzionale comparato per oltre 20 anni ed ex Presidente della Corte Costituzionale.

Ma non è finita qui perché il sottosegretario della Presidenza del Consiglio dei Ministri con delega all’innovazione, Alessandro Butti, ha appena nominato un Comitato di esperti incaricati di dare indicazioni per guidare la strategia nazionale sull’Intelligenza Artificiale.

Adesso, guardando dall’esterno tutto questo attivismo in ordine sparso non si può non rilevare come le azioni sia del Governo che del Parlamento italiani restituiscano un certo disordine di fondo non solo sull’argomento in generale ma anche sulle azioni che sarebbe opportuno intraprendere.

L’Intelligenza Artificiale è una nuova frontiera tecnologica che sta rimodellando le industrie, le economie e la vita quotidiana di ognuno di noi. Siamo di fronte ad una straordinaria opportunità di sviluppo, ma anziché coglierne le potenzialità e le opportunità, sembrerebbe che, ancora una volta, la preoccupazione principale in Italia, sia quella di “normare”, di stabilire dei limiti, di mettere dei paletti, di stabilire dei vincoli, di cercare di disciplinare un qualcosa che per sua natura evolve a ritmi velocissimi.

Adesso, pur nella giusta considerazione di tutela dai rischi, dalle manipolazioni e dalle sperequazioni che sono possibili con una gestione non corretta dei sistemi di AI, quello che la politica italiana non vede è che in questo modo si lascia in secondo piano un approccio volto invece a definire le strategie di sviluppo, a individuare le opportunità per il sistema Paese, promuovendone gli investimenti e le attività di ricerca, mettendo a sistema i centri di ricerca, le imprese e le Università per giocare da pari con gli altri Paesi e recuperare quella leadership in innovazione e sviluppo che per tanti anni ha caratterizzato il sistema economico e industriale del nostro Paese.

Quella portata dall’Intelligenza Artificiale è una vera e propria rivoluzione. E noi dobbiamo starci dentro, prima ancora come Paese che come Europa, che pure sembra preoccupata a “normare”. Il resto del mondo non ci aspetta. La posizione della politica italiana su questi temi sarà determinante nello stabilire che ruolo potrà avere l’Italia nello sviluppo futuro di questa tecnologia. Altrimenti perderemo anche questa opportunità.

Pagina 6 di 7

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie