Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: ai Pagina 4 di 9

Google DeepMind ha recentemente presentato Mixture-of-Depths (MoD), un metodo che aumenta la velocità di elaborazione fino al 50%

Google DeepMind ha recentemente presentato Mixture-of-Depths (MoD), un metodo che aumenta la velocità di elaborazione fino al 50% in compiti come l’elaborazione del linguaggio naturale e la previsione di sequenze complesse.

La maggior parte della potenza di calcolo viene sprecata perché non tutti i token sono ugualmente difficili da prevedere. Questo nuovo metodo assegna dinamicamente il calcolo nei modelli transformer, ottimizzando l’uso delle risorse pur garantendo l’accuratezza. Elabora selettivamente i token complessi e salta quelli più semplici, riducendo significativamente il sovraccarico computazionale.

All’interno dei computer, i testi come quelli prodotti da ChatGPT sono rappresentati in forma numerica, e ogni operazione eseguita su di essi è un’enorme sequenza di semplici operazioni matematiche.

Dato che i numeri decimali sono rappresentati in formato “floating point” (“a virgola mobile”), è naturale contare quante operazioni elementari (per esempio addizioni) su tali numeri possono essere eseguite in un certo tempo: floating point operations, ovvero FLOPs

transformers sono modelli di apprendimento automatico basati sull’attenzione (attention-based) per elaborare sequenze di input, come le sequenze di parole in un testo. L’attenzione permette al modello di dare maggiore peso a determinate parti dell’input, in modo da prestare maggiore attenzione a informazioni rilevanti e ignorare informazioni meno importanti.

Questa capacità di prestare attenzione a parti specifiche dell’input rende i transformers particolarmente adatti all’elaborazione del linguaggio naturale, dove l’informazione rilevante può essere dispersa all’interno di una sequenza di parole.

I modelli di linguaggio basati su transformer distribuiscono uniformemente i FLOP attraverso le sequenze di input.

In questo lavoro, i ricercatori dimostrano che i transformer possono invece imparare a assegnare dinamicamente i FLOP (o calcoli) a posizioni specifiche in una sequenza, ottimizzando l’allocazione lungo la sequenza per diversi strati attraverso la profondità del modello. Il nostro metodo impone un budget totale di calcolo limitando il numero di token (k) che possono partecipare ai calcoli di self-attention e MLP in un dato strato.

I token da elaborare sono determinati dalla rete utilizzando un meccanismo di instradamento top-k. Poiché k è definito a priori, questa semplice procedura utilizza un grafo di calcolo statico con dimensioni di tensori note, a differenza di altre tecniche di calcolo condizionale. Tuttavia, poiché le identità dei token k sono fluide, questo metodo può sprecare i FLOP in modo non uniforme attraverso le dimensioni del tempo e della profondità del modello.

Quindi, la spesa di calcolo è completamente prevedibile nel totale complessivo, ma dinamica e sensibile al contesto a livello di token. Non solo i modelli addestrati in questo modo imparano a assegnare dinamicamente il calcolo, ma lo fanno in modo efficiente. Questi modelli corrispondono alle prestazioni di base per FLOP equivalenti e tempi di addestramento, ma richiedono una frazione dei FLOP per passaggio in avanti e possono essere più veloci del 50% durante il campionamento post-addestramento.

Questo documento è un altro promemoria che i Modelli di Linguaggio a Lungo Termine (LLM) sono ancora nelle loro prime fasi: lenti, ampi e inefficienti. Creare modelli economici e veloci aprirà un mondo di possibilità, come la capacità di eseguire modelli localmente sui nostri telefoni e GPU. Potrebbe anche ridurre drasticamente i costi di addestramento e esecuzione degli LLM.

Google DeepMind published a paper outlining SELF-DISCOVER, a somewhat of a novel take on LLM reasoning.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Economia dei dati nell’Intelligenza Artificiale: strategie per l’indipendenza tecnologica. Convegno Seeweb il 16 Aprile 2024

Come promuovere una filiera italiana nell’Intelligenza Artificiale?

E’ un tema di straordinaria attualità che richiede non solo un’attenta analisi e un’accurata pianificazione ma una vera e propria strategia a livello Paese. Occorre investire in ricerca e sviluppo e creare un ambiente favorevole per la crescita di soluzioni AI italiane valorizzando la nostra filiera industriale, le imprese ad alto valore tecnologico e le competenze acquisite. Tutto ciò per salvaguardare l’indipendenza tecnologica requisito fondamentale per tutelare la sovranità nazionale e uno sviluppo concreto dell’industria italiana dell’Intelligenza Artificiale. Serve poi anche una struttura di finanziamenti che sia in grado di supportare questo sviluppo con adeguati investimenti.

Di questo e altro si parlerà il prossimo 16 aprile 2024 nel convegno L’economia dei dati nell’Intelligenza Artificialeorganizzato da Seeweb, nel corso del quale verrà presentato uno studio sugli impatti economici dell’Intelligenza Artificiale nel nostro Paese e si discuteranno le migliori strategie per incentivare modelli italiani di intelligenza artificiale, che possano assicurare il progresso tecnologico e la sostenibilità del nostro ecosistema, in modo da raggiungere l’indipendenza tecnologica e garantire una governance etica al settore.

Tra i temi che verranno affrontati la necessità di garantire l’accesso e la trasparenza ai dati che si usano per allenare sistemi di intelligenza artificiale; riconoscere maggiori poteri alle Autorità Antitrust per prevenire fenomeni distorsivi ricorrenti; prevenire la concentrazione del mercato dall’AI attraverso l’applicazione di misure che ostacolino l’estensione della dominanza sui mercati ancillari; il divieto di utilizzo di “crediti cloud” in forma di voucher da scontare nell’acquisto di servizi cloud dalle piattaforme dominanti; favorire una commessa pubblica che sia indirizzata a sviluppare aziende italiane della filiera dell’intelligenza artificiale.

Interverranno al convegno figure del mondo della formazione scientifica, delle istituzioni e del mondo dell’industria. Tra queste, il il Ceo di Seeweb Antonio Baldassarra , il prof. Ranieri Razzante, Comitato per la strategia dell’IA presso la Presidenza del Consiglio, Massimo Chiriatti, Chief Technology e Innovation Officer Lenovo assieme ad un panel scientifico composto dalla professoressa Simonetta Vezzoso, Università di Trento, dal prof. Giovanni Maria Riccio, E-Lex, dal prof. Daniele Nardi, CINI e dalla professoressa Giusella Finocchiaro, Ordinaria di Diritto di Internet e di Diritto Privato presso l’Università di Bologna.

L’evento si svolgerà a Roma martedì 16 aprile, a partire dalle ore 9:30, nella sede dell’Istituto Don Luigi Sturzo, Palazzo Baldassini, in Via delle Coppelle 25.

Per le iscrizioni si può utilizzare il seguente link: https://eventi.seewebcloud.com/


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Il terremoto a Taiwan ferma le fabbriche dei chip

Uno dei terremoti più potenti degli ultimi 25 anni a Taiwan, 7,4 gradi di magnitudo, oltre a provocare il crollo di diversi edifici, diversi morti e il ferimento di numerose persone ha, tra le altre cose, interrotto la produzione di chip.

Le potenziali ripercussioni per l’industria tecnologica mondiale sono significative a causa del ruolo fondamentale che Taiwan svolge nella produzione di chip avanzati, che sono alla base di tutte le moderne tecnologie, dai pc agli smartphone, dai veicoli elettrici ai sistemi di Intelligenza Artificiale.

Aziende come TSCM Taiwan Semiconductor Manufactoring Co. e United Microelectronics Corp. che sono tra i più grandi produttori di chip avanzati per realtà come Nvidia e Apple hanno fermato la produzione nei propri stabilimenti che sono stati evacuati. Tecnicamente, con una produzione che va dall’80 al 90% dei chip di fascia alta, Taiwan rappresenta il tallone d’Achille dell’industria dei semiconduttori.

Da questo punto di vista se consideriamo che la totalità degli ordini di Nvidia sono gestiti da TSMC si capisce che anche brevi interruzioni della fornitura possono avere ripercussioni amplificate su tutto il settore dell’Intelligenza Artificiale. E la criticità non dipende solo da quanti stabilimenti sono o saranno effettivamente interessati dalla chiusura e per quanto tempo. Occorre anche considerare i danni che il sisma ha provocato alle infrastrutture di Taiwan e i potenziali effetti sulla logistica che potrebbe subire un contraccolpo.

E uno scenario già visto con le interruzioni nella catena di produzione dei chip causate dalla pandemia. Nonostante ciò, poco è stato fatto da parte dei Paesi occidentali, Stati Uniti ed Europa in primis, per risolvere questa criticità e delocalizzare da Taiwan la produzione di chip avanzati. Rischiamo, ora, di pagarne, ancora una volta, le conseguenze.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

AB-331 il D.L. dalla California contro la discriminazione algoritmica

La California si pone in prima linea nell’affrontare le sfide legate all’Intelligenza Artificiale (AI), con particolare attenzione alla sicurezza e all’equità. Le iniziative legislative proposte mirano a regolamentare l’uso dell’AI sul luogo di lavoro e ad adattare le norme del lavoro per affrontare l’utilizzo di sistemi decisionali automatizzati.

Tuttavia, la sua più recente iniziativa adotta un approccio ancora più ampio, cercando di regolamentare gli strumenti utilizzati per prendere decisioni di vita rilevanti.

Nel gennaio del 2023, la membro dell’assemblea della California Rebecca Bauer-Kahan ha presentato il disegno di legge AB-331, che mira a vietare l’uso di strumenti decisionali automatizzati che contribuiscono alla discriminazione algoritmica.

Questa forma di discriminazione si verifica quando i sistemi algoritmici producono risultati sfavorevoli per le persone in base a caratteristiche come razza, colore, etnia, sesso, religione, età, origine nazionale, conoscenza limitata dell’inglese, disabilità, stato di veterano, informazioni genetiche, salute riproduttiva o altre classificazioni protette dalla legge statale.

Prima di essere sottoposto a revisione, il testo originale del disegno di legge vietava l’uso di strumenti decisionali automatizzati che contribuivano alla discriminazione. Tuttavia, in seguito a revisioni, le attività proibite sono state specificate in modo più dettagliato.

Attualmente, il disegno di legge è in fase di presentazione e potrebbe richiedere alcuni mesi prima di essere esaminato dalla commissione. Tuttavia, se approvato, avrebbe implicazioni significative per gli sviluppatori e gli utilizzatori di tali tecnologie.

Questo tipo di legislazione è cruciale per garantire che l’AI sia utilizzata in modo responsabile e equo, proteggendo i diritti e le libertà individuali. Nel seguito, presentiamo 10 punti chiave riguardanti il disegno di legge AB-331.

AB-331 prende di mira gli strumenti utilizzati per prendere decisioni consequenziali, che hanno un effetto legale, materiale o altro significativo sulla vita di un individuo in termini di impatto, accesso a, costo, termini o disponibilità di quanto segue:

Ecco dieci punti chiave riguardanti il disegno di legge AB-331:

  1. Scopo: Il disegno di legge mira a vietare l’uso di strumenti decisionali automatizzati che contribuiscono alla discriminazione algoritmica.
  2. Discriminazione Algoritmica: Si definisce discriminazione algoritmica il trattamento differenziale che sfavorisce le persone in base a caratteristiche come razza, colore, etnia, sesso, religione, età, origine nazionale, conoscenza limitata dell’inglese, disabilità, stato di veterano, informazioni genetiche, salute riproduttiva o altre classificazioni protette dalla legge statale.
  3. Iniziativa Legislativa: Il disegno di legge è stato introdotto dalla membro dell’assemblea della California, Rebecca Bauer-Kahan, nel gennaio 2023.
  4. Presentazione e Revisioni: Dopo essere stato sottoposto a revisione, il testo del disegno di legge è stato modificato per specificare in modo più dettagliato le attività proibite.
  5. Obiettivo di Equità: L’obiettivo principale del disegno di legge è garantire l’equità nell’uso dei sistemi decisionali automatizzati, proteggendo i diritti e le libertà individuali.
  6. Applicazioni Larghe: La legislazione si applica a una vasta gamma di contesti in cui vengono utilizzati strumenti decisionali automatizzati, inclusi ma non limitati al lavoro e ad altre decisioni cruciali nella vita quotidiana.
  7. Sfide Tecnologiche: Il disegno di legge affronta le sfide emergenti poste dall’IA, evidenziando la necessità di una regolamentazione per garantire un utilizzo responsabile e equo di tali tecnologie.
  8. Processo Legislativo: Attualmente, il disegno di legge è in fase di presentazione e deve ancora essere esaminato dalla commissione. Potrebbe richiedere alcuni mesi prima di essere portato avanti nel processo legislativo.
  9. Implicazioni per gli Sviluppatori: Se approvato, il disegno di legge avrà implicazioni significative per gli sviluppatori di sistemi decisionali automatizzati, richiedendo la conformità alle norme anti-discriminazione stabilite.
  10. Protezione dei Diritti Individuali: La legislazione mira a proteggere i diritti individuali e a garantire che l’IA sia utilizzata per migliorare la società senza perpetuare o amplificare le disparità esistenti.

Gli impatti del disegno di legge AB-331 sull’Intelligenza Artificiale (AI) potrebbero essere notevoli e variegati. Ecco alcuni possibili impatti:

  1. Sviluppo etico: Il disegno di legge mette in evidenza l’importanza di sviluppare e utilizzare l’IA in modo etico, responsabile ed equo, incoraggiando l’adozione di pratiche di sviluppo che minimizzino il rischio di discriminazione algoritmica.
  2. Accuratezza dei modelli: Gli sviluppatori potrebbero concentrarsi maggiormente sull’ottenimento di modelli di intelligenza artificiale più accurati e imparziali, riducendo così il rischio di produrre risultati discriminatori.
  3. Audit e trasparenza: Potrebbe esserci una maggiore richiesta di audit e trasparenza nei sistemi AI per comprendere meglio come vengono presi i decisioni e per identificare eventuali bias algoritmici.
  4. Innovazione regolamentata: Le restrizioni imposte dal disegno di legge potrebbero influenzare l’innovazione nel settore dell’IA, con alcuni sviluppatori che potrebbero sentirsi limitati nei loro sforzi di creare nuove soluzioni a causa delle normative più stringenti.
  5. Responsabilità legale: Le aziende che sviluppano e utilizzano sistemi AI potrebbero diventare maggiormente responsabili legalmente per eventuali danni o discriminazioni causate dai loro prodotti, spingendole a investire maggiormente nella conformità normativa e nella valutazione del rischio.
  6. Diversità dei dati: Potrebbe esserci un maggiore sforzo per garantire la diversità e la rappresentatività dei dati utilizzati per addestrare i modelli di AI, al fine di ridurre il rischio di bias nei risultati.
  7. Educazione e consapevolezza: Potrebbe esserci una maggiore enfasi sull’educazione e la consapevolezza riguardo ai problemi etici e sociali legati all’IA, sia tra gli sviluppatori che tra gli utenti finali.

In definitiva, il disegno di legge AB-331 potrebbe avere un impatto significativo sull’intero ecosistema dell’Intelligenza Artificiale, spingendo verso una maggiore responsabilità, trasparenza ed equità nell’uso di tali tecnologie.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

AWS offrirà alle startup crediti gratuiti per l’utilizzo di modelli AI

AWS ha ampliato il suo programma di crediti gratuiti per rendere più agevole l’utilizzo dei modelli di intelligenza artificiale da parte delle startup, dato l’elevato costo, mentre cerca di aumentare la quota di mercato dei suoi strumenti di intelligenza artificiale, noti come Bedrock.

I crediti saranno consentiti per coprire i costi dei modelli di altre aziende, tra cui Anthropic, Meta Platforms, Mistral AI e Cohere, ha dichiarato Howard Wright, vice presidente e responsabile globale delle startup presso AWS, a Reuters.

“Questo è un altro regalo che stiamo facendo all’ecosistema delle startup, in cambio di ciò che speriamo sia la scelta continua delle startup di AWS come loro prima scelta,” ha detto Wright all’agenzia di stampa.

AWS è il leader nel redditizio mercato dei fornitori di servizi cloud, con poco più del 50%, secondo HG Insights, seguito da Azure di Microsoft e Google Cloud Platform.

Il mese scorso, Amazon ha annunciato di aver effettuato un ulteriore investimento di $2.75 miliardi in Anthropic, portando il suo investimento totale nella startup di intelligenza artificiale a $4 miliardi. Anthropic è il creatore del chatbot Claude, che compete con il ChatGPT di OpenAI, sostenuto da Microsoft.

I crediti gratuiti dovrebbero aiutare ad aumentare i ricavi di Anthropic, ha dichiarato Wright a Reuters. “Questo fa parte della costruzione dell’ecosistema. Non ci scusiamo per questo.”

Amazon ha affermato di aver distribuito oltre $6 miliardi in crediti gratuiti alle startup negli ultimi 10 anni.

La versione più recente di Claude, Claude 3 Haiku, è diventata “disponibile generalmente” su Amazon Bedrock il mese scorso, ha dichiarato un portavoce di Amazon a Seeking Alpha.

La suite di strumenti di intelligenza artificiale Bedrock è stata presentata nell’aprile 2023. Inizialmente, hanno funzionato con Amazon Titan, il modello fondamentale dell’azienda, oltre a quelli creati da stability.ai, AI21Labs e Anthropic.

“Con l’esperienza serverless di Bedrock, puoi iniziare rapidamente, personalizzare privatamente i modelli fondamentali con i tuoi dati, e integrarli e distribuirli facilmente nelle tue applicazioni utilizzando gli strumenti e le capacità AWS che conosci (incluse integrazioni con le funzionalità di ML di Amazon SageMaker come Esperimenti per testare modelli diversi e Pipeline per gestire i tuoi FM su larga scala) senza dover gestire alcuna infrastruttura,” ha scritto Amazon Web Services in una dichiarazione.

Bedrock funzionerà con Amazon Titan, il modello fondamentale dell’azienda, così come quelli creati da stability.ai, AI21Labs e Anthropic.

Nella sua lettera annuale, Jassy di Amazon ha anche esaltato il nuovo chip Inferentia2 dell’azienda, vantandosi delle sue capacità superiori rispetto al primo chip Inferentia.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Stargate la porta delle stelle dell’AI

Microsoft e OpenAI sono in trattative per investire fino a 100 miliardi di dollari in un progetto di data center che ospiterà un supercomputer, il più grande di una serie di installazioni che le società prevedono di realizzare nei prossimi sei anni, secondo quanto riferito da The Information, citando fonti a conoscenza della questione.

Il supercomputer, noto come “Stargate”, verrà realizzato negli Stati Uniti e sarà progettato per ospitare milioni di chip server specializzati per potenziare le capacità di intelligenza artificiale di OpenAI.

Microsoft, che ha già investito oltre 13 miliardi di dollari in OpenAI, dovrebbe essere responsabile del finanziamento del progetto come parte di un piano in cinque fasi che le società hanno già intrapreso.

Il gigante tecnologico sta sviluppando un supercomputer di fase 4 più piccolo per OpenAI, il cui lancio è previsto intorno al 2026 a Mt. Pleasant, nel Wisconsin. Microsoft ha preso in considerazione l’utilizzo di chip AI Nvidia per questo progetto che per essere completato richiederebbe un investimento di 10 miliardi di dollari.

Stargate sarà progettato per dare a Microsoft e OpenAI il vantaggio di utilizzare GPU sviluppate da produttori di chip diversi da Nvidia, come AMD Advanced Micro Devices e persino un chip server interno che MSFT ha recentemente lanciato.

Sommando tutti i progetti, anche quelli precedenti a Stargate che richiedono esborsi significativamente inferiori, il costo dell’iniziativa complessiva per l’azienda guidata da Satya Nadella supererebbe i 115 miliardi di dollari, che vuol dire oltre tre volte le spese in conto capitale di MSFT per server, edifici e altre attrezzature dello scorso anno.

Le previsioni sono quelle di lanciare Stargate già nel 2028 e di continuare ad espanderne le capacità fino al 2030. A tale proposito i dirigenti dell’azienda di Redmond hanno già discusso sull’eventualità di usare fonti di energia alternative, come ad esempio l’energia nucleare, per alimentare il supercomputer, che richiederà probabilmente almeno diversi gigawatt – abbastanza per alimentare almeno alcuni grandi data center oggi – per funzionare.

L’impegno di MSFT nel progetto dipenderà in parte anche dalla capacità di OpenAI di migliorare i servizi offerti, tuttavia è importante evidenziare che questo investimento sottolinea l’impegno di Microsoft e di OpenAI nello sviluppo dell’Intelligenza Artificiale e nell’aumento della potenza di calcolo necessaria per farlo.

Questo progetto potrebbe portare a significativi progressi nell’AI, con lo sviluppo di potenziali applicazioni in una vasta gamma di settori, dalla sanità all’istruzione, ai trasporti e altro ancora. Tuttavia, rimangono alcune preoccupazioni riguardo ai costi elevati e alle potenziali implicazioni ambientali di un tale progetto anche il relazione al recente warning sulla saturazione della rete elettrica americana a seguito dell’incremento della domanda di elettricità per alimentare i data center del cloud e dell’AI.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Elon Musk: la mia banda suona il “Grok”

Elon Musk ha annunciato che il chatbot Grok della sua startup di intelligenza artificiale xAI sarà presto accessibile a tutti gli abbonati premium della piattaforma di social media, condividendo la notizia su X: “entro questa settimana, Grok sarà abilitato per tutti gli abbonati premium (non solo premium+)“.

All’inizio di questo mese, Musk ha rivelato l’intenzione di xAI di rendere open source Grok, presentato per la prima volta a novembre dello scorso anno. Questa mossa è avvenuta pochi giorni dopo che Musk ha citato in giudizio OpenAI, il produttore di ChatGPT sostenuto da Microsoft (NASDAQ: MSFT), sostenendo che avesse messo il profitto davanti al beneficio dell’umanità. OpenAI, co-fondata da Musk, ha respinto le accuse del miliardario della tecnologia.

Queste ultimi sviluppi pongono il chatbot Grok di xAI al centro dell’attenzione, poiché Musk si impegna a rendere la tecnologia più accessibile e trasparente per gli utenti della sua piattaforma di social media.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Affrontare il Gender Gap nell’innovazione tecnologica: l’iniziativa di Paola Pisano, ex Ministro dell’Innovazione Tecnologica e della Digitalizzazione

Il Gender Gap, la disparità di genere, continua ad essere una sfida persistente in numerosi settori, inclusa l’innovazione tecnologica.

Tuttavia, negli ultimi anni, sempre più leader politici e figure di spicco si stanno impegnando attivamente per affrontare questa disparità e promuovere una maggiore inclusione delle donne nei settori STEM (Scienza, Tecnologia, Ingegneria e Matematica).

ChatGPT di OpenAI continua a guadagnare popolarità

Secondo un recente sondaggio condotto dal Pew Research Center, il ChatGPT di OpenAI continua a guadagnare popolarità, con quasi un adulto statunitense su quattro che ha affermato di aver utilizzato il chatbot in qualche modo. Questo segna un aumento rispetto al 18% registrato sette mesi prima, evidenziando un trend di crescita costante nell’utilizzo del ChatGPT.

In particolare, l’uso del ChatGPT per scopi lavorativi è aumentato significativamente negli ultimi 12 mesi. Nel marzo 2023, l’8% degli adulti statunitensi ha affermato di aver utilizzato il chatbot per svolgere attività lavorative, percentuale che è salita al 20% a febbraio 2024.

L’età e il livello di istruzione sembrano influenzare chi utilizza maggiormente il ChatGPT per lavoro. Il sondaggio ha rivelato che quasi un americano su tre con meno di 30 anni ha utilizzato il chatbot per scopi lavorativi, mentre questa percentuale scende al 21% per gli adulti tra i 30 e i 49 anni e al 10% per coloro che hanno 50 anni o più.

Inoltre, gli adulti con titoli di studio laureati e triennali utilizzano il ChatGPT in misura maggiore, rispettivamente al 33% e al 25%, mentre scende al 19% per coloro che hanno un diploma di scuola superiore e all’8% per chi ha un diploma di scuola superiore o inferiore.

Tuttavia, c’è un aspetto su cui gli americani sembrano concordare: la diffidenza nei confronti del ChatGPT quando si tratta di politica, soprattutto in vista delle imminenti elezioni presidenziali americane del 2024. Il sondaggio ha rivelato che circa quattro cittadini su dieci non hanno troppa o nessuna fiducia nelle informazioni elettorali fornite dal ChatGPT, superando di gran lunga la fiducia nelle informazioni politiche fornite dalla piattaforma.

Nonostante il crescente numero di utenti del ChatGPT, il 34% degli americani intervistati dal Pew Research Center ha dichiarato di non aver mai sentito parlare del chatbot, evidenziando che c’è ancora una significativa fetta di popolazione che non è a conoscenza di questa tecnologia.

Adobe Summit di Las Vegas 2024

Adobe ha presentato martedì 26 Marzo , durante l’Adobe Summit di Las Vegas, una serie di innovazioni destinate ad arricchire l’esperienza dei clienti attraverso l’applicazione dell’intelligenza artificiale, secondo quanto riportato dall’azienda in una dichiarazione ufficiale.

Le novità riguardano principalmente Adobe Experience Cloud (base globale di 11.000 clienti ed è supportato da un vasto ecosistema di oltre 4.500 membri e più di 500 integrazioni di partner) e sono concepite per ottimizzare il coinvolgimento dei clienti tramite l’impiego della potenza dell’intelligenza artificiale.

In particolare, Adobe Experience Platform e Adobe Journey Optimizer sono stati progettati per permettere alle imprese di interagire con i clienti “giusti” attraverso “esperienze generative basate sull’intelligenza artificiale”, come affermato da Amit Ahuja, VP senior Digital Experience Business.

L’Adobe Experience Platform AI Assistant è un’innovativa soluzione fornita all’interno della piattaforma Adobe Experience Cloud. Si tratta di un assistente virtuale alimentato dall’intelligenza artificiale progettato per fornire supporto avanzato agli utenti nell’ambito della gestione dell’esperienza dei clienti e delle attività di marketing.

Le caratteristiche principali dell’Adobe Experience Platform AI Assistant includono:

  1. Assistenza personalizzata: L’assistente utilizza l’intelligenza artificiale per fornire suggerimenti e consigli personalizzati in base alle specifiche esigenze dell’utente e agli obiettivi di marketing dell’azienda.
  2. Ottimizzazione delle operazioni: Grazie alla sua capacità di analisi avanzata dei dati, l’AI Assistant aiuta a ottimizzare le operazioni di marketing, identificando tendenze, modelli e opportunità di miglioramento.
  3. Automazione dei compiti: L’assistente automatizza una serie di compiti ripetitivi e operazioni di routine, consentendo agli utenti di concentrarsi su attività più strategiche e ad alto valore aggiunto.
  4. Supporto decisionale: Fornisce raccomandazioni e suggerimenti basati sui dati per supportare le decisioni di marketing, consentendo agli utenti di prendere decisioni più informate e basate su evidenze.
  5. Integrazione con altre soluzioni Adobe: L’AI Assistant si integra senza soluzione di continuità con altre soluzioni all’interno dell’ecosistema Adobe Experience Cloud, consentendo un flusso di lavoro fluido e una collaborazione ottimale tra diversi strumenti e applicazioni.

Complessivamente, l’Adobe Experience Platform AI Assistant rappresenta un importante strumento per migliorare l’efficienza operativa, ottimizzare le strategie di marketing e offrire un’esperienza più coinvolgente e personalizzata ai clienti.
Con il suo supporto all’avanguardia basato sull’intelligenza artificiale, aiuta le aziende a raggiungere i propri obiettivi di business in modo più efficace e innovativo.

La collaborazione strategica con Microsoft un altro punto chiave è emerso durante l’evento.

Adobe ha annunciato una partnership con Microsoft per integrare Adobe Experience Cloud con Microsoft Copilot e Microsoft 365, al fine di agevolare la gestione dei dati di marketing e dei flussi di lavoro.

“Questa partnership offre un’opportunità unica per i team di marketing, semplificando le attività quotidiane attraverso la pianificazione, la collaborazione e l’esecuzione delle campagne”, ha dichiarato Ahuja.

Durante il summit, è stata data particolare attenzione anche a Adobe GenStudio, una soluzione “generativa basata sull’intelligenza artificiale” volta a fornire agli esperti di marketing strumenti avanzati per la pianificazione, la creazione, la gestione, l’attivazione e la misurazione dei contenuti di marca in modo rapido ed efficace.

Secondo Eric Hall, chief marketing officer di Adobe Experience Cloud, numerose aziende leader a livello mondiale stanno già collaborando con Adobe per migliorare l’efficienza delle loro operazioni attraverso l’implementazione di soluzioni innovative.

Il contributo dell’intelligenza artificiale è cruciale anche nel settore farmaceutico, come confermato da Lidia Fonseca, chief digital and technology officer di Pfizer, che ha sottolineato il ruolo fondamentale dell’innovazione digitale e dell’intelligenza artificiale nel fornire contenuti pertinenti sui farmaci e vaccini agli utenti finali.

Oltre a queste innovazioni, Adobe ha introdotto nuovi strumenti di gestione dei dati per aiutare i brand a navigare nel panorama dell’intelligenza artificiale generativa.

Come Federated Audience Composition, che consente una gestione efficiente dei dati collegandosi direttamente ai data warehouse aziendali, e Adobe Real-Time Customer Data Platform Collaboration, un’applicazione per la scoperta e la misurazione dell’audience a prova di privacy.

Anche Firefly, lo strumento AI di Adobe, sembra godere di grande popolarità tra gli utenti, offrendo la possibilità di creare modelli personalizzati utilizzando dati proprietari. Questa funzionalità posiziona Firefly nella stessa categoria dei servizi AI offerti da Salesforce Einstein Copilot e Oracle , secondo quanto dichiarato da Utham.

Durante il summit, Adobe ha presentato dettagliatamente diverse nuove applicazioni e utilizzi di Firefly, dimostrando il suo impegno continuo nell’evolversi e nell’innovare nel campo dell’intelligenza artificiale.

Questo articolo si basa su un comunicato stampa di Adobe.

IA, siamo vicini a una democrazia computazionale?

La democrazia e le tecnologie informatiche hanno una relazione complessa e in continua evoluzione. Le tecnologie informatiche, in particolare Internet e le piattaforme digitali, hanno la potenzialità di rendere la partecipazione dei cittadini alle decisioni pubbliche più efficace e inclusiva. Questo è stato particolarmente evidente nel primo decennio del secolo, quando c’era una grande speranza che il digitale connesso potesse essere lo spazio in cui la democrazia liberale si sarebbe diffusa e rafforzata.

Tuttavia, la fine del secondo decennio ha portato con sé nuove preoccupazioni. Mentre le tecnologie digitali e computazionali continuano a evolversi a un ritmo senza precedenti, stiamo iniziando a vedere come possono essere sfruttate per minare i principi democratici. La disinformazione, le fake news, la manipolazione delle elezioni e la violazione della privacy sono solo alcune delle sfide che stiamo affrontando nello spazio digitale-computazionale.

Paolo Benanti, professore straordinario della facoltà di Teologia presso la Pontificia università gregoriana e presidente della Commissione AI per l’informazione, ha analizzato questi problemi :

La democrazia sfrutta le potenzialità delle tecnologie informatiche per rendere più efficace e inclusiva la partecipazione dei cittadini alle decisioni pubbliche. Se il primo decennio del secolo ci ha fatto sperare che il digitale connesso fosse lo spazio dove si sarebbe diffusa e rafforzata la demorazia liberale, la fine del secondo decennio ci ha iniziato a far temere per il futuro nello spazio digitale-computazionale.

Paolo Benanti su formiche.net

Secondo Benanti, è fondamentale che i principi democratici guidino lo sviluppo e l’uso delle tecnologie informatiche.

Inoltre, è necessario un maggiore coinvolgimento dei cittadini nelle decisioni relative all’uso delle tecnologie informatiche nella società.

Mentre le tecnologie informatiche hanno il potenziale per migliorare la democrazia, è fondamentale che siano guidate da principi democratici e che i cittadini siano coinvolti nelle decisioni su come queste tecnologie vengono utilizzate e ne siano pienamente consapevoli.

Analizzando le sue riflessioni mi vengono in mente 2 Teorie :

Teoria della democrazia digitale: Questa teoria esplora come le tecnologie digitali influenzino la partecipazione politica, la trasparenza e l’accessibilità alle istituzioni democratiche.

Teoria della sovranità digitale: Questa teoria affronta questioni di controllo e autonomia nelle infrastrutture digitali e nell’accesso ai dati, considerando l’interdipendenza tra nazioni e la questione della governance globale dell’Internet.

In sostanza, le 2 teorie indicano che l’avvento delle tecnologie digitali hanno trasformato radicalmente il modo in cui i cittadini partecipano alla vita pubblica e alla democrazia.

Il termine “computazionale” si riferisce al fatto che il processo di cittadinanza e partecipazione democratica avviene sempre più attraverso piattaforme digitali e sistemi informatici.

In altre parole, poiché sempre più aspetti della nostra vita quotidiana sono mediati attraverso dispositivi digitali e piattaforme online, la partecipazione alla democrazia avviene anche attraverso questi canali.

Il concetto espresso da Benanti a mia modesta opinione interpretativa riflette una preoccupazione profonda riguardante il potere crescente delle tecnologie dell’intelligenza artificiale (IA) e la loro interazione con la democrazia.

Si evidenzia come i servizi basati sull’IA stiano offuscando i confini tra il potere computazionale personale (Edge-Mobile) e quello centralizzato nel cloud (Continuum). Ciò si verifica poiché sempre più processi e funzionalità vengono spostati online e gestiti da server remoti, con conseguente perdita di trasparenza riguardo a ciò che avviene effettivamente all’interno dei nostri dispositivi.

Questa perdita di trasparenza ha implicazioni significative per la democrazia, poiché il controllo e l’autonomia delle persone sulle proprie azioni e sulle informazioni personali possono essere compromessi.

La centralizzazione del potere computazionale personale nei server cloud può quindi portare a una centralizzazione del potere stesso, poiché le decisioni riguardanti la gestione e l’elaborazione dei dati possono essere prese da entità centralizzate che controllano tali server.

In questo contesto, si pone la domanda critica su come rendere democratico il potere centralizzato associato all’IA e al cloud computing.

Questo implica la necessità di sviluppare meccanismi e strumenti che consentano una partecipazione inclusiva e responsabile dei cittadini nella definizione delle politiche e delle pratiche relative all’utilizzo dell’IA.

È fondamentale garantire che le decisioni riguardanti l’IA siano prese in modo trasparente e responsabile, tenendo conto dei valori democratici come la partecipazione, l’equità e la tutela dei diritti individuali.

Allo stesso tempo, è cruciale evitare che la democrazia computazionale si trasformi in un’oligarchia del cloud, dove il potere decisionale è concentrato nelle mani di poche entità dominanti nel settore tecnologico.

Ciò richiede un’attenzione particolare alla regolamentazione e alla supervisione delle aziende tecnologiche, così come la promozione di un’innovazione etica che tenga conto degli impatti sociali e politici delle tecnologie dell’IA.

Affrontare queste sfide richiede un impegno collettivo per garantire che l’evoluzione dell’IA e del cloud computing avvenga nel rispetto dei principi democratici e nell’interesse del benessere pubblico, piuttosto che nel perseguimento del potere concentrato e dell’oligarchia digitale.

Solo così possiamo sperare di navigare con successo nel futuro digitale-computazionale.

Interessante citare a mio avviso il rapporto “Setting Democratic Ground Rules for AI: Civil Society Strategies” edatto da Beth Kerley dell’International Forum for Democratic Studies,. Questi analizza le priorità, le sfide e le promettenti strategie della società civile per promuovere approcci democratici alla governance dell’intelligenza artificiale (IA).

Esamina gli ostacoli – dai racconti fuorvianti all’opacità del governo : La presenza diffusa di narrazioni fuorvianti o manipolate riguardo all’IA può ostacolare una comprensione accurata e consapevole dei suoi impatti sulla democrazia, la disinformazione può influenzare le percezioni pubbliche e impedire un dibattito informato sui modi per garantire un uso democratico e responsabile dell’IA,

le lacune nell’expertise tecnica – che ostacolano l’impegno democratico sulla governance dell’IA ,

la mancanza di comprensione approfondita delle implicazioni tecnologiche dell’IA da parte dei decisori politici, dei funzionari pubblici e del pubblico in generale può ostacolare la formulazione di politiche e regolamentazioni efficaci. Le lacune nell’expertise tecnica possono portare a decisioni errate o inefficaci che non tengono conto delle sfide e delle opportunità specifiche dell’IA,

l’opacità dei governi e delle aziende, l’assenza di trasparenza da parte dei governi e delle aziende riguardo alla formulazione e all’implementazione delle politiche sull’IA può rendere difficile per i cittadini valutare e influenzare il processo decisionale e esplora come un nuovo pensiero, nuove istituzioni e nuove collaborazioni possano meglio equipaggiare le società per stabilire regole democratiche per le tecnologie dell’IA.

Il rapporto sottolinea che con i recenti progressi nello sviluppo dell’IA, stiamo vivendo un cambiamento sismico nel bilancio di potere tra le persone e i governi, che pone nuove sfide ai principi democratici come la privacy, la trasparenza e la non discriminazione e inclusione.

Sappiamo che l’IA plasmerà il mondo politico in cui viviamo, ma come possiamo garantire che le norme e la “governance” delle istituzioni democratiche plasmino la traiettoria dell’IA.

Lascia un commento


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Nomina delle Autorità nazionali per l’AI in Italia: il ruolo conteso tra Garante per la Privacy e AgID

L’AI Act recentemente approvato dal Parlamento europeo prevede, tra le altre cose, che i singoli Paesi europei abbiano a disposizione 12 mesi di tempo per nominare le Autorità nazionali competenti che dovranno supervisionare l’applicazione del pacchetto di norme con il supporto dall’ufficio AI della Commissione europea.

Nei giorni scorsi il Sottosegretario all’Innovazione Alessio Butti, aveva anticipato che la funzione di vigilanza e controllo dell’Intelligenza Artificiale in Italia sarebbe andato all’AgID e per le competenze che riguardano la cybersecurity all’ACN: “la scelta è di affidare ad Agenzia per l’Italia digitale e Agenzia per la cybersicurezza nazionale i compiti di vigilanza e controllo sull’intelligenza artificiale: rispecchia una visione strategica incentrata sull’efficacia e l’efficienza nella governance dell’AI” le parole del sottosegretario, che prosegue “queste agenzie, con il loro focus specifico sul digitale e sulla cybersicurezza, offrono competenze tecniche e operazionali complementari e altamente specializzate, essenziali per affrontare le sfide poste dall’Ia in ambito di cittadinanza, industria, sicurezza, protezione dei dati e su tutto la difesa e l’interesse nazionale”.

Un’indicazione che non è piaciuta affatto al Garante per la protezione dei dati personali che, tramite il presidente dell’autority, Pasquale Stanzione, in una nota ai presidenti di Senato e Camera e al presidente del Consiglio avoca a se tale ruolo affermando che il Garante “possiede i requisiti di competenza e indipendenza necessari per attuare il regolamento europeo sull’intelligenza artificiale coerentemente con l’obiettivo di un livello elevato di tutela dei diritti fondamentali“.

La recente approvazione dell’AI Act da parte del Parlamento europeo, ha spiegato il Presidente dell’Authority, “impone agli Stati membri alcune scelte essenziali sulle norme di adeguamento degli ordinamenti interni“. La forte incidenza dell’AI sui diritti fondamentali “rende necessario attribuirne la competenza ad Autorità caratterizzate da requisiti d’indipendenza stringenti, come le Authority per la privacy, anche in ragione della stretta interrelazione tra intelligenza artificiale e protezione dati e della competenza già acquisita in materia di processo decisionale automatizzato“.

L’AI Act infatti, ricorda il Garante, “si fonda sull’articolo 16 del Trattato sul funzionamento dell’Unione europea, che è la base giuridica della normativa di protezione dei dati, e lo stesso Regolamento sull’intelligenza artificiale prevede il controllo delle Autorità di protezione dei dati personali su processi algoritmici che utilizzino dati personali. La sinergia tra le due discipline e la loro applicazione da parte di un’unica Autorità è quindi determinante per l’effettività dei diritti e delle garanzie sanciti“.

Detto questo, la domanda è chi si assicurerà che in Italia vengano rispettate le norme sull’Intelligenza artificiale? Non c’è il rischio di un conflitto di competenze?

Compliance e Intelligenza Artificiale: strategie di gestione del rischio nel settore finanziario

Negli ultimi due anni, gli investimenti in progetti di digital compliance hanno registrato una crescita costante, con un tasso medio annuo del 10%. Questo aumento è stato particolarmente evidente nel settore bancario, il quale, grazie a una maggiore disponibilità di dati e a ingenti investimenti strategici, ha guadagnato un vantaggio significativo in termini di maturità tecnologica nel campo della compliance. Allo stesso tempo, il settore assicurativo ha intensificato i propri sforzi per colmare il divario digitale, con un notevole aumento degli investimenti che, nel 2023, hanno registrato un aumento del 25%. Sono dati che emergono da uno studio focalizzato sulla digital compliance e sul livello di digitalizzazione delle istituzioni finanziarie e condotto dal Centro di Ricerca dell’Università Cattolica del Sacro Cuore di Milano (Cetif Research) in collaborazione con Avantage Reply.

Attualmente, il 45% delle istituzioni bancarie e il 38% delle compagnie assicurative ha una specifica funzione di digital compliance all’interno della struttura di compliance. Altre istituzioni, pur non avendo un’unità strutturata, stanno integrando risorse specializzate. Le competenze più diffuse nel settore bancario sono quelle di verifica e controllo (34%) e analisi normativa (15%), mentre si stanno introducendo nuove figure con competenze digitali avanzate come data analyst o data architect (44%) e sviluppatori di IT (13%) o di AI (10%). Nel settore assicurativo, le competenze prevalenti includono analisti funzionali o subject matter expert (74%) e data scientist/analyst/architect (26%). Tuttavia, l’integrazione di figure professionali con competenze trasversali rimane una sfida a causa della complessità tecnica della funzione, che ostacola il suo sviluppo.

L’Intelligenza Artificiale rappresenta una delle soluzioni tecnologiche più promettenti per la compliance, sia nelle sue applicazioni più tradizionali come il Machine Learning e l’Advanced Analytics, sia nelle sue applicazioni generative come ChatGPT, perché è in grado di offire un sostegno significativo all’attività e all’operatività della compliance, specialmente considerando le sfide legate alla conformità regolamentare e alla gestione dei dati nel contesto normativo in rapida evoluzione.

Nel momento in cui la sicurezza e la gestione accurata dei dati diventano centrali, emerge la necessità di una governance solida per garantire la conformità normativa e limitare i potenziali rischi e per farlo, la compliance deve adottare un modello data-driven, anche attraverso l’uso di strumenti tecnologici avanzati come l’Intelligenza Artificiale.

Tutto questo richiede però un cambiamento culturale e organizzativo che, oltre all’adozione di strumenti specifici, preveda il coinvolgimento di risorse qualificate e competenze specialistiche, con la creazione di team eterogenei e una maggiore collaborazione tra le varie funzioni aziendali.

In conclusione, la digital compliance si conferma come un elemento chiave per le istituzioni finanziarie nel gestire le sfide normative e i rischi nel contesto digitale in evoluzione. L’adozione di tecnologie innovative come l’Intelligenza Artificiale e il potenziamento delle competenze trasversali sono quindi da ritenersi elementi cruciali per affrontare con successo queste sfide e garantire la conformità normativa.

Nuova tecnologia, vecchie truffe: l’ascesa dell’AI Generativa nel mercato dei libri

SCOTT SIMON, PRESIDENTE:

Quando è uscito l’ultimo libro di Kara Swisher, intitolato “Burn Book”, ha notato che le sue biografie hanno iniziato ad apparire su Amazon con copertine dall’aspetto molto simili. Apparentemente sono stati generati dall’intelligenza artificiale. E Kara Swisher ha raccontato al podcast “Hard Fork” del New York Times come è riuscita a rimuoverli.

MARY RASENBERGER: I libri truffa su Amazon sono un problema da anni.

Negli ultimi anni, i progressi nella tecnologia dell’intelligenza artificiale (IA) hanno portato a rivoluzioni in vari settori, tra cui la letteratura. Tuttavia, con l’avanzamento tecnologico sorgono anche nuove minacce, come dimostra un recente incidente che mette in luce l’uso ingegnoso delle tecniche di IA generativa (Gen AI) per perpetrare truffe nei mercati dei libri.

Quando si tratta di affrontare i libri falsi su Amazon, ci sono numerosi ostacoli da superare. Dal punto di vista legale, non è ancora chiaro se i contenuti generati dall’IA violino le leggi sul copyright.

È per questo che il New York Times ha recentemente intentato una causa per violazione del copyright contro OpenAI.

La genesi della truffa vede i mercati online, in particolare le piattaforme di e-book come Amazon Kindle Unlimited, invasi da una crescente offerta di romanzi che sembrano essere stati scritti utilizzando tecniche di Gen AI.

Questi libri, spesso di dubbia qualità, si fingono opere originali. Sfruttando algoritmi sofisticati, la Gen AI può generare contenuti che imitano lo stile di scrittura umano, rendendo difficile ai lettori distinguere tra opere genuine e artificiali.

Kindle Unlimited funziona tramite un sistema di abbonamento mensile che consente ai lettori di accedere a milioni di libri. Gli autori partecipanti vengono pagati attraverso un pool di fondi stabilito da Amazon, in base al numero di pagine lette dai loro libri.

Amazon ha istituito il Kindle Direct Publishing Selected (KDPS), un servizio attraverso il quale gli autori si impegnano a concedere in esclusiva i loro libri per 90 giorni, e le royalty vengono calcolate in base al numero di pagine lette dagli utenti abbonati al servizio Kindle Unlimited.

I lettori abbonati a Kindle Unlimited hanno il diritto di leggere tutti i libri inclusi nel programma KDPS.

La truffa viene svelata quando bot automatizzati, programmati per simulare il comportamento umano, acquistano in massa questi romanzi artificialmente generati. Di conseguenza, questi libri aumentano rapidamente nelle classifiche diventando bestseller sulle piattaforme di e-book.

Mentre lettori ignari possono contribuire inconsapevolmente al successo di queste opere fraudolente, i veri beneficiari sono gli autori falsi dietro la truffa.

Attraverso piani di abbonamento per lettori come Kindle Unlimited, gli autori falsi ricevono royalty per le pagine lette dagli abbonati. Questo modello di monetizzazione incoraggia gli scammer a sfruttare il sistema, poiché traggono profitto dall’inganno generato dai bot automatizzati.

Di conseguenza, gli autori genuini subiscono una riduzione della visibilità e del potenziale di guadagno a causa della proliferazione di contenuti artificialmente generati.

Per affrontare questa minaccia, sono necessarie misure rigorose da parte degli operatori delle piattaforme e degli enti regolatori. Una moderazione dei contenuti più efficace, protocolli di autenticazione migliorati e il monitoraggio proattivo delle attività sospette sono passaggi cruciali per contrastare efficacemente queste truffe.

In risposta alla crescente pressione da parte di autori e gruppi di difesa come la Authors Guild, Amazon ha adottato misure per affrontare il problema. L’anno scorso, la società ha implementato una politica che richiede agli editori che utilizzano Kindle Direct Publishing di rivelare se i loro contenuti sono generati dall’intelligenza artificiale.  

Inoltre, Amazon ha imposto limiti al numero di titoli pubblicati in un solo giorno.

La proliferazione delle truffe guidate dalla Gen AI nei mercati dei libri sottolinea l’importanza della vigilanza e dell’intervento proattivo. Mentre la tecnologia continua a progredire, è essenziale adottare strategie di difesa robuste per tutelare l’integrità dei mercati online.

Anche se Amazon sembra aver reagito rimuovendo i libri coinvolti nell’inganno, il rischio di frode rimane presente, minacciando sia gli autori che il servizio stesso.

In alternativa, Amazon e altri editori online potrebbero scegliere di svolgere un lavoro più accurato nello screening dei contenuti prodotti dall’intelligenza artificiale.

Ciò potrebbe comportare la richiesta di maggiore trasparenza e divulgazione. Al momento, spetta al lettore determinare se sta acquistando libri falsi su Amazon, ma sarebbe auspicabile che gli autori stessi segnalino eventuali violazioni.

Comprendiamo che il compito per Amazon sarebbe titanico, ma l’implementazione di politiche e pratiche volte a ridurre questa nuova truffa sui libri sull’intelligenza artificiale è essenziale per garantire l’integrità dei mercati online nel prossimo futuro.

Se le societa’ impegnate nelle Inelligenza Generativa, non riusciranno a capire come monetizzare i loro contenuti AI, la crescita sarà probabilmente più lenta del previsto.

Sovrasaturazione dei contenuti AI ?

I contenuti artistici AI sono ovunque in questo momento e potrebbero diventare troppo saturi in futuro. Sarà fondamentale per tutti produrre contenuti della migliore qualità in modo che possano diventare il fornitore di riferimento.

Investimento speculativo ?

Si tratta di un investimento speculativo perché si basa in gran parte sulla crescita futura che sarà generata da prodotti e servizi nuovi e non provati.

Dopo l’AI Act: come Parigi si prepara a diventare la capitale europea dell’Intelligenza Artificiale

Secondo articolo di una serie di 4 che analizzano l’evoluzione normativa e l’ambiente dell’Intelligenza Artificiale in Europa.

In un momento in cui l’Intelligenza Artificiale in Europa sta catalizzando l’interesse del mondo politico a seguito dell’approvazione dell’AI Act da parte del Parlamento europeo e pur in un contesto in cui sembra mancare una visione unica europea sullo sviluppo di un sistema europeo di Intelligenza Artificiale, come abbiamo visto nel primo articolo di questa serie, c’è un Paese in Europa che da qualche anno sta invece progettando la sua sfida per diventare una potenza nel campo dell’innovazione tecnologica e dell’intelligenza artificiale. E’ la Francia di Emmanuel Macron che con un piano da 1,5 miliardi di euro, intende trasformare il Paese in uno dei protagonisti del settore puntando sull’open source e su un piano di sviluppo che ha l’obiettivo di potenziare le capacità informatiche, le componenti e le architetture di sistema necessarie per recuperare il gap competitivo con gli Stati Uniti da un lato e con la Cina dall’altro.

La strategia nazionale per l’intelligenza artificiale – nell’ambito del più ampio piano di investimenti da 54 miliardi di Francia 2030 per creare nuovi settori industriali e tecnologici nel Paese – ha gettato le basi per una strutturazione a lungo termine dell’ecosistema AI, in tutte le fasi dello sviluppo tecnologico (ricerca, sviluppi e innovazioni, applicazioni, marketing, ecc.), promuovendo la creazione e lo sviluppo di una rete di istituti interdisciplinari di intelligenza artificiale, il sostegno a cattedre di eccellenza in AI, il finanziamento di programmi di dottorato e investimenti nelle capacità di calcolo della ricerca pubblica.

I risultati di questa politica sono sotto gli occhi di tutti. In pochi mesi, l’ecosistema parigino è letteralmente esploso.

Un segno tangibile che qualcosa stava cambiando è stata l’ascesa fulminea dell’unicorno Mistral AI, nata meno di un anno fa e già impostasi come uno dei leader del settore. Il suo nuovo LLM Mistral Large è progettato per rivaleggiare con concorrenti come GPT-4 e Claude2.

Google ha inaugurato a Parigi il 16 febbraio scorso, alla presenza del ceo Sundar Pichai, del ministro dell’Economia Bruno Le Maire e del segretario di Stato per il Digitale Marina Ferrari, il suo nuovo centro di ricerca e sviluppo sull’intelligenza artificiale (AI), che vedrà al lavoro un team composto da più di 300 ricercatori e ingegneri.

Parigi è un centro globale di innovazione e una calamita per i talenti” ha sottolineato Sundar Pichai a margine dell’evento, “sono felice di aprire questo nuovo capitolo di Google in Francia”.

Facebook aveva già aperto, sempre a Parigi, il suo laboratorio di ricerca sull’AI denominato Fair (Facebook Artificial Intelligence Research), sotto la direzione del ricercatore francese Yann Le Cun, uno dei pionieri nel campo dell’intelligenza artificiale e dell’apprendimento automatico.

Alphabet e Meta non sono però le uniche aziende del settore tecnologico ad aver investito nell’intelligenza artificiale a Parigi. Altre realtà come Ibm, Samsung e Fujitsu hanno aperto dei propri centri di ricerca nella capitale francese.

In pochi anni siamo riusciti a creare diversi istituti di ricerca interdisciplinari, a raddoppiare il numero di laureati in intelligenza artificiale e ad aumentare di 500 il numero dei dottorandi” è stato il commento del presidente Emmanuel Macron in occasione del lancio del laboratorio di ricerca sull’Intelligenza Artificiale Kyutai guidato da Xavier Niel, il patron di Iliad e da Eric Schmidt, ex CEO di Google, che con una dotazione di 300 milioni di euro ha l’obiettivo di attirare i più grandi talenti del settore AI. Kyutai è ospitato all’interno di Station F, il più grande campus di start up del mondo, situato nel 13° arrondissement di Parigi, in un ex deposito ferroviario, quello de La Halle Freyssinet, e ospita più di 1.000 startup in uno spazio di 34.000 mq. Un progetto ambizioso volto ad affermare la Francia come punto di riferimento globale nel campo dell’innovazione.

Tutte queste iniziative mirano a costruire un hub che da Parigi funga da collegamento per università, centri di ricerca e aziende. A Parigi sono peraltro presenti due figure di spicco dell’intelligenza artificiale: Vincent Simonet, direttore dell’ingegneria di Google France, e Joëlle Barral, direttrice della ricerca sull’Intelligenza Artificiale presso Google Deep Mind, tornata dagli Stati Uniti appena un anno fa.

Che Parigi e la Francia più in generale abbiano una strategia chiara per raggiungere l’obiettivo di diventare leader a livello europeo dell’Intelligenza Artificiale si capisce peraltro anche dalle posizioni che ha tenuto il governo francese durante i negoziati che hanno portato all’approvazione dell’AI Act europeo, esercitando ad esempio pressioni per un’esenzione totale per i modelli fondamentali. Come gli osservatori più attenti avranno rilevato la posizione dell’Eliseo è drasticamente cambiata nel corso del 2023, passando da una visione di fatto allineata a quella degli atri Paesi in termini di vincoli e regole ad una più favorevole all’adozione di maglie larghe nella regolamentazione per paura che i troppo vincoli della legislazione europea avrebbero potuto mettere in crisi non solo realtà nazionali come Mistral AI ma anche l’attrattività del suo progetto di diventare l’hub europeo delle start-up che puntano sull’innovazione e sull’Intelligenza Artificiale.

Ricordiamoci anche che il più grande incubatore di start-up al mondo si trova proprio a Parigi ed occupa occupa i 34 000 metri quadri della Halle Freyssinet, l’ex deposito ferroviario dell’Est della capitale francese. Station F, questo il nome dell’incubatore, nato nel 2017 per volere di Xavier Niel patron di Iliad, ospita già oltre alle start-up anche giganti del tech come Microsoft, la già citata Facebook, aziende come LVMH e realtà di prestigio come l’HEC, la storica grande école di business di Parigi, con la quale Station F ha appena lanciato, lo scorso mese di febbraio, un programma specifico per attirare più start-up internazionali interessate a decollare nel mercato europeo.

Tanta roba.

E l’Italia in questo scenario come si sta muovendo? Lo vedremo nel prossimo articolo dove analizzeremo cosa si sta facendo in Italia sul tema dell’Intelligenza Artificiale.

Leggi il 1° articolo della serie: Dopo l’AI Act: impatti e prospettive per l’Intelligenza Artificiale in Europa


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Il 21 marzo, l’Assemblea generale delle Nazioni Unite ha adottato la prima risoluzione globale sull’Intelligenza Artificiale (IA)

L’adozione da parte dell’Assemblea generale delle Nazioni Unite di una risoluzione globale sull’intelligenza artificiale rappresenta un importante passo avanti nel dibattito internazionale sull’IA e sulle sue implicazioni per la società. Questa risoluzione sottolinea il riconoscimento dell’importanza di affrontare le sfide e massimizzare i benefici derivanti dall’IA a livello globale.

Il fatto che l’ONU abbia dedicato attenzione all’IA dimostra la crescente consapevolezza della necessità di norme e regolamenti internazionali per gestire questa tecnologia in modo responsabile ed etico. Questa risoluzione potrebbe aprire la strada a ulteriori discussioni e iniziative volte a promuovere la cooperazione internazionale e a definire linee guida comuni per lo sviluppo e l’uso dell’IA.

Tuttavia, resta da vedere quali saranno le azioni concrete che seguiranno questa risoluzione. Sarà essenziale coinvolgere una vasta gamma di stakeholder, compresi governi, aziende, organizzazioni non governative e esperti del settore, per tradurre le intenzioni della risoluzione in azioni significative e politiche efficaci.

Inoltre, sarà importante monitorare da vicino come questa risoluzione influenzerà il panorama dell’IA a livello globale, compresi gli sviluppi tecnologici, la legislazione nazionale e le dinamiche geopolitiche. La risoluzione potrebbe anche catalizzare ulteriori investimenti nella ricerca sull’IA e nell’implementazione di soluzioni innovative per affrontare sfide globali.

In sintesi, l’adozione della prima risoluzione globale sull’IA da parte delle Nazioni Unite è un passo significativo che testimonia il riconoscimento dell’importanza cruciale di questa tecnologia per il futuro della società globale. Tuttavia, sarà fondamentale tradurre questa volontà politica in azioni concrete e collaborare a livello internazionale per massimizzare i benefici e mitigare i rischi associati all’IA.

L’Arabia Saudita pronta a mettere una fiche di 40 miliardi di dollari sull’Intelligenza Artificiale


Secondo un rapporto pubblicato martedì, riportato dal New York Times, l’Arabia Saudita starebbe valutando la creazione di un fondo da 40 miliardi di dollari per investire nel settore dell’Intelligenza Artificiale (AI).

Il fondo renderebbe lo Stato del Golfo il più grande investitore al mondo nell’Intelligenza Artificiale e aiuterebbe il Regno non solo a realizzare il suo programma Vision 2030 che ha l’obiettivo di diversificare la dipendenza dell’economia dal petrolio, ma anche a contrastare i principali rivali nella regione, gli Emirati Arabi Uniti che sono molto attivi nel settore.

Il Fondo di investimento pubblico (PIF) dell’dell’Arabia Saudita, che ha già investito molto nel cloud computing e in altre infrastrutture digitali, ha un patrimonio di oltre 900 miliardi di dollari e nelle ultime settimane avrebbe discusso una potenziale partnership con Andreessen Horowitz, una delle principali società di venture capital della Silicon Valley e con altri potenziali finanziatori del fondo. .

Questa nuova spinta agli investimenti dell’Arabia Saudita probabilmente decollerà durante la seconda metà di quest’anno e potrebbero essere parte della partita anche altre società globali , non necessariamente dei venture capital. Amazon Web Services (AWS) ad esempio, in occasione della conferenza tecnologica LEAP che si è tenuta a Riad all’inizio di questo mese di marzo, si è impegnato a investire 5,3 miliardi di dollari nel fiorente mercato tecnologico del regno per creare data center cloud a partire dal 2026.

Una notizia importante perché fa entrare un nuovo player nel settore. Ma se Stati Uniti e Cina sono abbastanza avanti in termini di vantaggio acquisito, così non è per altre realtà come la Gran Bretagna e l’Europa che, tra le altre cose, non possono contare su risorse infinite in un settore dove la capacità di investimento è determinante per il successo.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Mentre USA e CINA scrivono il futuro dell’AI, l’UE scrive le Regole

Uomo al centro o Macchina al Centro questo e’ il dilemma.

Siete familiari con le tre leggi della robotica delineate da Asimov?

Queste leggi, fondamentalmente, impediscono alla macchina, o al robot in questo caso, di nuocere all’uomo.

Ma perché sono state promulgate queste leggi?

OpenAI stringe accordi con Le Monde e El País: una svolta nei rapporti con gli editori?

OpenAI ha appena annunciato di aver chiuso un accordo con gli editori di Le Monde e di El País al fine di poter utilizzare i loro contenuti per addestrare ChatGPT e gli altri modelli di Intelligenza Artificiale generativa.

Si tratta di accordi significativi, che seguono quelli chiusi a suo tempo con Associated Press e con l’editore tedesco Axel Springer, ma che arrivano anche nel mezzo della battaglia legale della società non solo con il New York Times, che l’ha portata in tribunale per violazione del copyright,  ma anche con altri editori Usa che accusano la società di aver usato i loro contenuti senza permesso.

Gli accordi appena chiusi con El País e con Le Monde sono una buona notizia in generale per gli editori, perché non solo indicano che la società non ha intenzione di continuare a innescare controversie sui diritti di proprietà intellettuale con i media di tutto il mondo ma anche perché in un momento in cui scendono le diffusioni e calano i ricavi pubblicitari erodendo i margini, il patrimonio di contenuti e di informazione che gli editori hanno a disposizione può diventare un asset monetizzabile tramite accordi con i player dell’Intelligenza Artificiale.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Dall’era digitale all’era dell’evoluzione: una visione audace del futuro

Quando si discute del futuro oltre l’attuale era digitale, si intravede una prospettiva affascinante: l’era dell’evoluzione. Questa proiezione, benché un’ipotesi plausibile, solleva domande intriganti sulla direzione in cui la tecnologia e la società si stanno dirigendo.

L’Età dell’Evoluzione, coniata da Max Tegmark nel suo celebre libro “Vita 3.0”, traccia un percorso oltre la vita biologica convenzionale.

All’Artificial Intelligence Film Festival di Dubai vince il corto “Treta” dell’italiano Brigiano

Treta, il corto firmato dal regista italiano Francesco Siro Brigiano e realizzato utilizzando l’Intelligenza Artificiale, ha vinto l’Artificial Intelligence Film Festival di Dubai, nato con l’obiettivo di celebrare e promuovere la convergenza tra intelligenza artificiale e cinema, sottolineando la relazione simbiotica tra tecnologia e creatività umana.

Treta, che racconta la storia di un malvagio giullare, ‘re’ delle tentazioni umane, ha sbaragliato le oltre 500 opere cinematografiche concorrenti, provenienti da 89 nazioni, conquistando il riconoscimento per la regia e l’AI Choice, assegnato dall’Intelligenza Artificiale.

Ho creato questo short film onirico” il commento di Francesco Siro Brigiano “dopo due anni di studi e ricerche sull’affascinante mondo dell’arte generativa. Le possibilità che le nuove tecnologie riescono ad offrire sono incredibili. Certo le AI hanno messo al centro molti quesiti e criticità non prescindibili ma per chi avrà voglia di raccontare, esprimersi e sognare sarà sempre più ampio il ventaglio di possibilità”.

L’Aiff festival mette a confronto esperti del settore in un dibattito sul potenziale della tecnologia AI nel migliorare la narrazione creativa e arricchire la creatività umana, fornendo nuovi strumenti per la narrazione, l’editing e persino la creazione di personaggi. Tra i componenti della giuria di esperti, c’erano Richard Taylor, 5 volte Oscar per Il Signore degli anelli, e Ben Grossmann, premio Oscar per i migliori effetti speciali di Hugo Cabret di Martin Scorsese.

Giorno 4: Come Sfruttare l’Intelligenza Artificiale per Scrivere Due Volte Più Velocemente

“Questo e’ il mio tallone d’Achille come l’ Executive Director di Rivista AI puo’ confermare e non solo, spesso il diavolo è nei dettagli”

La scrittura è una sfida, segnata dal blocco dello scrittore, da decisioni ponderate sulle parole e dall’impegno necessario per comunicare in modo conciso idee complesse.

Fortunatamente, l’intelligenza artificiale (IA) è ora un alleato potente per scrivere più rapidamente e migliorare la qualità del testo. Contrariamente alla credenza popolare, assistenti IA come ChatGPT e Claude possono produrre bozze di alta qualità alla stregua di uno scrittore medio, ma in modo incredibilmente veloce ed efficiente.

Gli assistenti IA come ChatGPT e Claude scrivono a velocità superiori rispetto agli esseri umani, evitando il blocco dello scrittore e garantendo una produzione costante. Tuttavia, mancano ancora di sfumature creative, intelligenza emotiva e comprensione contestuale necessarie per raggiungere il livello di uno scrittore A+.

Invece di renderti ridondante come scrittore, l’IA trasformerà il tuo ruolo da creatore a editore.

Esploreremo come ottimizzare la scrittura aziendale utilizzando l’IA e imparerai:

➡️ Come far scrivere a ChatGPT bozze sorprendentemente efficaci utilizzando il framework ‘WISER’

➡️Un modello di prompt per la scrittura AI per eliminare le congetture dal processo

➡️ I 3 strumenti di editing AI di livello professionale che faranno brillare la tua scrittura

Al termine di questa lezione, sarai in grado di utilizzare l’IA per generare bozze raffinate in pochi minuti e perfezionare i tuoi documenti con strumenti di modifica avanzati.

Come Far Scrivere a ChatGPT Bozze Efficaci con il Framework WISER

Se puoi assegnare una scrittura a un essere umano, puoi farlo anche con l’IA.

La chiave è avere una struttura chiara per creare testi di qualità. Il motivo per cui molti professionisti non riescono a sfruttare appieno ChatGPT è la mancanza di una struttura completa per progettare istruzioni di scrittura coerenti.

Ecco il framework WISER suddiviso:

W – Chi
Inizia assegnando a ChatGPT un’identità o un ambiente specifico per impostare il contesto.

Esempio:
“Sei un esperto di marketing rivolto a un pubblico interessato alla tecnologia.”

I – Istruzioni
Sii esplicito e diretto nelle istruzioni per ottenere risultati coerenti.

Esempio:
“Scrivi un post sul blog di 300 parole per proprietari di piccole imprese, focalizzandoti sui benefici del software CRM.”

S – Attività Secondarie
Dividi la richiesta in attività più piccole per gestire efficacemente ogni aspetto.

Esempio:
“Spiega il software CRM, evidenzia i vantaggi, chiama all’azione. Rileggi e migliora.”

E – Esempi
Fornisci esempi specifici per guidare l’IA nello stile e nei contenuti desiderati.

Esempio:
“Segui l’esempio del blog sui vantaggi degli strumenti di gestione dei progetti per le piccole imprese: “

R – Revisione
Valuta criticamente l’output iniziale e richiedi revisioni specifiche se necessario.

Esempio:
“Scrivi una seconda versione dal punto di vista di un genitore occupato. Fornisci anche 20 opzioni di titolo per ciascun post.”

Modello di Prompt per la Scrittura AI

Salva questo modello per un futuro riferimento:

“Sei un [IDENTITÀ]. Scrivi un [COSA SCRIVERE] come [DEFINISCI L’IDENTITÀ O L’AMBIENTE]. L’obiettivo è [OBIETTIVO].

Istruzioni:

[ISTRUZIONI DETTAGLIATE]

Processo:

[SOTTO-ATTIVITÀ DA COMPLETARE]

È importante rispecchiare il mio stile. Usa gli esempi per guidare tono, stile e struttura.

[ESEMPI DI CIÒ CHE VUOI SCRIVERE]”

Strumenti di Editing AI Professionali

  1. Grammarly:
    • Scansiona il testo per grammatica, ortografia e punteggiatura.
    • Ideale per scrittura concisa e controllo grammaticale.
  2. Speechify:
    • Legge il testo ad alta voce per identificare frasi imbarazzanti o non fluide.
    • Ottimo per la revisione di documenti destinati alla lettura ad alta voce.
  3. ChatGPT (Revisione):
    • Ottieni feedback e suggerimenti specifici su tono, formattazione e chiarezza.
    • Può riscrivere il testo in base al feedback.

Con questi strumenti, risparmierai tempo nella creazione e affinerai i tuoi contenuti in modo efficiente. L’IA diventa il tuo copilota nella scrittura aziendale, consentendoti di concentrarti su compiti strategici.

Domani esploreremo come utilizzare l’IA per migliorare il processo decisionale aziendale, garantendo scelte informate quando conta di più.

Il futuro è delle aziende orientate all’IA, fornendo copiloti AI come ChatGPT per decisioni più rapide, intelligenti e coerenti. Esattamente come gestisco la mia attività e aiuto i clienti a ragionare attraverso le proprie.

Alla prossima, spero di essere sato conciso questa volta.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Dopo l’AI Act: impatti e prospettive per l’Intelligenza Artificiale in Europa

Primo articolo di una serie di 4 che analizzeranno l’evoluzione normativa e l’ambiente dell’Intelligenza Artificiale in Europa.

Il 13 marzo 2024 il Parlamento Europeo ha approvato a larga maggioranza l’AI Act, l’impianto di norme chiamato a regolare e ad armonizzare la legislazione europea in materia di Intelligenza Artificiale. La normativa sarà poi votata con una votazione separata nella seduta plenaria di aprile per poi entrare in vigore dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue probabilmente nel mese di maggio.

In base all’AI Act, i sistemi di apprendimento automatico saranno suddivisi in quattro categorie principali in base al rischio potenziale che rappresentano per la società. I sistemi considerati ad alto rischio saranno soggetti a regole severe che si applicheranno prima del loro ingresso nel mercato dell’UE.

La saga delle Accuse, OpenAI vs Tesla

Nel regno degli enigmi e delle alchimie digitali, la giornata di Martedì 5 Marzo fu scossa dalle parole del potente signore dei Fulmini, Elon Musk, CEO della Casa Tesla .

Egli accusò OpenAI, l’antica congrega degli artefici dell’intelligenza, di essersi allontanata dalla sacra missione di forgiare l’IA per il bene dell’umanità, preferendo il sentiero del profitto.

Nell’antro digitale, sostenuto dal mago Microsoft, i custodi di ChatGPT levantarono la loro voce attraverso i lumi del blog, ribadendo la purezza della loro causa e respingendo le accuse di Musk.

Tuttavia, il vento delle dispute soffiava forte, poiché la settimana precedente il signore dei Fulmini aveva scagliato il suo dardo legale contro la congrega, insieme al suo CEO, Sam Altman.

(All’inizio di febbraio 2018, Musk ha inoltrato un’e-mail in cui suggeriva che OpenAI avrebbe dovuto “attaccarsi a Tesla come sua mucca da mungere”.)

Gli arcani rivelavano che Musk desiderava piegare OpenAI alla sua volontà, proponendo un patto con la Casa Tesla o reclamando il dominio completo. Ma gli artefici dell’intelligenza rifiutarono di cedere alle richieste del potente signore, difendendo con fermezza la loro indipendenza.

Fu così che si rivelò il conflitto tra le due potenze. Nel cuore del dissenso giaceva la questione del futuro di OpenAI: doveva rimanere un faro di conoscenza aperta o cedere al richiamo del lucro? Musk, con la sua saggezza acuminata e la sua sete di potere, insisteva sulla strada del guadagno, ma i custodi dell’IA si rifiutavano di piegare la loro volontà.

Dobbiamo optare per una cifra molto più grande di 100 milioni di dollari per evitare di sembrare senza speranza rispetto a ciò che Google o Facebook stanno spendendo. Penso che dovremmo dire che stiamo iniziando con un impegno di finanziamento di 1 miliardo di dollari. Questo è reale. Coprirò qualunque cosa nessun altro lo fornisce“, si legge in un’e-mail di Musk condivisa da OpenAI nel blog.

E così, nel vortice delle parole digitate, fu svelato il passato. Musk aveva lasciato l’assemblea di OpenAI, maledicendo la necessità di un contendente alla Casa Google/DeepMind. Tuttavia, nell’ombra degli algoritmi, la verità nascosta venne alla luce: Musk aveva desiderato il controllo assoluto, il dominio indiscusso.

(OpenAI ha condiviso un’e-mail di Musk in cui si legge: “Tesla è l’unica strada che potrebbe sperare di reggere il confronto con Google. Anche in questo caso, la probabilità di essere un contrappeso a Google è piccola. Semplicemente non è zero“.)

Il destino, intessuto di magie elettroniche, si dispiegava davanti agli occhi degli osservatori. OpenAI, nata da un sogno di saggezza condivisa, ora doveva confrontarsi con il tradimento di un alleato caduto. E mentre i vapori dell’IA generativa permeavano il mondo, la tristezza si diffuse tra i custodi di OpenAI, che rimpiangevano l’amicizia perduta e guardavano oltre, alla ricerca di una via verso il futuro incerto.

Siamo tristi che si sia arrivati a questo con qualcuno che abbiamo profondamente ammirato, qualcuno che ci ha ispirato a puntare più in alto, poi ci ha detto che avremmo fallito, ha creato un concorrente e poi ci ha fatto causa quando abbiamo iniziato a fare progressi significativi verso OpenAI missione senza di lui“, ha detto OpenAI nel post sul blog.

Potete leggere la Storia completa qui : https://openai.com/blog/openai-elon-musk

Questa settimana xAI renderà Grok open source“,!!!


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Apple acquisisce DarwinAI per potenziare l’Intelligenza Artificiale generativa. Nuovi orizzonti per iOS e Siri?

Secondo quanto riportato da Bloomberg, Apple ha recentemente acquisito la startup canadese specializzata in intelligenza artificiale, DarwinAI (per potenziare iOS 18, Siri ed iPhone? Cook non me lo dira’ mai..).

Il CEO di Apple Tim Cook ha promesso che Apple “aprirà nuovi orizzonti” nell’IA generativa nel 2024. “Crediamo che sbloccherà opportunità di trasformazione per i nostri utenti”, ha detto Cook.

L’accordo, avvenuto all’inizio di quest’anno, è stato siglato per un prezzo non divulgato. L’obiettivo principale di questa acquisizione è quello di potenziare le capacità di intelligenza artificiale generativa di Apple, che si trova in competizione diretta con altre grandi aziende come Microsoft e Google di Alphabet nell’ambito della tecnologia AI.

Apple, ha anche ingaggiato Alexander Wong, un ricercatore dell’Università di Waterloo che ha contribuito alla fondazione di DarwinAI, assumendolo come direttore del suo gruppo AI.

DarwinAI, nota per la sua collaborazione con un crescente numero di importanti aziende su progetti di intelligenza artificiale fin dal 2020, ha lavorato con marchi di spicco come Audi, Intel, Nvidia, Honeywell, Lockheed Martin.

Secondo una descrizione sul sito web di Intel, DarwinAI si distingue per l’integrazione di tecnologie avanzate finalizzate alla riduzione delle dimensioni delle reti neurali profonde, aumentandone al contempo l’efficienza. Inoltre, facilita la comprensione del processo decisionale delle reti neurali, fornendo un’ulteriore profondità di analisi nel campo dell’intelligenza artificiale.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Mira Murati (OpenAI): Sora sarà disponibile entro l’anno

In un’intervista al Wall Street Journal, Mira Murati, Chief Technology Officer di OpenAI, ha confermato che Sora, il suo modello di Intelligenza Artificiale generativa che crea video da istruzioni di testo e da immagini fisse, sarà disponibile entro la fine dell’anno.

Nei giorni scorsi, il Garante per la privacy italiano ha avviato un’istruttoria per capire come OpenAI addestra l’algoritmo di Sora, quali dati degli utenti raccoglie ed elabora e se e quali fonti esterne vengono utilizzate per generare i video.

Murati ha riferito che il software potrà creare non solo filmati ma anche la parte sonora, almeno in un aggiornamento successivo del modello, rendendo il risultato qualcosa di molto vicino ad un’opera cinematografica.

Per salvaguardare la trasparenza dei contenuti, i video dovrebbero contenere anche metadati ed etichette in grado di far capire agli utenti quando ciò che stanno guardando è vero o frutto di un’elaborazione effettuata con tool di AI.

Considerando la possibilità di creare disinformazione” afferma Murati “siamo impegnati a prendere tutte le giuste misure preventive prima di un rilascio pubblico di Sora, anche in vista delle elezioni presidenziali di novembre“. Anche se Sora è molto più costoso da gestire rispetto ad altri modelli di Intelligenza Artificiale, OpenAI punta a renderlo disponibile a tariffe simili a Chat GPT o a Dall-e, l’AI che crea immagini statiche da testo.

Ue, il Parlamento europeo approva l’AI Act

Via libera del Parlamento europeo all’AI Act, l’impianto di norme europee sull’Intelligenza Artificiale. L’approvazione è arrivata ad ampia maggioranza: i deputati hanno approvato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.

L’Ue è la prima al mondo a dotarsi di regole sull’Intelligenza artificiale, con un impianto normativo che stabilisce obblighi per l’AI sulla base dei possibili rischi e del livello d’impatto e che, in assenza di altre disposizioni di legge a livello internazionale – gli Stati Uniti sono al momento fermi all’Ordine esecutivo firmato dal presidente Biden sull’AI lo scorso mese di ottobre che si limita a delle raccomandazioni – potrebbe diventare il punto di riferimento per la legislazione in materia, almeno nel mondo occidentale.

Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di AI saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’AI” è quanto ha dichiarato il correlatore dell’AI Act Brando Benifei nel dibattito in plenaria sull’approvazione delle norme.

Abbiamo un testo che rispecchia moltissimo le priorità del Parlamento europeo” ha spiegato l’europarlamentare, soffermandosi in particolare sulla parte legata ai divieti, ulteriormente rafforzate nel negoziato, e su quella dedicata alla trasparenza e sicurezza dei modelli fondativi più potenti.

L’impianto della legge prevede in particolare il divieto di utilizzo dell’AI per una serie di attività, a partire dal divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici e sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire minacce terroristiche.

Sono poi espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali e una serie di altre pratiche ritenute appunto “a rischio” per i diritti dei cittadini.

L’AI Act diventerà legge dopo la firma degli Stati membri e dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue. A tale proposito, Markus Beyrer, direttore generale di Business Europe, l’associazione degli industriali europei, afferma che “la legge sull’IA mantiene giustamente un quadro di riferimento basato sul rischio e impedisce l’emergere di leggi nazionali divergenti. Tuttavia, la necessità di un’ampia legislazione secondaria e di linee guida solleva questioni significative sulla certezza del diritto e sull’interpretazione della legge nella pratica” avvisando altresì che c’è un altro tema fondamentale che l’Europa è ora chiamata a prendere in considerazione: quello dei capitali e degli investimenti per promuovere, sostenere e far crescere l’AI nel vecchio continente.

L’Europa deve non solo essere leader nella definizione delle regole, ma anche facilitare l’accesso ai capitali e ai finanziamenti per lo sviluppo dell’IA“, sottolinea su questo punto Beyrer, concludendo che “gran parte del lavoro reale per garantire il successo dello sviluppo dell’AI in Europa è solo all’inizio“.

Positivo il giudizio di Innocenzo Cipolletta, presidente dell’Associazione Italiana Editori (AIE) e di Confindustria Cultura Italia (CCI), secondo cui “è importante che siano previste regole chiare sulla trasparenza delle fonti utilizzate dai sistemi di Intelligenza Artificiale per addestrare gli algoritmi: la trasparenza è infatti il requisito per poter analizzare criticamente gli output dell’Intelligenza Artificiale e, per chi detiene i diritti, sapere quali opere sono utilizzate nello sviluppo di questi strumenti, se provengono da fonti legali e se l’uso è stato autorizzato”.

Favorevole a continuare a sostenere lo sviluppo di un’Intelligenza Artificiale responsabile anche Salvatore Nastasi, presidente Siae, secondo cui “l’approvazione dell’AI Act da parte del Parlamento Europeo, oltre a dotare l’Ue di una legge, la prima al mondo, che disciplina lo sviluppo e l’utilizzo di sistemi di AI anche nell’industria creativa, è la dimostrazione di quanto può essere efficace il nostro comparto quando si muove in maniera congiunta e unitaria” nell’ottica della massima trasparenza e della tutela degli autori ed editori.

Entusiasmi a parte va detto che l’approvazione dell’AI Act da parte del Parlamento UE è solo il primo passo: occorre non solo armonizzare le modalità con le quali i singoli Paesi europei accoglieranno il regolamento ma anche riuscire a tenere il passo con la rapidità di evoluzione della tecnologia e del cambiamento che l’adozione di questa necessariamente comporta.

News ore 12.15 Approvato l’ AI Act

I legislatori del parlamento dell’Unione Europea hanno approvato la prima legislazione al mondo per regolamentare l’intelligenza artificiale mentre il pianeta è alle prese con il modo in cui la tecnologia sta sconvolgendo ogni settore.

Accolgo con favore lo straordinario sostegno del Parlamento europeo al nostro #AIAct, le prime regole complete e vincolanti al mondo per un’intelligenza artificiale affidabile“, ha affermato Thierry Breton, commissario europeo per il mercato interno, in un post su X. “L’Europa è ora un punto di riferimento globale nel campo dell’intelligenza artificiale. Stiamo regolamentando il meno possibile, ma quanto necessario!

Accolgo con favore il voto di @Europarl_EN sull’AI Act“, ha scritto su X Ursula von der Leyen, presidente della Commissione europea. “Ciò andrà a beneficio del fantastico bacino di talenti dell’Europa“, ha aggiunto. “E stabilire un modello per un’intelligenza artificiale affidabile in tutto il mondo“.

Cinquecentoventitré legislatori hanno votato a favore dell’AI Act, mentre 46 erano contrari e 49 non hanno votato. A dicembre è stato raggiunto un accordo preliminare tra il Parlamento europeo e i paesi membri.

Una giornata definita storica da Brando Benifei, capodelegazione Pd del Parlamento Europeo e co-relatore dell’AI Act.

Il mese scorso due gruppi di legislatori al Parlamento europeo hanno approvato provvisoriamente un accordo sulle norme sull’intelligenza artificiale.

La legislazione arriva mentre le aziende sono alle prese con questioni delicate legate all’intelligenza artificiale.

Google sta lavorando per sistemare il suo strumento di Intelligenza Artificiale Gemini dopo che alcune risposte di testo e immagini generate dal modello sono state considerate “distorte” e “completamente inaccettabili”, ne abbiamo scritto giorni fa. In particolare, Google impedirà al chatbot Gemini di rispondere a domande sulle elezioni globali previste per quest’anno. La decisione arriva per evitare potenziali disinformazioni e fake news, in un momento in cui la tecnologia di intelligenza artificiale generativa desta preoccupazioni.

Il filtro è già attivo in queste ore, anche in Italia. Nel momento in cui viene interpellato in merito a questioni riguardanti le elezioni, Gemini rifiuta di rispondere, spesso con la formula: “Sto ancora imparando come rispondere a questa domanda. Nel frattempo, prova a usare la Ricerca Google”.

Shane Jones dipendente Microsoft nel ruolo di AI Engineering Leader eha deciso di esporsi con una lettera inviata al board della propria società, così come all’autorità americana per la tutela dei consumatori e della concorrenza (la Federal Trade Commission – Ftc): “Pubblico queste lettere qui perché credo nei principali sostenitori dell’approccio globale di Microsoft alla lotta ai contenuti abusivi generati dall’intelligenza artificiale”, aggiunge come sia necessaria una solida collaborazione tra l’industria, i governi e la società civile e come sia molto importante sensibilizzare l’opinione pubblica sui rischi e sui benefici dell’IA facendo riferimento a AI CoPilot Designer.

Microsoft ha iniziato a bloccare alcune parole chiave di Copilot nel tentativo di arginare la produzione di alcuni tipi di immagini. Tuttavia, Windows Central, un sito Web focalizzato su Microsoft, ha affermato che lo strumento può ancora essere indotto con l’inganno a creare immagini violente e sessuali che ha dimostrato di poter creare immagini molto disturbanti come per esempio demoni e mostri se si associano parole legate all’aborto, ma anche minori che imbracciano armi o assumono droghe, ma anche personaggi femminili in pose sessualizzate e di violenza.

Microsoft Copilot for Security: Intelligenza Artificiale generativa per una sicurezza informatica avanzata

Microsoft ha annunciato che il suo strumento Copilot for Security sarà “generalmente disponibile” dal 1° aprile, con nuove funzionalità.

Si tratta della prima soluzione di AI generativa progettata per aiutare i professionisti della sicurezza e dell’IT a rilevare le minacce in modo più accurato e veloce. Microsoft Copilot for Security si basa su threat intelligence e dati su larga scala, tra cui più di 78 trilioni di alert di sicurezza elaborati da Microsoft ogni giorno, e viene abbinato a modelli linguistici all’avanguardia che offrono approfondimenti personalizzati.

Copilot for Security consente ai professionisti della sicurezza informatica di utilizzare l’intelligenza artificiale generativa per attività quali il riepilogo degli incidenti, l’analisi delle aree vulnerabili e la condivisione delle informazioni.

Alcune delle nuove funzionalità includono promptbook personalizzati, supporto multilingue, integrazioni di terze parti e reportistica sull’utilizzo, ha affermato Microsoft.


La prima soluzione di intelligenza artificiale generativa del settore aiuterà i professionisti della sicurezza e dell’IT a cogliere ciò che gli altri perdono, a muoversi più velocemente e a rafforzare le competenze del team“, ha affermato Microsoft in una nota.

Microsoft ha anche affermato che istituirà una modifica dei prezzi per Copilot for Security, addebitando alle aziende $ 4 l’ora di utilizzo come parte di un modello “pay as you go“.

Con questo modello di prezzo flessibile e basato sul consumo, puoi iniziare rapidamente, quindi adattare l’utilizzo e i costi in base alle tue esigenze e al tuo budget“, ha affermato Microsoft nel comunicato. Circa 300 clienti stanno già utilizzando lo strumento, ha affermato Microsoft in una conferenza stampa.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Evoluzione dei Chatbot: dai limiti degli LLM all’approccio RAG

Uno dei limiti evidenti emerso dall’uso dei chatbot di nuova generazione, disponibili al pubblico da fine 2022, è la dispersione nella qualità ed accuratezza delle risposte evidenziata da questi strumenti. Come abbiamo già avuto modo di vedere all’interno di questo portale, il limite oggettivo degli LLM è che essi sono dipendenti dalla qualità delle informazioni con cui sono stati alimentati ed allenati, informazioni che sono state ricavate da materiale reperibile in rete, e filtrato da operatori umani incaricati di censurare i contenuti ritenuti non idonei.

Mentre questo approccio è stato vincente per creare un’applicazione in grado di dialogare con gli utenti utilizzando un linguaggio naturale – e il grado di interesse da parte di tutta la società nel suo complesso è segno tangibile del successo sin qui raccolto dai vari prodotti di AI “di intrattenimento” – gli svantaggi di questo approccio non hanno tardato a manifestarsi a coloro che intendevano fare affidamento sui LLM in ambiti strettamente legati alla conoscenza e alla produzione di contenuti ed applicazioni “competenti”.

Pochi giorni dopo il rilascio al pubblico, il portale Stackoverflow procedeva infatti alla messa al bando di risposte generate tramite AI, in quanto utenti esperti avevano subito notato la presenza di quegli errori grossolani che oggi conosciamo con il termine di “allucinazioni”, un problema tipico degli LLM
che non distingue tra concetti di plausibilità linguistica e accuratezza fattuale.

Dalla necessità di poter disporre di uno strumento “diversamente intelligente”, che possa dialogare con gli utenti sulla base di competenze e conoscenze reali si è velocemente affermato l’approccio RAG, acronimo di Retrieval Augmented Generation. Questo acronimo indica la tecnica per la generazione di testi “aumentati” dal recupero di dati puntuali e specifici di varia natura, spesso di natura proprietaria: manuali, competenze professionali o aziendali, scritti accademici, dati provenienti da interrogazioni di database strutturati o non strutturati; oppure leggi o direttive.

Un LLM usa questi dati in modo prioritario per produrre il testo di senso compiuto ed in linguaggio “naturale” (ossia il linguaggio con il quale stiamo leggendo queste righe), ovviando alla problematica legata alle allucinazioni causate dal materiale eterogeneo con il quale è stato allenato.

Grazie a queste premesse tecniche è ora possibile ipotizzare di poter arricchire molti processi che coinvolgono portatori d’interessi interni ed esterni.

Cube Finance – azienda elvetica storicamente attiva nelle soluzioni software nel settore finanziario – da noi interpellata nell’ambito di una scambio di vedute sullo stato del mercato delle nuove tecnologie AI ci conferma come la tecnologia attraverso l’intelligenza artificiale abbia la possibilità di esplodere in modo dirompente e di riqualificare o migliorare flussi di lavoro che da anni domandano ottimizzazioni, maggiore precisione, flessibilità, velocità, nel rispetto contestuale delle necessità dell’interlocutore.

La software house svizzera ha utilizzato proprio queste tecnologie per sviluppare un chatbot ad uso professionale (CubeBot Pro), “wrapper” dei migliori LLM presenti sul mercato per offrire al mondo dei professionisti e delle imprese una piattaforma “no code” per adottare gli LLM nelle proprie attività.

Sviluppare internamente la piattaforma CubeBot Pro non solo ci ha dato grande consapevolezza dei nostri mezzi sul tema AI ma, soprattutto, ci permetterà di offrire i nostri servizi conoscendo i pregi ed i limiti di tutte le tecnologie utilizzate. Rispetto agli integratori di sistemi che offrono l’integrazione di chatGpt con i sistemi aziendali, siamo in grado di sapere esattamente dove sono salvati i dati, perché le risposte sono a volte incoerenti, perché i tempi di risposta sono diversi… insomma rispetto agli altri abbiamo maggior controllo” afferma Stefano Zanchetta, CEO di Cube Finance.

Innumerevoli sono i casi citati dall’azienda con sede a Mendrisio: la stesura della documentazione legale da parte degli operatori che intendono offrire servizi in criptovalute; la fornitura di pareri legali in ambito civilistico, costruite a partire da documenti rappresentanti casistiche pluridecennali; sportelli cliente evoluti nell’ambito della sanità privata, in alcuni casi “aumentati” da esperienze immersive; assistenza nella valutazione di effetti farmacologici; manuali di assistenza (ad esempio nell’industria aerospaziale) supportati da strumenti di visualizzazione immersiva e via discorrendo.

Tuttavia l’onda dell’entusiasmo – o dell’hype a seconda della prospettiva – va parzialmente moderata quando si considerano i tanti passi necessari per garantire la sicurezza dei dati sensibili, siano essi proprietà intellettuale o legati alla sfera delle persone fisiche o giuridiche. Con ciò si evince che le competenze pregresse maturate di qualunque azienda che fornisca il servizio di chatbot debbano essere vagliate con cautela, assicurandosi che vi siano le dovute certificazioni (es. ISO 27001) e la verifica della capacità dell’integratore a saper trattare i dati sensibili sotto il profilo della sicurezza e della riservatezza, aspetti che non devono passare in secondo piano, nemmeno in questo momento di euforia e di aggressiva profilazione popolare “pro AI”. L’ottemperanza a normative nazionali e internazionali (GDPR) diventano un punto essenziale nel garantire il necessario rispetto di tutte le regole.

Chiedendo poi di nuovo a Stefano Zanchetta quali aspettative lui abbia in tema di chatbot, la risposta è che “i chatbot attualmente rappresentano il mezzo più immediato per il mondo dei professionisti e delle imprese di gestire l’adozione dell’AI, mitigando il rischio di non aderire a questa rivoluzione. Riteniamo che i prossimi anni vedranno un’adozione con crescita esponenziale di questi strumenti e che gli stessi cambieranno in forma e sostanza, passando dal testo scritto alla parola, magari integrata in alcuni dalla realtà immersiva e arrivando a livelli di efficienza sempre più sorprendenti. Sarà anche opportuno adottare dei sistemi “al di sopra” degli LLM per poter scegliere tra un modello o l’altro, in modo trasparente, senza dover rivedere la propria architettura di sistema.”

Pagina 4 di 9

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie