Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Vision Pagina 2 di 3

L’intelligenza artificiale rendera’ al massimo quando i processi saranno sviluppati in funzione di essa e non viceversa

Politiche di Intelligenza Artificiale Basate su Prove: Una Prospettiva Critica e Contrapposta

La discussione sulle politiche di intelligenza artificiale (IA) si sta intensificando, con richieste sempre più diffuse per approcci “basati sulle prove”. Questo concetto implica che le decisioni politiche debbano essere informate da analisi empiriche e dati scientifici. Tuttavia, questo articolo evidenzia le tensioni esistenti tra l’esigenza di regole chiare e il rischio di immobilismo decisionale.

Sarah Friar e la capacità di tradurre dati finanziari complessi in storie coinvolgenti

Sarah Friar è una figura prominente nel settore tecnologico, con una carriera che si estende per oltre due decenni. Prima di unirsi a OpenAI, ha ricoperto il ruolo di CFO presso Square (ora Block, Inc.), dove ha contribuito a trasformare l’azienda in un leader nel settore dei pagamenti digitali. Durante il suo mandato, ha guidato la società attraverso un’importante IPO e ha gestito le finanze in modo strategico per supportare la crescita.

In precedenza, Friar ha lavorato come Vice President of Finance presso Salesforce, dove ha supervisionato le operazioni finanziarie globali. Ha anche ricoperto ruoli significativi presso Goldman Sachs.

Friar è laureata in Ingegneria Elettrica presso la Stanford University e ha conseguito un MBA presso la Wharton School dell’Università della Pennsylvania. La sua combinazione di competenze tecniche e finanziarie le consente di affrontare le sfide del settore tecnologico con una visione unica e innovativa.

La sua leadership è caratterizzata da un forte impegno verso la diversità e l’inclusione nel posto di lavoro, rendendola una figura rispettata non solo per le sue competenze finanziarie ma anche per il suo approccio etico alla leadership aziendale.

Oggi Sarah Friar, Chief Financial Officer (CFO) di OpenAI, gioca un ruolo fondamentale nel garantire finanziamenti e gestire le relazioni con gli investitori mentre l’azienda naviga in un complesso panorama finanziario. Dalla sua assunzione nel giugno 2024, Friar ha concentrato i suoi sforzi sul miglioramento della comunicazione con gli investitori e sull’enfatizzazione della narrativa finanziaria dell’azienda.

OpenAI tenta di Raggiungere Anthropic: Una Corsa che Potrebbe Cannibalizzare il Proprio Business

Negli ultimi anni, l’industria dell’intelligenza artificiale (IA) ha visto una crescita esponenziale, con attori come OpenAI e Anthropic che stanno ridefinendo i confini di ciò che è possibile in questo settore in rapida evoluzione. Tuttavia, la sfida di mantenere la leadership tecnologica e commerciale sta diventando sempre più complessa, specialmente per OpenAI, che si trova ad affrontare la concorrenza crescente di nuovi protagonisti. In particolare, Anthropic, un’azienda emergente fondata da ex membri di OpenAI, sta guadagnando terreno rapidamente grazie al suo focus etico e all’innovazione nella sicurezza dell’IA.

Noam Shazeer: Il Custode della Macchina Pensante

Un viaggio attraverso l’ascesa di Noam Shazeer, un visionario che ha trasformato il modo in cui il mondo vede l’intelligenza artificiale, spingendo i confini del possibile e aprendo nuove strade per il futuro del pensiero umano.


Capitolo 1: L’Alba di un’Intuizione

La Visione di Miyamoto: Un Futuro Senza Confini

Nell’anno 2035, il mondo del gaming era dominato dall’intelligenza artificiale. Grandi aziende come EA, Nvidia e persino nuovi player del settore spingevano l’uso di AI avanzate per creare mondi virtuali autonomi, dove i giocatori potevano esplorare universi generati in tempo reale, rispondenti a ogni desiderio e decisione. Tuttavia, una voce solitaria si alzava contro questa corsa sfrenata: Shigeru Miyamoto, il leggendario creatore di mondi incantati come Super Mario e The Legend of Zelda.

AI Nel Settore BIO FARMACEUTICO: Un cambiamento RIVOLUZIONARIO in corso

Negli ultimi anni, l’intelligenza artificiale (AI) ha iniziato a trasformare settori tradizionalmente dominati da approcci scientifici e tecnologie consolidate. Il settore biofarmaceutico, una volta considerato troppo complesso per l’AI, sta sperimentando una rivoluzione alimentata dall’aumento delle capacità computazionali e dai progressi nei metodi di apprendimento automatico (ML). Questo report esplora i principali ambiti in cui l’AI sta avendo un impatto significativo, fornendo un quadro completo delle opportunità e delle sfide che il settore farmaceutico sta affrontando nell’era digitale.

AI e Innovazione: Il Duetto tra Sam Altman e John Elkann alla Italian Tech Week 2024 – Visioni, Opportunità e Sfide del Futuro

Sam Altman, CEO di OpenAI, e John Elkann, CEO di Exor, hanno partecipato a una discussione stimolante durante la Tech Week italiana 2024. La loro conversazione ha coperto una vasta gamma di argomenti, dall’innovazione e la leadership alle future implicazioni dell’intelligenza artificiale (IA). Ecco alcuni punti chiave dell’intervista che si sono distinti positivamente, così come alcuni che hanno suscitato riflessioni più profonde.

Un Caffè al Bar dei Daini: Zuckerberg svela gli occhiali Orion AR, Quest 3s, limited edition Ray-Ban al Meta Connect 2024 (aggiornamento)

Meta Platforms ha annunciato cinque punti chiave durante l’attesissimo evento dal vivo Meta Connect 2024, tenutosi mercoledì, dal CEO Mark Zuckerberg.

Illazioni su ChatGPT01: il trucco e le 16 inferenze

L’intelligenza artificiale (IA) sta subendo un’evoluzione rapida e costante, con progressi che ci avvicinano sempre di più all’Intelligenza Artificiale Generale (AGI), un concetto che descrive un’IA in grado di comprendere, apprendere e svolgere compiti in modo simile all’intelligenza umana.

Un esempio all’avanguardia di questi progressi è il modello GPT-4 di OpenAI, che rappresenta un significativo avanzamento rispetto ai suoi predecessori, come GPT-3 e GPT-3.5.

USA: Approccio alla Regolamentazione dell’IA

L’IA presenta significative opportunità, come l’efficienza e l’innovazione economica, ma anche notevoli rischi, tra cui discriminazione algoritmica e decisioni errate. I legislatori stanno cercando di stabilire responsabilità per l’uso sicuro e trasparente dei sistemi di IA, specialmente in contesti decisionali critici come l’occupazione, l’assistenza sanitaria e i servizi finanziari.

OpenAI: Evoluzione dell’Organizzazione la Vision di Sam Altman a Oprah Winfrey

OpenAI si prepara a un importante round di finanziamenti, previsto per un importo di 6,5 miliardi di dollari, che potrebbe portare la valutazione della società a 150 miliardi di dollari. Questo round si svolgerà sotto forma di obbligazioni convertibili e la valutazione finale dipenderà dalla capacità di OpenAI di ristrutturare la sua struttura aziendale, in particolare rimuovendo il limite di profitto per gli investitori.

Il Supercomputer di Classe Zeta del Giappone: Spingendo i Confini del Calcolo

Il Giappone ha recentemente annunciato un piano ambizioso per sviluppare il primo supercomputer di “classe zeta” al mondo, la cui costruzione inizierà nel 2025. Questo progetto rivoluzionario mira a raggiungere una potenza di calcolo 1.000 volte superiore rispetto ai supercomputer attuali, con un costo stimato superiore ai 750 milioni di dollari. Una volta completato, previsto per il 2030, si prevede che il supercomputer avrà un impatto profondo sulla ricerca scientifica e sulle capacità dell’intelligenza artificiale.

META Business Strategy: L’adozione di Llama sta crescendo rapidamente

I modelli di intelligenza artificiale Llama di Meta (NASDAQ: META) stanno guadagnando slancio in un’ampia gamma di aziende, mentre il colosso dei social media rimane saldo nella sua strategia open source. I download del modello Llama hanno quasi raggiunto i 350 milioni da quando è stato rilasciato l’anno scorso e il volume dei token tra i fornitori di servizi cloud è più che raddoppiato da quando è stato rilasciato Llama 3.1 ad aprile.

Zuckerberg vuole imporre Llama come standard di settore per le applicazioni AI, ma emerge un sentiment negativo

Meta Platforms sta intensificando la sua attenzione sull’intelligenza artificiale (IA) mentre il CEO Mark Zuckerberg mira a stabilire l’azienda come leader nel settore. Questo cambiamento avviene mentre Meta cerca di passare dall’attrarre principalmente inserzionisti su piattaforme come Facebook e Instagram al marketing efficace del suo software di IA per grandi aziende.

Henry Schmidt

Henry Schmidt ha recentemente tenuto una conferenza a Stanford intitolata “The Age of AI”, dove ha condiviso le sue visioni sull’intelligenza artificiale e il suo impatto futuro. Durante l’evento, ha affrontato vari temi, dalle capacità emergenti dell’AI alla competizione globale, con un tono provocatorio e una narrazione ricca di dettagli tecnici.

Google Strategy

Google è un leader globale nell’intelligenza artificiale, che sfrutta le sue vaste risorse e il suo talento per sviluppare tecnologie AI all’avanguardia che alimentano i suoi prodotti e servizi. La strategia AI dell’azienda si concentra sul progresso del settore attraverso la ricerca, applicando l’AI per migliorare le esperienze degli utenti e promuovendo lo sviluppo e l’uso responsabile dell’AI.

La distinzione tra natura e cultura: tra un’analisi etica e prospettive future, Biocomputer e Organoid Intelligencee

La distinzione tra natura e cultura è un tema che ha assunto sempre maggiore rilevanza nel contesto delle tecnologie innovative e delle biotecnologie. In questo articolo, esploreremo i concetti fondamentali dietro questa distinzione e le implicazioni etiche che derivano dalle nuove tecnologie.

AI powered Operation System Speciale Rivista.AI

I prodotti di aziende affermate e nuovi concorrenti hardware stanno integrando l’intelligenza artificiale generativa nei sistemi operativi.

Con l’adozione dei nuovi metodi di acquisto online, l’ecosistema della pubblicità digitale potrebbe subire cambiamenti significativi nella spesa pubblicitaria per ricerca, display e marketplace.

Ambrosetti : L’Italia si colloca al 24° posto su 37 paesi nel Global Innovation Index

Il TEHA – Global Innosystem Index (TEHA – GII) 2024, presentato al Technology Forum tenutosi il 30-31 maggio a Stresa da The European House – Ambrosetti, ha evidenziato nuovamente le criticità dell’Italia in tema di innovazione.

La posizione dell’Italia in termini di innovazione è un misto di progressi e sfide. Da un lato, il paese ha mostrato significativi progressi in diverse aree, come la diversificazione dell’industria nazionale e lo sviluppo dell’innovazione, in particolare nel design industriale.

Dall’altro lato, l’Italia ancora affronta diverse sfide che ostacolano la sua capacità innovativa. La capacità del paese di attrarre investimenti diretti esteri è un’area di preoccupazione principale. Inoltre, l’ambiente imprenditoriale italiano è ostacolato da procedure burocratiche complesse, che rendono difficile l’ingresso nel mercato per nuove aziende, come startup.

Il Paese si posiziona al 24º posto tra i 37 Paesi ad alta performance innovativa, una classifica dominata da Singapore, Israele ed Estonia. Gli indicatori che vedono l’Italia in maggiore difficoltà sono quelli relativi all’innovazione dell’ecosistema e al capitale umano, dove si colloca rispettivamente al 32º e al 28º posto.

Nonostante questi risultati, l’Italia dimostra una buona efficacia dell’ecosistema innovativo, piazzandosi al 10º posto per produzione di nuove idee e il loro impatto economico.

La Teoria della Mente e l’Intelligenza Artificiale

La teoria della mente, la capacità di comprendere e inferire gli stati mentali altrui, è una delle pietre miliari della cognizione umana. Questo concetto, esplorato in profondità nello studio pubblicato su “Nature Human Behaviour”, (in allegato) Testing theory of mind in LLM and Humans ha recentemente trovato nuovi territori di indagine grazie allo sviluppo dei modelli linguistici di grandi dimensioni (LLM) come GPT-4 e LLaMA2. Questi modelli, sottoposti a una batteria di test per valutare le loro abilità di teoria della mente, hanno mostrato performance paragonabili a quelle umane in vari compiti, sebbene con alcune limitazioni e differenze significative.

La narrativa della fantascienza ha spesso esplorato l’intersezione tra l’intelligenza artificiale e la teoria della mente, anticipando molte delle domande che oggi i ricercatori si pongono. Un esempio emblematico è il romanzo “Do Androids Dream of Electric Sheep?” di Philip K. Dick, da cui è tratto il celebre film “Blade Runner”. In questo romanzo, gli androidi sono creati per sembrare e comportarsi come esseri umani, ma la loro capacità di empatia e comprensione delle emozioni umane è ciò che li distingue dai loro creatori.

Apple e la sua strategia un approccio diverso

Apple sta lavorando per presentare una nuova strategia di intelligenza artificiale (IA) durante il suo Worldwide Developers Conference (WWDC) di questo mese. La compagnia si concentra su strumenti che gli utenti possono utilizzare nella vita quotidiana, piuttosto che su funzionalità più avanzate come quelle offerte da Microsoft, Alphabet e OpenAI. Questo approccio è basato su un progetto chiamato Greymatter, che integrerà strumenti di IA in applicazioni come Safari, Photos e Notes.

L’Intelligenza Artificiale nell’Educazione: Un’Analisi Approfondita 2018 / 2024

Negli ultimi anni, l’intelligenza artificiale (IA) ha acquisito un ruolo sempre più significativo in diversi settori, inclusa l’educazione. La sua capacità di analizzare grandi quantità di dati, riconoscere schemi complessi e offrire soluzioni personalizzate la rende uno strumento prezioso per migliorare l’esperienza di apprendimento. Questo articolo esplora vari aspetti dell’IA applicata all’educazione, basandosi su studi recenti e progetti pionieristici.

L’intelligenza artificiale prenderà davvero il tuo lavoro un giorno? Un’analisi tra paura e realtà

Answer

L’intelligenza artificiale è un tema che suscita sia paura che realtà riguardo alla possibilità di prendere il lavoro umano. Secondo alcuni studi, l’automazione e l’IA potrebbero effettivamente trasformare le professionalità e portare a una riorganizzazione del mercato del lavoro, con la possibilità che le macchine svolgano il lavoro di milioni di persone entro 10 anni

Tuttavia, non è necessariamente una minaccia catastrofica per i lavoratori, ma piuttosto un cambiamento che richiede adattabilità e preparazione. Alcuni settori potrebbero essere più vulnerabili, come il data entry o il supporto clienti, mentre altri potrebbero beneficiare dell’automazione. Inoltre, l’IA potrebbe portare a una maggiore produttività e a nuove opportunità economiche e di benessere

Risposte ai Rischi e ai Problemi Generati dall’Intelligenza Artificiale Generativa

L’articolo “L’Impatto dei Modelli di Intelligenza Artificiale Generativa sulle Società e la Democrazia” (epic.org 2023) presenta una valutazione dettagliata dei rischi e dei problemi associati all’utilizzo di modelli di intelligenza artificiale generativa (AI) nella società.

Questi strumenti, in grado di generare contenuti in modo estremamente preciso e naturale, hanno aperto nuove possibilità per l’innovazione e la creatività. Tuttavia, la loro capacità di produrre contenuti in modo autonomo e veloce ha anche sollevato preoccupazioni sulla loro capacità di essere utilizzati per scopi malevoli.

2 capitalismi a confronto Apple vs Google e la gestione del tempo

Cinquanta anni fa, le fortune delle aziende americane erano strettamente legate al benessere dell’intera nazione. Le imprese investivano nei propri dipendenti e nelle nuove tecnologie, garantendo prosperità sia per loro stesse che per i lavoratori.

Oggi, tuttavia, un numero crescente di dirigenti aziendali esprime preoccupazione per l’eccessivo interesse delle aziende verso i profitti a breve termine, concentrandosi unicamente sui guadagni degli azionisti. Questo approccio limita gli investimenti nei lavoratori, nella ricerca e nello sviluppo tecnologico, costi immediati che potrebbero temporaneamente ridurre i profitti. Secondo questi leader, tale strategia potrebbe portare a seri problemi nel lungo periodo per il paese.

La storia del capitalismo del XXI secolo è stata marcata dallo sviluppo straordinario di Apple e Google. In termini di creazione di ricchezza, non esiste paragone. Solo otto anni fa, nessuna delle due aziende figurava tra le dieci più valenti al mondo, e la loro capitalizzazione di mercato combinata era inferiore a 300 miliardi di dollari.

Oggi, Apple e Alphabet (la holding di Google) sono le due società più valenti, con una capitalizzazione di mercato combinata che supera i 1,3 trilioni di dollari. Questi colossi stanno sempre più spesso entrando in competizione in vari settori, dagli smartphone ai dispositivi audio domestici, fino a speculazioni su automobili e forse in un futuro sull AI. Tuttavia, la collisione più significativa tra Apple e Google passa quasi inosservata:

le due aziende hanno adottato approcci radicalmente diversi nei confronti dei loro azionisti e del futuro. Apple tende a soddisfare le richieste degli investitori, mentre Google mantiene il controllo nelle mani dei fondatori e dei dirigenti.

L’intelligenza Artificiale come ChatGPT Può Ridurre la Nostra Intelligenza? Gli Esperti Rispondono

La potente combinazione di internet e smartphone onnipresenti ci fa chiedere se sia ancora necessario ricordare qualcosa, poiché la conoscenza del mondo è sempre a portata di mano. Con l’adozione rapida dell’IA, le persone trovano modi per ridurre o evitare il lavoro. Ma quali potrebbero essere le conseguenze per i nostri cervelli?

Washington vuole plasmare il futuro degli Stati Uniti

Un gruppo bipartisan di quattro senatori statunitensi, guidato dal leader della maggioranza Chuck Schumer, ha chiesto che il Congresso spenda almeno 32 miliardi di dollari per l’intelligenza artificiale nei prossimi tre anni per “sfruttare le opportunità e affrontare i rischi” associati a questa tecnologia. Questa richiesta bipartisan dimostra l’urgenza di investire nell’AI per mantenere il vantaggio competitivo degli Stati Uniti, soprattutto di fronte alla crescente minaccia della Cina che sta investendo massicciamente in questo settore.

Analisi del Memo Strategico di Mistral.ai

Il Memo Strategico di Mistral.ai ha suscitato un notevole interesse e dibattito nel settore dell’Intelligenza Artificiale, poiché ha contribuito a garantire un finanziamento significativo per l’azienda. Esaminiamo da vicino i punti chiave emersi da questo documento e le implicazioni che ha per il futuro di Mistral.ai.

Offre una panoramica delle sfide e delle opportunità che l’azienda affronta nel suo percorso verso l’eccellenza nell’Intelligenza Artificiale. La chiarezza strategica, la sostenibilità finanziaria e la capacità di adattarsi al mercato emergente dell’IA saranno determinanti per il successo futuro di Mistral.ai e per il suo ruolo nel panorama dell’innovazione tecnologica.

I 10 TRENDS AI DEL 2024

Le principali tendenze tecnologiche strategiche di Gartner per il 2024: una guida al futuro della tecnologia

In un’era caratterizzata da un incessante progresso tecnologico, ci attendono sfide e possibilità che modelleranno profondamente le nostre esperienze di vita e lavorative. Esperti come Gartner e rinomati analisti del settore offrono prospettive fondamentali sui cambiamenti imminenti che ci attendono nel 2024 e oltre. Questo articolo si propone di esaminare le tendenze tecnologiche emergenti che avranno un impatto significativo sulla nostra quotidianità e sul panorama aziendale nel futuro prossimo.

L’Intelligenza Artificiale e la Red Cell della CIA: Un’Intrigante Connessione

Contrariamente alle preoccupazioni di molti, l’intelligenza artificiale (IA) può rappresentare un motore di progresso per la ricerca biologica e la biotecnologia. L’idea che l’IA possa amplificare i rischi connessi all’abuso di biotecnologie per la creazione e la diffusione di patogeni, fomentando il bioterrorismo, trascura tre aspetti fondamentali. In primo luogo, l’IA, come gli esseri umani, richiede l’accesso ai dati per poter operare.

In secondo luogo, le politiche governative sono volte a prevenire l’uso malevolo della biotecnologia, monitorando le attività sospette.

In terzo luogo, vista la frequente inaffidabilità dei grandi modelli di linguaggio (LLM) e il rischio di generare informazioni non corrette, qualsiasi IA dedicata a fornire consulenze in biotecnologia necessiterà della supervisione di un professionista.

Invece, l’IA ha il potenziale di essere propulsiva per la ricerca biologica e la biotecnologia, con la promessa che le scoperte in questo campo possano a loro volta stimolare nuovi sviluppi nell’ambito dell’IA a vantaggio dell’intera umanità.

È essenziale che i leader dei settori privato e pubblico agiscano con decisione nel breve periodo per stabilire le condizioni favorevoli all’ottimizzazione dei benefici offerti dall’IA e dalla biotecnologia. L’attenzione a livello nazionale e internazionale dovrebbe spostarsi verso strategie condivise di gestione dei dati e verso l’implementazione di metodologie formative appropriate per i modelli di IA applicati ai sistemi biologici.

IL PROGETTO RED CELL


Il Red Cell era una piccola unità creata dalla CIA dopo l’11 settembre per garantire che il fallimento analitico nel non prevedere gli attacchi non si ripetesse mai più. Produceva brevi relazioni destinate a stimolare un pensiero fuori dagli schemi su assunzioni errate e percezioni sbagliate sul mondo, incoraggiando un pensiero strategico alternativo. In un altro momento cruciale di crescente incertezza, questo progetto è inteso come una versione open source, utilizzando un formato simile per mettere in discussione mappe mentali superate ed esercitare una “empatia strategica” per discernere le motivazioni e i vincoli di altri attori globali, migliorando la possibilità di strategie più efficaci.

La Cina alla conquista dell’Intelligenza Artificiale: il nuovo rapporto Rivista.AI che rivela tutte le sue strategie e sfide

Per essere precisi: la nostra esperienza nel campo della tecnologia risale alla fine degli anni ’90. Quello che stiamo vivendo non è una bolla speculativa, bensì l’alba di una quarta rivoluzione industriale imminente. Questa rivoluzione avrà ripercussioni significative sulla crescita del settore tecnologico, in particolare grazie al progresso del software e all’evoluzione dei casi d’uso dinamici.

Redazione

Al di là delle complessità geopolitiche, la Cina vanta aspetti notevolmente meritevoli di considerazione. Con un Prodotto Interno Lordo che si aggira intorno agli 18 trilioni di dollari, si posiziona come la seconda maggiore potenza economica mondiale, subito dopo gli Stati Uniti. Per di più, il mercato azionario del Paese ha vissuto un periodo di flessione dall’inizio del 2021, ma vi sono indicazioni che potrebbe aver raggiunto un punto di minimo nel corso del 2022.

L’economia della Cina, pur fronteggiando alcune difficoltà, conserva la sua robustezza e si prevede che la crescita del Prodotto Interno Lordo (PIL) si mantenga stabile intorno al 5%. La tensione tra Cina e Taiwan, benché presente, potrebbe rivelarsi un’evenienza passeggera; le preoccupazioni a riguardo sembrano sovradimensionate, e l’ipotesi di un intervento militare appare estremamente improbabile.

Nel frattempo, una serie di aziende tecnologiche cinesi di spicco e di elevata qualità hanno subito una consistente erosione del loro valore di capitalizzazione di mercato, che si conta in centinaia di miliardi. Questi colossi tecnologici cinesi, tra i più rinomati a livello globale, dominano settori chiave come l’e-commerce, l’intelligenza artificiale, il cloud computing, la ricerca e la sicurezza informatica, oltre ad altri ambiti fondamentali. Nonostante ciò, tali imprese di rilevanza internazionale si presentano sottovalutate e convenienti, un effetto derivante da un protrarsi di percezioni negative e di una cronica sottostima del loro effettivo potenziale.

Si prevede che l’economia della Cina mantenga la sua robustezza e possa persino intensificarsi in avvenire. Le tensioni legate a Taiwan e altre correnti di notizie sfavorevoli si rivelano essere fenomeni passeggeri.

L’entusiasmo per l’intelligenza artificiale circonda predominante le aziende tecnologiche degli Stati Uniti, tuttavia, si dovrebbe prestare maggior attenzione al potenziale inesplorato delle loro equivalenti cinesi. La Cina vanta alcune delle società tecnologiche più innovative e influenti sul panorama mondiale, le quali presentano programmi di intelligenza artificiale estremamente avanzati. Si prevede che queste imprese otterranno benefici significativi grazie ai progressi dell’intelligenza artificiale.

Analisi :

Oltre agli innumerevoli Unicorni dell’AI, colossi del settore tecnologico quali Baidu mostrano un’imponente capacità nell’intelligenza artificiale. Si prevede che Baidu assumerà il ruolo di principale fornitore per Apple di modelli generativi di AI in Cina.

Baidu rappresenta un colosso nel panorama digitale cinese, meritandosi l’appellativo di “sovrano della ricerca”. Detiene inoltre una significativa partecipazione del 53% e il controllo del 90% dei diritti di voto nella piattaforma iQIYI , un’entità che evoca le funzionalità di Netflix e YouTube in Cina. Baidu eccelle anche nel settore del cloud computing, con una quota di mercato approssimativa del 9%, e mostra un promettente futuro nel campo dell’intelligenza artificiale.

“Ernie”, il bot di Baidu simile a ChatGPT, rappresenta il culmine dell’innovazione nell’ambito dell’IA e mette in luce le straordinarie prospettive di crescita a lungo termine per Baidu nel settore dell’intelligenza artificiale. Con l’ascesa dell’IA in Cina, Baidu è in ottima posizione per trarre vantaggio da questa tendenza espansiva nei prossimi anni. Inoltre, Baidu si afferma come leader mondiale nel settore della robotica e della guida autonoma, che promettono di spalancare le porte a un futuro di crescita robusta, specie alla luce dell’integrazione delle loro avanzate tecnologie AI.

L’impatto dell’AI sui Bullshit Jobs

L’idea che l’intelligenza artificiale (AI) e l’automazione possano aiutarci ad eliminare i “lavori inutili” è stata una parte importante del discorso sull’AI e sul lavoro. Tuttavia, la relazione tra AI/automazione e questo tipo di lavoro privo di significato è un po’ più complessa di quanto si possa pensare.

Se non siete familiari con il concetto di “lavori inutili” di David Graeber (Bullshit Jobs) , si tratta di una forma di occupazione così completamente priva di scopo, inutile o dannosa che anche il dipendente non può giustificarne l’esistenza, anche se si sente obbligato a far finta che non sia così.

Antropomorfizzare le macchine e computerizzare le menti

L’incrocio di linguaggi tra Intelligenza Artificiale e Scienze Cognitive e del Cervello

Luciano Floridi è un filosofo italiano naturalizzato britannico, professore ordinario di filosofia ed etica dell’informazione presso l’Oxford Internet Institute dell’Università di Oxford, dove è direttore del Digital Ethics Lab, nonché professore di Sociologia della comunicazione presso l’Università di Bologna. 

Anna Christina Nobre FBA, MAE, fNASc è una neuroscienziata cognitiva brasiliana e britannica che lavora presso la Yale University di New Haven, CT, USA. Nobre è professoressa di Wu Tsai presso l’Università di Yale, dove dirige il Centro di Neurocognizione e Comportamento presso l’Istituto Wu Tsai.

Il parallelismo tra il cervello umano e le reti neurali artificiali è un concetto fondamentale sia per le scienze cognitive e le neuroscienze che per lo studio dell’Intelligenza Artificiale (IA). Questo parallelismo ha portato a un’ampia sovrapposizione di terminologia e concetti tra i due campi, che se da un lato può essere utile per la comprensione reciproca, dall’altro può generare incertezza e confusione.

Cyber-Scimmie con Occhiali AI

Di Raffaella (sync off) Russo

Purtroppo, si tratta di una mancanza o, per essere precisi, di una “lunga ma reversibile cecità degli occhi interiori”.

Introduzione

Ricordo una storia che la maestra Silvana, mia maestra delle elementari che ricordo con molto affetto, un giorno ci raccontò.
Ho sempre amato i racconti, ma questa storia mi colpì particolarmente. Sono solita richiamarla alla mente ancora oggi, quando, nell’affrontare nuove sfide, alcuni punti sfuggono alla comprensione e chiedere aiuto sembra essere un segno di debolezza e ignoranza quando, in realtà, sono índice di grande maturità, intelligenza e forza.

Il racconto è di Ivan Krylov ed e´ intitolato “La scimmia e gli occhiali”. Di seguito una traduzione del racconto originale :

Man mano che la vecchiaia si avvicinava
Per la scimmia sempre più difficile vedere diventava.
Ma, dagli umani aveva sentito, questo sventura non era così grave:
Semplicemente gli occhiali bisognava indossare.
Raccolse mezza dozzina di occhiali Li maneggiò in tutti i modi.
Se li mise sulla fronte,
Se li mise sulla coda,
Li annusò, lì leccò;
Con gli occhiali non cambiava niente.
“Speranze andate in fumo”, disse: ” E che sciocca ad ascoltare le chiacchiere degli umani:
Tutto ciò che si dice sugli occhiali è una bugia; sono inutili”.
La scimmia, triste e infastidita,
Ruppe gli occhiali deludenti con una pietra,
Ne rimasero solo le tracce luccicanti.
Per sfortuna, questo succede anche agli uomini che, non conoscendo il valore di qualcosa,
Per ignoranza, ne sottovalutano il senso;
o ai più fortunati e consapevoli che lo usano per perseguitare e bandire.

Mi sembra giusto porgere innanzitutto i miei omaggi e ringraziamenti alla bellissima storia di Ivan Krylov e all’altrettanto meritevole traduzione di Ivan Luden e fermarci con tutti voi ad osservarla ed analizzarla per cogliere da essa tutti gli spunti di riflessione assolutamente contemporanei che possiamo ricavare da essa.

Il Monkeyrisk

Cercheremo di scoprire nuovi aspetti guardando la storia di Ivran da un punto di vista HumanAnalytic e ci riferiremo al nostro parámetro di analisi come Monkeyrisk.
Il Monkeyrisk possiamo identificarlo come indice di “danno della morale” stessa.
Giallo o Rosso a seconda della deviazione del pensiero della “Scimmia” dalla realtà e dall’impatto che tale discostamento ha sulla società e sul bene della Scimmia stessa, come si evince anche dalla storia di Ivran.


Primo livello di Monkeyrisk

Il primo livello di Monkeyrisk può essere identificato agevolmente nel racconto. Questo livello di rischio lo potremmo definire “meno grave” dal punto di vista sociale poiché potremmo trovarlo addirittura razionale guardando al modello sociale.

Il punto di messa a fuoco è da identificare nella frase:

” E che sciocca ad ascoltare le chiacchiere degli umani: Tutto ciò che si dice sugli occhiali è una bugia; sono inutili “

Tracciando un parallelo con la narrativa tecnologica moderna, il rischio dell’adozione dell’Intelligenza Artificiale con parte della società totalmente impreparata rispetto ad essa e non integrata nel discorso etico che la compone, evidenzia come una comprensione inadeguata, alimentata da un passaparola incompleto o errato, possa portare a un uso improprio o al rifiuto totale dell’AI, ponendole l’etichetta ingiusta di “bugia” o di “inutile”, come ogni giorno ascoltiamo.


Human Analyst power: on!

Essendo HumanAnalyst, possiamo servirci della psicologia comportamentale per guardare al nostro fenómeno e comprendere una frase che altrimenti potrebbe sembrare del tutto insensata e priva di fondamenta:
La povera Scimmia compra gli occhiali anche se non sa come usarli. Infatti, ne compra sei paia perché “, dagli umani aveva sentito, questo sventura non era così grave:

Semplicemente gli occhiali bisognava indossare e con questa nuova invenzione, anche lei, una Scimmia, avrebbe potuto vedere meglio”, un’occasione da non perdere per una Scimmia non vedente mentre tutti gli altri guardano, e LEI VUOLE ESSERE PARTE DEL GRUPPO di quelli che “vedono”.

Il senso di appartenenza è qualcosa di così forte per gli esseri umani, splendidi animali sociali, che sentirci parte di un gruppo ci spinge a comprare sei paia di occhiali per non esserne esclusi, anche se in realtà nemmeno abbiamo capito cosa sono in fondo questi occhiali.

E qui casca la Scimmia…!

La Scimmia, senza saperli usare, compra sei paia di occhiali ma di fatto, senza che nessuno la guidi, è una scimmia meno ricca che rimane tale, sottomessa all’uomo vedente, e questo lei lo sa, e, voglio dire: prendine pure un altro paio, guarda che sono proprio lì, anzi questo nuovo modello te lo regalo così magari inizi anche a volermi bene…

“Tutto ciò che si dice sugli occhiali è una bugia; sono inutili “

In questo caso, il nostro rischio è giallo. La tecnologia è sminuita, considerata inutile, non capita.

Confrontandolo con lo scenario che stiamo vivendo, possiamo metterlo in relazione con tutti quei casi in cui l’IA viene rifiutata perché, come esperti, non siamo riusciti a spiegare e forse a capire davvero come usarla al meglio.
La Scimmia, in questo caso, è ‘relativamente innocua’, potrebbe diventare un bel fiore se volesse o una brutta erbaccia.

I casi in cui questa tecnologia viene rifiutata e ritenuta inutile possono essere ricondotti ai casi in cui, come esperti e come società, non siamo riusciti ad integrare una parte del dipinto umano nel prodotto creato anche per loro, un prodotto che gli proponiamo adesso di acquistare e maneggiare per sentirsi parte del grande quadro che non hanno mai visto.

Non siamo riusciti a raggiungere persone che parlano semplicemente un’altra lingua e ne paghiamo lo smacco.

In questo articolo, per ora mi piace lasciare questo rischio come una scatola di Schrödinger per non trasformare questo testo in un trattato e spostarci insieme al secondo livello.

Secondo livello di Monkeyrisk

Il secondo livello di Monkeyrisk è qualcosa di più complesso e profondo, perché riguarda un’ignoranza che va più in profondità dell’ignoranza derivante dalla mancanza di istruzione.

Purtroppo si tratta di una mancanza o, per essere precisi, di una “lunga ma reversibile cecità degli occhi interiori“.

Abbiamo già visto anche questo in realtà, nelle biases del nostro fedele specchio ingrandente, ma abbiamo provato a romperlo con una pietra.

Continuiamo infatti a girare e rigirare gli occhiali perché quello che vediamo non ci piace e quindi continuiamo a dire di non veder nulla o che ciò che mostrano e´ una bugia.

In questo caso, le neuroscienze comportamentali entrano in gioco per dare un aiuto alla psicologia.

Il focus in questo caso deve essere spostato sulla frase:

“Ruppe gli occhiali deludenti con una pietra”

Il rischio più grave: l´ego

La Scimmia sa che così tanti uomini tessono le lodi degli occhiali e cosa fa?

Le distrugge in modo da non dover riconoscere con se stessa la sua ignoranza.

In questo caso il rischio è rosso.

La Scimmia Istruita, distrugge la geniale ed utile creazione che puo migliorarle la vita poiché “ferita nell’ego, non ha strumenti per gestire un’emozione tanto intensa”.

Da sempre così chiusa nel comprendere le sue emozioni e quelle degli uomini che la circondano, da saper gestire tutti gli attacchi dei predatori esterni ma non i più distruttivi, quelli che da sola continua a lanciarsi da sempre e che la condannano Scimmia in un mondo di Uomini.

È un tale paradosso.

________
Some human species, sadly, are the same:
A clueless boor would eagerly defame
A useful thing, regardless of its merit;
And if he happens to be born a magnate,
He’d use his power to persecute or ban it.

L’importanza di aprire le “scatole interiori”

Qui lasciare la scatola chiusa è un altro pericolo. Qui il pericolo è quello di perdere una vita consapevole, libera e degna di essere chiamata con questo nome.

Quando questo paradosso può rischiare di assumere estensioni tali da coinvolgere tutte le scimmie e le scimmiette future, comincia allora ad assumere la dimensione di pericolo di dramma umano e, a questo punto, lasciare le scatole chiuse diventa un atto di codardia che non possiamo permetterci se amiamo davvero la vita.

Dobbiamo aprire le nostre “scatole interiori” senza paura e renderci conto che ora dobbiamo essere più che mai umani, coraggiosi, collaborativi e follemente creativi.

Possiamo colorare i nostri mostri ormai se ci spaventano e farli ballare sotto note meravigliose; rappresentarli per quello che sono o scoprirli nel lungo viaggio della loro comprensione, prenderci cura di loro e di noi. E possiamo, proprio per la combinazione dell’uomo e della splendida tecnologia che abbiamo creato, se non rifiutiamo di prenderci le responsabilità che ne derivano e fare la nostra parte.

Possiamo possedere le migliori tecnologie in commercio, potere, denaro e fama ma se non siamo in grado di riconoscerci o di comprendere le dinamiche che guidano le nostre azioni, ci stiamo comportando come Cyber-Scimmie e il fatto di avere occhiali AI e chiamarci tutti i giorni Umani non ci farà di certo diventare tali. La conoscenza, la collaborazione e la voglia di mettersi in discussione, di imparare, chiedere dove non si sa e saper fermarsi e cambiare approccio quando non incontriamo la strada giusta sono gli unici davvero in grado di innalzarci dal livello di scimmie technologiche a quello di Uomini ed essere in grado cosi´ di saper prendere al momento giusto la decisione giusta per il bene nostro e della societa.

16/05/2024, Out of Touch Space
Raffaella Russo

References

Ivan Luden | Lyrics Translate traduzione storia Ivan K
Baumeister, R. F., & Pohhal, A. L. (1996). The Banality of Denial: The Psychological
Dynamics of Denying Responsibility. *Personality and Social Psychology Review.
Ego-defense mechanisms and brief psychotherapies for the management of major
depressive disorder in adults: A longitudinal and quasi-experimental study da Silva
Machado a, Igor Soares Vieira a b, Carolina Scaini a, Mariane Lopez Molina a c, Luana
Porto Barbosa a, Giovana Del Grande da Silva a, Liliane Ores d, Luciano Dias de Mattos
Souza a, Karen Jansen a, Ricardo Azevedo da Silva a
Karpman, S. (1968). Fairy Tales and Script Drama Analysis. Transactional Analysis
Bulletin.
Science DenialA Narrative Review and Recommendations for FutureResearch and
PracticeKirsti M. Jylhä1, Samantha K. Stanley2, Maria Ojala3, and Edward J. R. Clarke4
Bhatt, M. A., Lohrenz, T., Camerer, C. F., & Montague, P. R. (2017). Neural dynamics
of interpersonal decision-making in the external world.
Grin, D., Oetzel, Daniel, & Zhang, J. (2020). Neuroscience based AI for human
brain-computer interactions.
Kowalski, R. M., & Hanmer, T. J. (2000). Jealousy in response to perceived
extradyadic interest: A test of the mediating mechanism. Journal of Social and
Personal Relationships.
Miller, J. D., & Campbell, W. K. (2010). The case for using research on trait
narcissism as a building block for understanding narcissistic personality disorder.
Personality Disorders: Theory, Research, and Treatment, 1(3), 180-191.
Holtzman, N. S., Vazire, S., & Mehl, M. R. (2010). Sounds like a narcissist:
Behavioral manifestations of narcissism in everyday


The AI Prophet: The Rise of the Digital Messiah, the Hype in 2024 – Approfondimento

Questa settimana, noi di Redazione Rivista.AI siamo andati a un paio di convegni e la parola Hype e’ stata sparsa come lo zucchero a velo sul pandoro o spread thin like butter on toast come dicono gli anglofoni.

Ci e’ sembrato doveroso scrivere una articolo nella sezione Vision, di venerdi sera, sperando che abbiate abbastanza tempo durante il Weekend per leggerlo. Altrimenti fermatevi all’elevetor pitch :

Un Pennello Grande o un Grande Pennello?

L’intelligenza artificiale (IA) è in attesa del prossimo grande sviluppo per fare un salto in avanti.

Come ribadito in quella pubblicità degli anni ’80 non serve un pennello grande bensì un Grande Pennello.

La Circuit-Complexity-Theory è una branca della logica computazionale che studia la complessità dei problemi computazionali in termini di circuiti booleani. Recenti progressi in questo campo suggeriscono che potrebbe essere possibile ottenere miglioramenti significativi nelle prestazioni dei modelli di IA attraverso l’uso di tecniche più avanzate di ottimizzazione e approssimazione.

Il GPT-4, rilasciato a marzo possiede circa 1 trilione di parametri, quasi sei volte rispetto al suo predecessore. Secondo le stime fornite dal CEO della società, Sam Altman, il costo di sviluppo si aggira intorno ai 100 milioni di dollari.

Nel contesto di crescita dell’IA, si pone la domanda: “ci serve un Grande pennello ? Questa filosofia ha guidato l’evoluzione dell’IA, enfatizzando la creazione di modelli di machine learning sempre più grandi.

Nonostante l’impero Romano fosse uno degli imperi più grandi e potenti della storia, la sua grandezza alla fine ha contribuito alla sua caduta. La gestione di un territorio così vasto ha portato a problemi logistici, difficoltà di comunicazione, tensioni interne e vulnerabilità ai nemici esterni. Quindi, in questo caso, più grande non significava necessariamente migliore.

Nonostante i successi degli ultimi LLM, ci sono limitazioni da considerare.

L’addestramento di grandi modelli di machine learning richiede molte risorse computazionali, con implicazioni economiche ed ambientali. Inoltre, questi modelli richiedono enormi quantità di dati, sollevando questioni logistiche ed etiche.

Non sempre un modello più grande garantisce un miglioramento proporzionale delle prestazioni, soprattutto se la qualità dei dati non migliora allo stesso ritmo. Questo può portare a problemi di generalizzazione.

La complessità crescente dei modelli rende difficile la loro comprensione e l’individuazione di pregiudizi incorporati, ostacolando la responsabilità e la fiducia nell’IA.

Infine, i costi e le esigenze di risorse dei modelli più grandi possono renderli inaccessibili per entità più piccole, creando una disparità nell’accesso ai benefici dell’IA.

C’è una crescente consapevolezza che l’approccio “più grande è meglio” sta raggiungendo i suoi limiti. Per migliorare i modelli di IA, sarà necessario ottenere più performance con meno risorse.

Un esempio : LLAMA2, allenato con la metà dei Token e rilasciato nel Luglio ‘23, performa peggio di DB-RX, ma non così peggio di quanto si potrebbe pensare, lo si vede bene nelle tabelle di benchmark pubblicate da DataBricks.

DB-RX ha incluso l’addestramento su 2 trilioni di token, l’uso di 3000 GPU H100 e 3 mesi di calcolo e un investimento significativo, stimato tra i 15 e i 30 milioni di euro.

Il concetto : Più performance con meno risorse.

Alternative includono il fine-tuning per compiti specifici, l’uso di tecniche di approssimazione matematica per ridurre i requisiti hardware, e l’adattamento di modelli generalisti in modelli più piccoli e specializzati.

L’importanza del codice di programmazione e dell’hardware su cui viene eseguito è anche in discussione, evidenziando opportunità di miglioramento in questi settori.

Le reti di Head-Attention, come quelle utilizzate nei Transformer, sono state fondamentali per il successo di molte applicazioni di apprendimento automatico. Tuttavia, queste reti possono avere dei limiti, in particolare quando si tratta di gestire sequenze molto lunghe a causa della loro complessità computazionale quadratica.

Le feed-forward networks, d’altra parte, sono state la spina dorsale dell’apprendimento profondo per molti anni. Queste reti sono in grado di apprendere rappresentazioni complesse dei dati attraverso molteplici strati di neuroni artificiali. Tuttavia, anche queste reti possono avere dei limiti, in particolare quando si tratta di modellare le dipendenze temporali nei dati.

Recenti progressi in questo campo suggeriscono che potrebbe essere possibile ottenere miglioramenti significativi nelle prestazioni dei modelli di IA attraverso l’uso di tecniche più avanzate di ottimizzazione e approssimazione.

Come l’adattamento di modelli generalisti in modelli più piccoli e specializzati, e l’esplorazione di nuovi paradigmi di apprendimento automatico.

Mentre restiamo attesa dei prossimi LLama3 e GPTNext, attesi per Luglio Agosto, Fauno (LLM) , sviluppato dal gruppo di ricerca RSTLess della Sapienza Università di Roma addestrato su ampi dataset sintetici italiani, che coprono una vasta gamma di campi come dati medici, contenuti tecnici da Stack Overflow, discussioni su Quora e dati Alpaca tradotti in italiano dovra’ confrontarsi con i numeri e i dati rilasciati da Databricks con gli investimenti di DB-REX e con un ROI che si dimezza ogni 6 mesi e senza sapere cosa uscirà da Meta o OpenAI, i quali giocano un campionato tutto loro dove le GPU si contano a centinaia di migliaia.

Il campo dell’IA è in continua evoluzione e presenta sia sfide che opportunità.

In un mondo in cui le aziende investono miliardi nello sviluppo di Large Language Models (LLM), sorgono preoccupazioni riguardo alla tecnologia della scatola nera che utilizzano. Le query di ricerca LLM richiedono una potenza di elaborazione fino a dieci volte maggiore rispetto alle ricerche standard e possono comportare spese operative milionarie su larga scala. Alcuni LLM proprietari offrono un utilizzo gratuito, ma come recita il vecchio proverbio: “Se non paghi per il prodotto, il prodotto sei tu.” Questo ha spinto alcuni a esplorare approcci alternativi

Le organizzazioni e gli individui che lavorano in questo campo devono essere pronti a navigare in questo panorama in rapida evoluzione..

Ghost in the shell

Man mano che l’intelligenza artificiale e il potenziamento umano diventano sempre più comuni, dobbiamo affrontare le implicazioni etiche di queste tecnologie e le potenziali conseguenze della fusione della coscienza umana con le macchine.

Parliamo di un Manga che e’ un punto fermo della fantascienza sin dal suo inizio alla fine degli anni ’80. 

“The Ghost in the Shell” è una serie di manga scritta e illustrata da Masamune Shirow. Ambientata in un futuro distopico e tecnologicamente avanzato, la storia segue le vicende della Section 9, un’unità d’elite anti-crimine specializzata nella lotta contro il cyberterrorismo e le minacce legate alla tecnologia.

The State of AI – April Tech 2024

Come dico da decenni sebbene non disponga di una sfera di cristallo per prevedere il futuro con assoluta certezza, posso fornire approfondimenti e analisi basati sulle tendenze e sugli sviluppi attuali nel campo dell’intelligenza artificiale.

Pubblichiamo in un articolo quanto apparso nel nostro white paper nel caso non lo aveste letto.

Mentre ci avviciniamo alla fine dei primi quattro mesi del 2024, è probabile che alcune macrotendenze continuino ad accelerare il ritmo del cambiamento nell’IA applicata. Sono:

Oltre alle più ampie piattaforme di modelli come servizio, RAG, LoRA, il prompt engineering e altre forme di personalizzazione e personalizzazione dei modelli stanno diventando comuni. Ci saranno molte variazioni su questi strumenti nel prossimo anno.

I creatori di applicazioni stanno realizzando prototipi tramite prompt su modelli all’avanguardia ma costosi di OpenAI, quindi effettuando la messa a punto e le integrazioni su un modello a costo inferiore (spesso open source).

Vediamo anche l’evoluzione del prompt engineering verso una piattaforma per sviluppatori. Nello specifico, gli sviluppatori programmeranno in modo dichiarativo e le funzioni simili al compilatore tradurranno queste attività, SLA e garanzie I/O in prompt ottimizzati. 

Models-as-a-Service presentata da Microsoft e simile ad AWS Bedrock. All’inizio dell’anno, abbiamo posto la nostra fiducia nella vastità dei modelli, in particolare quelli Open Source, nell’emergere del “middleware” di intelligenza artificiale e nella possibilità per le aziende storiche di software SAAS di potenziare rapidamente i loro prodotti con GenAI. Queste aspettative hanno trovato conferma nel mondo degli affari. Innovazioni chiave come LoRA, RAG e l’ingegneria dei prompt, che all’epoca erano appena comprese dal punto di vista commerciale, hanno guadagnato terreno. Oltre a questi grandi player del cloud, ci aspettiamo che Nvidia e aziende emergenti come HuggingFace e OctoML svolgano ruoli sempre più strategici nell’orchestrare i livelli dello stack AI per potenziare le applicazioni intelligenti.

Il cloud continua ad espandersi : Credo che la quota di mercato dell’infrastruttura cloud sia molto importante nell’intelligenza artificiale generativa, perché gli algoritmi di apprendimento automatico per l’intelligenza artificiale genuina non creano informazioni dal nulla. Invece, la qualità dell’intelligenza artificiale generativa si sviluppa in larga misura dal numero di diversi scenari di addestramento e iterazioni che l’algoritmo di apprendimento automatico deve affrontare. Detto questo, AWS detiene una quota di mercato quasi tre volte maggiore di Google Cloud, significa che gli algoritmi di machine learning di Amazon hanno accesso a set di dati quasi tre volte più grandi. Lo stesso vale per il confronto con Azure di Microsoft, con una quota di mercato due volte superiore a quella di Google Cloud.

ChatGPT di OpenAI (supportato da Microsoft) è un’apparente superstar dell’intelligenza artificiale generativa e di gran lunga il chatbot più utilizzato . Ciò che è importante qui è che ora funziona come un effetto valanga: più utenti con argomenti diversi interagiscono con il chatbot, più a fondo vengono addestrati i suoi algoritmi e migliore diventa nel tempo la qualità delle risposte del chatbot. È simile alla regola delle 10mila ore per qualcuno che padroneggia un’abilità, e OpenAI sembra essere lo studente più laborioso della classe. Circolano voci secondo cui nei prossimi mesi potrebbe essere rilasciata la nuova versione GPT-5 del chatbot, il che significa che probabilmente verranno introdotte nuove funzionalità sofisticate. Tutti questi sviluppi positivi con ChatGPT migliorano il potenziale tecnologico di tutte le offerte di Microsoft, e in particolare delle soluzioni cloud. Essendo uno dei primi investitori in OpenAI, Microsoft ha accesso esclusivo al codice GPT ed è in grado di integrare le funzionalità del chatbot con i suoi servizi.

L’adozione globale dell’intelligenza artificiale generativa è ancora agli inizi, con solo una piccola percentuale di aziende attualmente in fase di espansione (Lo studio “BCG AI Radar: From Potential to Profit with GenAI”).

Ciò è dovuto a vari fattori, tra cui la complessità della tecnologia, considerazioni etiche e di sicurezza e implicazioni sulla forza lavoro i costi e una workforce non digitale. Le aziende stanno adottando un approccio cauto, studiando la tecnologia e il suo impatto da tutti gli angoli prima di effettuare investimenti significativi .

I grandi produttori di software applicativi come Microsoft, Salesforce e Adobe hanno gia’ iniziato a incorporare l’AI generativa nelle loro soluzioni software (ad esempio Microsoft Copilot, Adobe Firefly e Einstein GPT di Salesforce). Sulla base delle funzionalita’ aggiuntive offerte dall’AI generativa, Microsoft ha posto il prezzo di 365 Copilot a 30 dollari al mese per utente, mentre Adobe ha aumentato la tariffa per il suo Creative Cloud di circa l’8%.

Ci sono stati progressi significativi nei modelli di intelligenza artificiale, con aziende come Anthropic che hanno rilasciato Claude1, Claude2 e Claude3 e OpenAI che si prepara a lanciare GPT5.

Questi modelli rappresentano un significativo passo avanti nelle capacità dell’intelligenza artificiale, offrendo prestazioni e funzionalità migliorate. Notevoli sono anche le offerte di Google Gemini 1.5 Pro e Meta AI.

Questi sviluppi evidenziano il rapido ritmo dell’innovazione nel campo dell’intelligenza artificiale. Interesante l’evoluzione del prompt engineering verso un Tranlator prompt engineering per essere utilizzato con piu’ modelli disponibili.

Maggiore attenzione all’etica e alla regolamentazione: man mano che l’intelligenza artificiale diventa sempre più diffusa, cresce l’attenzione sulle implicazioni etiche dell’intelligenza artificiale e sulla necessità di regolamentazione. Ciò include questioni come i pregiudizi negli algoritmi di intelligenza artificiale, le preoccupazioni sulla privacy e l’impatto dell’intelligenza artificiale sui posti di lavoro. Gli organismi di regolamentazione stanno lavorando per stabilire quadri per affrontare questi problemi.

Nell’articolo “L’urgenza di un’algoretica” di P. Benanti, l’autore sottolinea l’importanza di affrontare le sfide etiche poste dall’intelligenza artificiale e dagli algoritmi. L’articolo discute l’urgente necessità di un quadro che possa guidare lo sviluppo e la diffusione dell’intelligenza artificiale in modo etico, giusto e rispettoso dei diritti umani.

P. Benanti sostiene che, man mano che l’intelligenza artificiale diventa sempre più integrata in vari aspetti della società, è fondamentale garantire che sia progettata e utilizzata in modo da promuovere il bene comune e non esacerbare le disuguaglianze esistenti o crearne di nuove.

Ascensione dell’AI-as-a-Service: l’AI-as-a-Service (AIaaS) è diventata una tendenza popolare, con le aziende che offrono funzionalità di intelligenza artificiale in base al pagamento in base all’uso. Ciò consente alle aziende di sfruttare l’intelligenza artificiale senza la necessità di investimenti iniziali significativi o competenze interne.

Costi e BM. Data la complessità di stimare l’impatto iniziale dei casi d’uso su larga scala a causa del modello di utilizzo basato su token, le aziende dovranno considerare attentamente quando utilizzare il pagamento aziendale -soluzioni utente rispetto a quelle basate su token. Questa decisione dipenderà da vari fattori, tra cui l’adozione prevista e il caso d’uso.

Questo argomento è particolarmente rilevante poiché la maggior parte degli utenti trova difficile prevedere e programmare il modello di utilizzo basato su token.

Nel 2024, è probabile che emerga una “gerarchia dei dati” in cui i dati Internet saranno ampiamente accessibili, i dati specifici del dominio saranno monetizzabili direttamente o indirettamente e i dati dell’azienda/cliente saranno sfruttati per un uso su misura e personalizzato.I

l mondo dell’intelligenza artificiale applicata si sta evolvendo così rapidamente che identificare il modello di business vincente richiederà curiosità, iterazione e agilità Per dare un’idea dei costi e collegarlo al tema delle performance, il costo delle chiamate ad Anthropic varia da 0,25$ a 15$ per MTok. GPT-4 si aggira intorno ai 10$ per MTok, mentre Claude3 Opus promette prestazioni più avanzate.

Man mano che gli operatori storici combinano l’intelligenza artificiale con il software esistente e i clienti richiedono un ROI chiaro per i dollari incrementali che stanno pagando per l’intelligenza artificiale per migliorare i processi aziendali o la produttività del team si avra’ un po di Tensione.

C’e’ un Interessante Articolo sulla Computer Vision da parte del MIT (Beyond AI Exposure: Which Tasks are Cost-Effective to Automate with
Computer Vision?) su quali Tasks meriterebbero una Automazione.

Integrazione dell’intelligenza artificiale nei processi aziendali: sempre più aziende stanno integrando l’intelligenza artificiale nei propri processi aziendali, utilizzandola per automatizzare le attività, migliorare il processo decisionale e migliorare l’esperienza dei clienti. Ciò ha portato ad una maggiore efficienza e competitività.

Vendors Lock-In. Data la rapida evoluzione della tecnologia dell’intelligenza artificiale, è fondamentale per le aziende evitare di legare la propria architettura a un unico modello linguistico di grandi dimensioni (LLM) o a soluzioni specifiche. La configurazione ottimale di una soluzione di intelligenza artificiale generativa dipenderà da vari fattori, tra cui il caso d’uso specifico, le prestazioni previste e i costi. Le aziende dovrebbero puntare alla flessibilità nella loro architettura AI per accogliere progressi e cambiamenti futuri.

All’improvviso, “open source” è l’ultima parola d’ordine nei circoli dell’intelligenza artificiale. Meta si è impegnata a creare un’intelligenza generale artificiale open source. Ed Elon Musk sta facendo causa a OpenAI per la sua mancanza di modelli di intelligenza artificiale open source.

Nel frattempo, un numero crescente di leader e aziende tecnologiche si stanno affermando come campioni dell’open source. Ma c’è un problema fondamentale: nessuno è d’accordo su cosa significhi “AI open source”.

Lo scorso luglio, Meta ha reso disponibile gratuitamente il suo modello Llama 2, che ha definito open source, e ha una lunga esperienza nel rilascio pubblico di tecnologie di intelligenza artificiale. “Sosteniamo lo sforzo dell’OSI per definire l’IA open source e non vediamo l’ora di continuare a partecipare al loro processo a beneficio della comunità open source in tutto il mondo”, Jonathan Torres, consulente generale associato di Meta per AI, open source e licenze ci ha detto.

Ciò è in netto contrasto con il rivale OpenAI, che nel corso degli anni ha condiviso sempre meno dettagli sui suoi modelli di punta, citando problemi di sicurezza. “Renderiamo open source potenti modelli di intelligenza artificiale solo dopo aver valutato attentamente i vantaggi e i rischi, inclusi l’uso improprio e l’accelerazione”, ha affermato un portavoce.

Anche altre importanti società di intelligenza artificiale, come Stability AI e Aleph Alpha, hanno rilasciato modelli descritti come open source e Hugging Face ospita un’ampia libreria di modelli di intelligenza artificiale disponibili gratuitamente.

Mentre Google ha adottato un approccio più bloccato con i suoi modelli più potenti, come Gemini e PaLM 2, i modelli Gemma rilasciati il mese scorso sono liberamente accessibili e progettati per confrontarsi con Llama 2, anche se la società li ha descritti come “aperto” piuttosto che “open source”.

Ma c’è un notevole disaccordo sul fatto che qualcuno di questi modelli possa davvero essere descritto come open source. Tanto per cominciare, sia Llama 2 che Gemma sono dotati di licenze che limitano ciò che gli utenti possono fare con i modelli. Questo è un anatema per i principi open source: una delle clausole chiave della Open Source Definition vieta l’imposizione di qualsiasi restrizione basata sui casi d’uso.

I traduttori svolgeranno un ruolo cruciale nel convertire le richieste per adattarle a diversi LLM senza perdere la logica aziendale integrata. Ciò consentirà alle aziende di passare da un LLM all’altro secondo necessità, a seconda dei requisiti specifici del loro caso d’uso.

Grounding Sarà essenziale tenere traccia di come ciascun LLM è stato modificato e con quali set di dati, in particolare durante la messa a terra. Un ulteriore passo sarà lo sviluppo di strumenti in grado di rilevare se i processi di prompt o di inferenza compromettono l’integrità del LLM originale, fungendo da sorta di filtro guardiano.

Monitorare come ciascun LLM è stato modificato e con quali set di dati è un’altra considerazione importante, soprattutto quando si tratta di messa a terra. Il grounding si riferisce alla capacità di un modello di basare le proprie risposte o azioni su informazioni concrete, verificabili e rilevanti. Esistono molti modi per ottenere il grounding e le aziende dovranno decidere quando e come implementarlo in base alle loro esigenze e requisiti specifici. Poiché esistono numerosi modi per raggiungere il grounding, sarà necessario decidere quando e come implementarlo, ad esempio se fermarsi al RAG o andare oltre.

Sicurezza. L’integrazione di Large Language Models (LLM) nelle piattaforme online rappresenta un’arma a doppio taglio, offrendo esperienze utente migliorate ma introducendo anche vulnerabilità di sicurezza. La gestione non sicura degli output è una preoccupazione importante, in quanto una validazione o sanificazione insufficiente degli output LLM può portare a una serie di exploit come cross-site scripting (XSS) e cross-site request forgery (CSRF).

Il prompt injection indiretto aggrava ulteriormente questi rischi, consentendo agli aggressori di manipolare le risposte LLM attraverso fonti esterne come dati di training o chiamate API, compromettendo potenzialmente le interazioni degli utenti e l’integrità del sistema. Inoltre, l’avvelenamento dei dati di addestramento rappresenta una minaccia significativa, poiché i dati compromessi utilizzati nell’addestramento dei modelli possono comportare la diffusione di informazioni inaccurate o sensibili, minando la fiducia e la sicurezza. Quindi ulteriore avanzamento sara’ la presenza di Tools Guadiani in grado di intercettare il Prompting.

Altro “guardiano” dove si sta’ investendo e’ quello dell’inferenza sicura che mira ad aggiungere un livello di protezione alle conversazioni riservate con i modelli di intelligenza artificiale. Consideralo un canale di comunicazione sicuro, garantendo che solo le parti autorizzate possano ascoltare i tuoi sussurri e la risposta della modella. Le tecniche sono quelle della Crittografia omomorfa, Secure Multi-Party Computing (SMPC) ,Privacy differenziale.

L’ imminente introduzione dell’AIACT (legge sull’intelligenza artificiale) nell’UE potrebbe avere implicazioni significative per l’adozione e l’uso della tecnologia dell’intelligenza artificiale. La legge mira a stabilire un quadro giuridico per l’intelligenza artificiale, affrontando questioni quali sicurezza, trasparenza e responsabilità. Le aziende dovranno garantire il rispetto delle nuove normative, che potrebbero influenzare le loro strategie e i loro investimenti in intelligenza artificiale.

In conclusione, il panorama dell’intelligenza artificiale generativa è in rapida evoluzione e le aziende devono affrontarlo con flessibilità e una comprensione completa degli impatti della tecnologia. Dovrebbero inoltre considerare attentamente la scelta delle soluzioni di intelligenza artificiale e dei modelli di prezzo in relazione ai loro casi d’uso specifici e agli scenari di adozione.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Se credi in me, se mi dai fiducia, potrai avere un impatto positivo e allora, forse, potrò raggiungere obiettivi, anche inaspettati

Madison Tevlin è la protagonista di uno spot statunitense che sensibilizza sulla sindrome di Down e sul nostro ruolo come società nell’abbattere barriere e stereotipi per promuovere l’autonomia delle persone con disabilità.

“Assume that I can” (“Presumi che io possa fare qualsiasi cosa”), la campagna di sensibilizzazione internazionale realizzata in collaborazione con l’agenzia SMALL di New York.

Una giovane donna con sindrome di Down sfida le basse aspettative che gli altri hanno su di lei e propone un ribaltamento di prospettiva: a scuola, al lavoro, in famiglia e nella vita sociale.

Mentre USA e CINA scrivono il futuro dell’AI, l’UE scrive le Regole

Uomo al centro o Macchina al Centro questo e’ il dilemma.

Siete familiari con le tre leggi della robotica delineate da Asimov?

Queste leggi, fondamentalmente, impediscono alla macchina, o al robot in questo caso, di nuocere all’uomo.

Ma perché sono state promulgate queste leggi?

Pagina 2 di 3

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie