Notizie di Intelligenza Artificiale Inclusiva in Tempo Reale: Innovazione e Accessibilità Pro bono publico

Autore: Redazione Pagina 43 di 46

Apple entra nei LLM con MM1

I recenti rapporti suggeriscono che Apple sta avventurandosi nei Large Language Models (LLM) con il suo Modello Multimodale 1 (MM1), indicando un significativo passo avanti negli sforzi di intelligenza artificiale dell’azienda. Questa mossa ha il potenziale per rivoluzionare l’intelligenza artificiale multimodale e favorire l’innovazione attraverso vari ecosistemi.

Si prevede che il MM1 di Apple sia un modello di intelligenza artificiale sofisticato in grado di elaborare e comprendere contemporaneamente diversi tipi di dati di input, come testo, immagini e audio. Integrando diverse modalità di informazione, il MM1 mira a migliorare le capacità dell’intelligenza artificiale e a fornire risposte più complete e consapevoli del contesto.

L’intelligenza artificiale multimodale coinvolge l’integrazione di diversi tipi di dati per migliorare la comprensione e i processi decisionali dei sistemi di intelligenza artificiale. L’ingresso di Apple nei LLM con MM1 potrebbe portare a scoperte nella comprensione del linguaggio naturale, nella visione artificiale e nell’elaborazione audio, consentendo interazioni più fluide tra esseri umani e macchine.

Le implicazioni del MM1 di Apple si estendono a vari ambiti, inclusi assistenti virtuali, creazione di contenuti, assistenza sanitaria, veicoli autonomi e altro ancora. Sfruttando l’intelligenza artificiale multimodale, Apple può migliorare le esperienze degli utenti, semplificare i flussi di lavoro e introdurre funzionalità innovative nei suoi prodotti e servizi.

L’ingresso di Apple nello spazio LLM la mette in diretta competizione con altri giganti tecnologici come Google, Microsoft e OpenAI, che hanno già compiuto progressi significativi nello sviluppo di modelli di intelligenza artificiale su larga scala. La corsa allo sviluppo di LLM più avanzati riflette l’importanza crescente dell’intelligenza artificiale nel plasmare il futuro della tecnologia.

Il focus di Apple sull’integrazione nell’ecosistema potrebbe conferirle un vantaggio unico nel distribuire l’intelligenza artificiale multimodale attraverso hardware, software e servizi. Integrando senza soluzione di continuità MM1 nei suoi prodotti come iPhone, iPad, Mac e HomePod, Apple può offrire esperienze AI coese e personalizzate ai suoi utenti.

Date le ferme posizioni di Apple sulla privacy degli utenti, è probabile che MM1 dia priorità alla sicurezza e alla protezione dei dati. Apple potrebbe impiegare tecniche di elaborazione e crittografia dei dati in dispositivo per proteggere i dati degli utenti mentre offre potenti funzionalità di intelligenza artificiale.

L’investimento di Apple nei LLM sottolinea il suo impegno nell’avanzamento della ricerca e dello sviluppo dell’intelligenza artificiale. L’azienda è probabile che assegni risorse significative per addestrare e ottimizzare MM1, collaborare con istituzioni accademiche e contribuire alla più ampia comunità di ricerca sull’intelligenza artificiale.

Complessivamente, l’ingresso di Apple nei LLM con MM1 segnala una mossa strategica per sfruttare il potere dell’intelligenza artificiale multimodale e guidare l’innovazione attraverso il suo ecosistema. Con l’evolversi della tecnologia, ci si può aspettare che Apple sveli nuove funzionalità e servizi basati sull’intelligenza artificiale che migliorano le esperienze degli utenti e ridefiniscono le possibilità dell’interazione uomo-macchina.

Il 21 marzo, l’Assemblea generale delle Nazioni Unite ha adottato la prima risoluzione globale sull’Intelligenza Artificiale (IA)

L’adozione da parte dell’Assemblea generale delle Nazioni Unite di una risoluzione globale sull’intelligenza artificiale rappresenta un importante passo avanti nel dibattito internazionale sull’IA e sulle sue implicazioni per la società. Questa risoluzione sottolinea il riconoscimento dell’importanza di affrontare le sfide e massimizzare i benefici derivanti dall’IA a livello globale.

Il fatto che l’ONU abbia dedicato attenzione all’IA dimostra la crescente consapevolezza della necessità di norme e regolamenti internazionali per gestire questa tecnologia in modo responsabile ed etico. Questa risoluzione potrebbe aprire la strada a ulteriori discussioni e iniziative volte a promuovere la cooperazione internazionale e a definire linee guida comuni per lo sviluppo e l’uso dell’IA.

Tuttavia, resta da vedere quali saranno le azioni concrete che seguiranno questa risoluzione. Sarà essenziale coinvolgere una vasta gamma di stakeholder, compresi governi, aziende, organizzazioni non governative e esperti del settore, per tradurre le intenzioni della risoluzione in azioni significative e politiche efficaci.

Inoltre, sarà importante monitorare da vicino come questa risoluzione influenzerà il panorama dell’IA a livello globale, compresi gli sviluppi tecnologici, la legislazione nazionale e le dinamiche geopolitiche. La risoluzione potrebbe anche catalizzare ulteriori investimenti nella ricerca sull’IA e nell’implementazione di soluzioni innovative per affrontare sfide globali.

In sintesi, l’adozione della prima risoluzione globale sull’IA da parte delle Nazioni Unite è un passo significativo che testimonia il riconoscimento dell’importanza cruciale di questa tecnologia per il futuro della società globale. Tuttavia, sarà fondamentale tradurre questa volontà politica in azioni concrete e collaborare a livello internazionale per massimizzare i benefici e mitigare i rischi associati all’IA.

Noland Arbaugh il dummy di Neuralink


Neuralink di Elon Musk ha mostrato il primo paziente a ricevere un impianto di chip cerebrale utilizzando il dispositivo per muovere un cursore del computer e giocare a scacchi.

Noland Arbaugh, un ragazzo di 29 anni diventato quadriplegico dopo un incidente in piscina otto anni fa, è riuscito a muovere il cursore intorno al computer utilizzando solo segnali neurali.

In una dimostrazione in diretta, Arbaugh ha detto che sembrava “usare la forza su un cursore”, facendo riferimento al campo di energia metafisica nella saga cinematografica di Star Wars.

Questa dimostrazione non è la prima nel campo degli impianti cerebrali. Un dispositivo chiamato array Utah è stato impiantato nel cranio di un uomo paralizzato nel 2004, il che gli ha permesso di controllare un cursore del computer con i suoi impulsi neurali.

Tuttavia, l’impianto doveva essere collegato a un dispositivo esterno al cervello per trasmettere dati attraverso fili, mentre il chip di Neuralink trasmette dati senza fili e può essere utilizzato a casa.

Va notato che Neuralink è una società privata, come la maggior parte dei suoi concorrenti come Synchron, Onward, Precision Neuroscience e Blackrock Neurotech. Neuralink è in testa al gruppo poiché il suo chip offre un grado di precisione superiore.

prime study : https://neuralink.com/patient-registry/

OpenAI stringe accordi con Le Monde e El País: una svolta nei rapporti con gli editori?

OpenAI ha appena annunciato di aver chiuso un accordo con gli editori di Le Monde e di El País al fine di poter utilizzare i loro contenuti per addestrare ChatGPT e gli altri modelli di Intelligenza Artificiale generativa.

Si tratta di accordi significativi, che seguono quelli chiusi a suo tempo con Associated Press e con l’editore tedesco Axel Springer, ma che arrivano anche nel mezzo della battaglia legale della società non solo con il New York Times, che l’ha portata in tribunale per violazione del copyright,  ma anche con altri editori Usa che accusano la società di aver usato i loro contenuti senza permesso.

Gli accordi appena chiusi con El País e con Le Monde sono una buona notizia in generale per gli editori, perché non solo indicano che la società non ha intenzione di continuare a innescare controversie sui diritti di proprietà intellettuale con i media di tutto il mondo ma anche perché in un momento in cui scendono le diffusioni e calano i ricavi pubblicitari erodendo i margini, il patrimonio di contenuti e di informazione che gli editori hanno a disposizione può diventare un asset monetizzabile tramite accordi con i player dell’Intelligenza Artificiale.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

All’Artificial Intelligence Film Festival di Dubai vince il corto “Treta” dell’italiano Brigiano

Treta, il corto firmato dal regista italiano Francesco Siro Brigiano e realizzato utilizzando l’Intelligenza Artificiale, ha vinto l’Artificial Intelligence Film Festival di Dubai, nato con l’obiettivo di celebrare e promuovere la convergenza tra intelligenza artificiale e cinema, sottolineando la relazione simbiotica tra tecnologia e creatività umana.

Treta, che racconta la storia di un malvagio giullare, ‘re’ delle tentazioni umane, ha sbaragliato le oltre 500 opere cinematografiche concorrenti, provenienti da 89 nazioni, conquistando il riconoscimento per la regia e l’AI Choice, assegnato dall’Intelligenza Artificiale.

Ho creato questo short film onirico” il commento di Francesco Siro Brigiano “dopo due anni di studi e ricerche sull’affascinante mondo dell’arte generativa. Le possibilità che le nuove tecnologie riescono ad offrire sono incredibili. Certo le AI hanno messo al centro molti quesiti e criticità non prescindibili ma per chi avrà voglia di raccontare, esprimersi e sognare sarà sempre più ampio il ventaglio di possibilità”.

L’Aiff festival mette a confronto esperti del settore in un dibattito sul potenziale della tecnologia AI nel migliorare la narrazione creativa e arricchire la creatività umana, fornendo nuovi strumenti per la narrazione, l’editing e persino la creazione di personaggi. Tra i componenti della giuria di esperti, c’erano Richard Taylor, 5 volte Oscar per Il Signore degli anelli, e Ben Grossmann, premio Oscar per i migliori effetti speciali di Hugo Cabret di Martin Scorsese.

Mira Murati (OpenAI): Sora sarà disponibile entro l’anno

In un’intervista al Wall Street Journal, Mira Murati, Chief Technology Officer di OpenAI, ha confermato che Sora, il suo modello di Intelligenza Artificiale generativa che crea video da istruzioni di testo e da immagini fisse, sarà disponibile entro la fine dell’anno.

Nei giorni scorsi, il Garante per la privacy italiano ha avviato un’istruttoria per capire come OpenAI addestra l’algoritmo di Sora, quali dati degli utenti raccoglie ed elabora e se e quali fonti esterne vengono utilizzate per generare i video.

Murati ha riferito che il software potrà creare non solo filmati ma anche la parte sonora, almeno in un aggiornamento successivo del modello, rendendo il risultato qualcosa di molto vicino ad un’opera cinematografica.

Per salvaguardare la trasparenza dei contenuti, i video dovrebbero contenere anche metadati ed etichette in grado di far capire agli utenti quando ciò che stanno guardando è vero o frutto di un’elaborazione effettuata con tool di AI.

Considerando la possibilità di creare disinformazione” afferma Murati “siamo impegnati a prendere tutte le giuste misure preventive prima di un rilascio pubblico di Sora, anche in vista delle elezioni presidenziali di novembre“. Anche se Sora è molto più costoso da gestire rispetto ad altri modelli di Intelligenza Artificiale, OpenAI punta a renderlo disponibile a tariffe simili a Chat GPT o a Dall-e, l’AI che crea immagini statiche da testo.

Evoluzione dei Chatbot: dai limiti degli LLM all’approccio RAG

Uno dei limiti evidenti emerso dall’uso dei chatbot di nuova generazione, disponibili al pubblico da fine 2022, è la dispersione nella qualità ed accuratezza delle risposte evidenziata da questi strumenti. Come abbiamo già avuto modo di vedere all’interno di questo portale, il limite oggettivo degli LLM è che essi sono dipendenti dalla qualità delle informazioni con cui sono stati alimentati ed allenati, informazioni che sono state ricavate da materiale reperibile in rete, e filtrato da operatori umani incaricati di censurare i contenuti ritenuti non idonei.

Mentre questo approccio è stato vincente per creare un’applicazione in grado di dialogare con gli utenti utilizzando un linguaggio naturale – e il grado di interesse da parte di tutta la società nel suo complesso è segno tangibile del successo sin qui raccolto dai vari prodotti di AI “di intrattenimento” – gli svantaggi di questo approccio non hanno tardato a manifestarsi a coloro che intendevano fare affidamento sui LLM in ambiti strettamente legati alla conoscenza e alla produzione di contenuti ed applicazioni “competenti”.

Pochi giorni dopo il rilascio al pubblico, il portale Stackoverflow procedeva infatti alla messa al bando di risposte generate tramite AI, in quanto utenti esperti avevano subito notato la presenza di quegli errori grossolani che oggi conosciamo con il termine di “allucinazioni”, un problema tipico degli LLM
che non distingue tra concetti di plausibilità linguistica e accuratezza fattuale.

Dalla necessità di poter disporre di uno strumento “diversamente intelligente”, che possa dialogare con gli utenti sulla base di competenze e conoscenze reali si è velocemente affermato l’approccio RAG, acronimo di Retrieval Augmented Generation. Questo acronimo indica la tecnica per la generazione di testi “aumentati” dal recupero di dati puntuali e specifici di varia natura, spesso di natura proprietaria: manuali, competenze professionali o aziendali, scritti accademici, dati provenienti da interrogazioni di database strutturati o non strutturati; oppure leggi o direttive.

Un LLM usa questi dati in modo prioritario per produrre il testo di senso compiuto ed in linguaggio “naturale” (ossia il linguaggio con il quale stiamo leggendo queste righe), ovviando alla problematica legata alle allucinazioni causate dal materiale eterogeneo con il quale è stato allenato.

Grazie a queste premesse tecniche è ora possibile ipotizzare di poter arricchire molti processi che coinvolgono portatori d’interessi interni ed esterni.

Cube Finance – azienda elvetica storicamente attiva nelle soluzioni software nel settore finanziario – da noi interpellata nell’ambito di una scambio di vedute sullo stato del mercato delle nuove tecnologie AI ci conferma come la tecnologia attraverso l’intelligenza artificiale abbia la possibilità di esplodere in modo dirompente e di riqualificare o migliorare flussi di lavoro che da anni domandano ottimizzazioni, maggiore precisione, flessibilità, velocità, nel rispetto contestuale delle necessità dell’interlocutore.

La software house svizzera ha utilizzato proprio queste tecnologie per sviluppare un chatbot ad uso professionale (CubeBot Pro), “wrapper” dei migliori LLM presenti sul mercato per offrire al mondo dei professionisti e delle imprese una piattaforma “no code” per adottare gli LLM nelle proprie attività.

Sviluppare internamente la piattaforma CubeBot Pro non solo ci ha dato grande consapevolezza dei nostri mezzi sul tema AI ma, soprattutto, ci permetterà di offrire i nostri servizi conoscendo i pregi ed i limiti di tutte le tecnologie utilizzate. Rispetto agli integratori di sistemi che offrono l’integrazione di chatGpt con i sistemi aziendali, siamo in grado di sapere esattamente dove sono salvati i dati, perché le risposte sono a volte incoerenti, perché i tempi di risposta sono diversi… insomma rispetto agli altri abbiamo maggior controllo” afferma Stefano Zanchetta, CEO di Cube Finance.

Innumerevoli sono i casi citati dall’azienda con sede a Mendrisio: la stesura della documentazione legale da parte degli operatori che intendono offrire servizi in criptovalute; la fornitura di pareri legali in ambito civilistico, costruite a partire da documenti rappresentanti casistiche pluridecennali; sportelli cliente evoluti nell’ambito della sanità privata, in alcuni casi “aumentati” da esperienze immersive; assistenza nella valutazione di effetti farmacologici; manuali di assistenza (ad esempio nell’industria aerospaziale) supportati da strumenti di visualizzazione immersiva e via discorrendo.

Tuttavia l’onda dell’entusiasmo – o dell’hype a seconda della prospettiva – va parzialmente moderata quando si considerano i tanti passi necessari per garantire la sicurezza dei dati sensibili, siano essi proprietà intellettuale o legati alla sfera delle persone fisiche o giuridiche. Con ciò si evince che le competenze pregresse maturate di qualunque azienda che fornisca il servizio di chatbot debbano essere vagliate con cautela, assicurandosi che vi siano le dovute certificazioni (es. ISO 27001) e la verifica della capacità dell’integratore a saper trattare i dati sensibili sotto il profilo della sicurezza e della riservatezza, aspetti che non devono passare in secondo piano, nemmeno in questo momento di euforia e di aggressiva profilazione popolare “pro AI”. L’ottemperanza a normative nazionali e internazionali (GDPR) diventano un punto essenziale nel garantire il necessario rispetto di tutte le regole.

Chiedendo poi di nuovo a Stefano Zanchetta quali aspettative lui abbia in tema di chatbot, la risposta è che “i chatbot attualmente rappresentano il mezzo più immediato per il mondo dei professionisti e delle imprese di gestire l’adozione dell’AI, mitigando il rischio di non aderire a questa rivoluzione. Riteniamo che i prossimi anni vedranno un’adozione con crescita esponenziale di questi strumenti e che gli stessi cambieranno in forma e sostanza, passando dal testo scritto alla parola, magari integrata in alcuni dalla realtà immersiva e arrivando a livelli di efficienza sempre più sorprendenti. Sarà anche opportuno adottare dei sistemi “al di sopra” degli LLM per poter scegliere tra un modello o l’altro, in modo trasparente, senza dover rivedere la propria architettura di sistema.”

Padre Paolo Benanti: l’IA, terzo incomodo tra Sinner e Kasparov

L’Intelligenza Artificiale rischia di essere un sistema che si frappone tra l’essere umano e la realtà, diminuendo le nostre capacità di riflessione e discernimento, come dimostrano la nostra tendenza a cedere ai consigli di acquisto generati dalle nostre profilazioni in rete.

È questo il pensiero di padre Paolo Benanti espresso in occasione di una lezione sull’AI al Forum Internazionale della Pontificia Accademia di Teologia dell’Università Lumsa, in occasione del quale cita il premio Nobel Daniel Kahneman, che ha studiato la nostra razionalità. “Lui dice che la nostra razionalità gioca su due livelli, il sistema 1 e il sistema 2” afferma Benanti. “Nel sistema 1 che è attivo il 95% del tempo, l’uomo procede per un tipo di pensiero che è inconscio, veloce, associativo, intuitivo e istintivo. E’ più veloce, una sorta di pilota automatico delle nostre azioni. Quando invece interviene il sistema 2, quello razionale, si richiede molto più sforzo, tanto che è attivo per il 5% del tempo. In questo caso il sistema è più lento e spesso ci lascia indecisi“.

Per chiarire il funzionamento di questo nostro approccio mentale, Benanti ricorre ad una metafora sportiva. “Per semplificare il sistema 1 è Sinner quando risponde a 180 km orari ad un servizio dell’avversario e in modo veloce e diretto piazza la pallina nell’ angolino del campo. Il sistema 2 è invece quello di Kasparov quando pensa all’apertura di scacchi per vincere la partita“, osserva Benanti, “ahimè noi usiamo molto di più il sistema 1 e quando usiamo il sistema 2 non riusciamo a fare altre cose: se vi è mai capitato di camminare con qualcuno chiacchierando e vi siete dovuti fermare per guardare in faccia il vostro interlocutore, allora vuol dire che siete passati dal sistema 1 al sistema 2“.

Insomma, secondo Benanti, Kahneman ci dice che il sistema 1 è un pilota automatico che viene innescato dal tipo di esperienza che viviamo: esperienze ripetute, con un’idea che ne innesca un’altra e procede in automatico. Da questo punto di vista il pericolo, secondo Benanti, risiede proprio li, quando l’interazione con dei sistemi di linguaggio tipo Chat GPT ci portano ad innescare, in modo automatico e senza quasi che ce ne accorgiamo, il Sistema 1, veloce e istintivo. Questo cosa può comportare? Che l’utilizzo di questi strumenti, che si frappongono tra noi e la realtà, può diminuire la nostra capacità di ragionamento, quella riflessione più attenta, che richiede uno sforzo in più e maggiore discernimento. E di questo, avverte Benanti, “se ne sono accorte le agenzie commerciali: l’utilizzo dell’AI nello spazio commerciale a questo serve: questo tipo di pensiero produce un acquisto compulsivo, meno riflesso” riferendosi all’utilizzo di strumenti di profilazione, segmentazione e di analisi predittiva nei tool di marketing per la gestione delle campagne di online advertising.

Apple rottama l’auto elettrica per concentrarsi sull’Intelligenza Artificiale

Nome in codice Titan, il progetto di sviluppo di auto elettriche da parte di Apple, iniziato nel 2014, è stato cancellato. All’epoca del lancio, il mercato dei veicoli elettrici (EV) sembrava essere molto promettente. La Nissan Leaf, che è stato il primo modello di auto elettrica di massa, era stata lanciata da 4 anni e la Model S di Tesla in soli 2 anni aveva venduto circa 50 mila unità dimostrando che in questo nuovo mercato c’era (forse) spazio anche per nuovi brand. Poi le cose non sono andate secondo i piani. 10 anni dopo, il mercato mondiale dei veicoli elettrici non sembra essere esploso. Nel 2023 i veicoli elettrici hanno rappresentato solo il 14% delle vendite globali, per la maggior parte all’interno del mercato cinese dove dominano i costruttori locali. Anche lo sviluppo di auto a guida autonoma si è rivelato più difficile di quanto gli operatori del settore si aspettassero in precedenza: lo sviluppo tecnologico è rallentato e rimangono importanti sfide da implementare.

Non sorprende quindi che la società di Cupertino abbia deciso di cancellare il progetto auto e di trasferire la gran parte dei membri del team nella divisione che si occuperà di AI dove la società è rimasta fino ad ora abbastanza silente.

Apple, nell’ultimo anno ha registrato la performance azionaria più debole tra tutte le altre big-tech. Certo, il rallentamento dell’attività principale dell’azienda nel settore degli iPhone ha giocato un ruolo importante, ma anche la mancanza di nuovi prodotti di Intelligenza Artificiale è stata un fattore determinante.

All’inizio di quest’anno Microsoft ha superato Apple come azienda di maggior valore al mondo, sfruttando la sua posizione di leadership grazie agni investimenti in OpenAI e all’integrazione di ChatGPT all’interno di Copilot. Vero che con il lancio di Siri nel 2011, Apple è entrata per prima nel settore dei prodotti di Intelligenza Artificiale rivolti ai consumatori, ma è altrettanto vero che negli ultimi anni l’azienda è rimasta indietro su questo settore, mentre competitor come Samsung hanno iniziato a introdurre nuove funzioni di AI nei telefoni con funzioni quali la traduzione di lingue in tempo reale durante le telefonate, la sintesi di note e la modifica di foto presenti nei Galaxy di fascia alta.

La partita è indubbiamente difficile perché, secondo gli analisti e gli investitori, anche se Apple riuscirà a introdurre nuove funzioni di Intelligenza Artificiale che renderanno l’azienda più competitiva in questo campo, non è chiaro se riuscirà ad aumentare le vendite. Pesano poi le prospettive su un mercato strategico per Apple come quello cinese dove il rallentamento della domanda interna è accompagnato da una particolare aggressività dei competitor, Huawei in primis.

In occasione della presentazione degli utili, lo scorso mese di febbraio, Tim Cook ha dichiarato “continueremo a investire in queste e altre tecnologie che modellano il nostro futuro. Ciò include l’intelligenza artificiale, a cui continuiamo a dedicare un’enorme quantità di tempo e impegno e siamo entusiasti di condividere i dettagli del nostro lavoro in corso in questo spazio entro la fine dell’anno”, cosa che farebbe pensare ad una implicita conferma delle voci secondo cui iOS 18, che sarà presentato al WWDC il prossimo mese di giugno, presenterà funzionalità AI complete. E le aspettative, da questo punto di vista, sono alle stelle.

OpenAI respinge le accuse di Elon Musk

I massimi dirigenti di OpenAI hanno respinto le accuse avanzate da Elon Musk che ha intentato una causa legale contro la società, il suo Ceo e Microsoft, affermando in una nota inviata allo staff che la società rimane indipendente, impegnata a beneficio dell’umanità e non ha ancora raggiunto l’Intelligenza Artificiale generale nei suoi prodotti.

Le accuse [di Musk] – comprese le affermazioni secondo cui GPT-4 è un’AGI, che l’open source della nostra tecnologia è la chiave per la missione e che siamo di fatto una filiale di Microsoft non riflettono la realtà del nostro lavoro o della nostra missione” si legge in una dichiarazione del direttore strategico Jason Kwon in una nota ai dipendenti riportata da Axios, un sito di news fondato da ex giornalisti di Politico.

Il promemoria inviato da Kwon ai dipendenti della società mira, in buona sostanza, a confutare le principali affermazioni di Musk.

Sul fatto che GPT-4 rappresenti l’AGI la società risponde che “È in grado di risolvere piccoli compiti in molti lavori, ma il divario tra il lavoro svolto da un essere umano e il lavoro svolto da GPT-4 nell’economia rimane incredibilmente alto“, si legge nella nota, che aggiunge “è importante sottolineare che un AGI sarà un sistema altamente autonomo in grado di ideare nuove soluzioni a sfide di lunga data: GPT-4 non può farlo“.

Sul fatto che OpenAI abbia abbandonato la sua missione a beneficio dell’umanità la risposta è che la sfida di OpenAI “è sia costruire AGI sia assicurarsi che il suo impatto sia il più positivo possibile” e che “creare tecnologia di frontiera e renderla ampiamente disponibile tramite API e prodotti serve al meglio entrambe le parti di questa missione, poiché in grado di attrarre il capitale necessario, rendere la tecnologia ampiamente utilizzabile e anche fornire protezioni come richiesto dalla società e dalla coscienza

Sul fatto che OpenAI agisce come una filiale di Microsoft l’azienda afferma la propria libertà di decidere “cosa ricercare e costruire, come gestire l’azienda, a chi servono i nostri prodotti e come vivere la nostra missione” dichiarando di competere direttamente con Microsoft anche per offrire il miglior valore e i migliori prodotti ad aziende, sviluppatori e persone comuni.

Una posizione condivisa dal CEO della società, Sam Altman, che, sempre come riportato da Axios, ha inviato un messaggio di follow-up al personale, facendo eco alle dichiarazioni di Kwon, nel quale avvisa che l’anno in corso si preannuncia difficile per l’azienda perché “gli attacchi continueranno ad arrivare“.

Intelligenza Artificiale e la sfida del “brain drain” in Italia. L’opinione di Baldassarra, Ceo di Seeweb

L’Italia, pur avendo un discreto numero di startup e di imprese specializzate in Intelligenza Artificiale, che generano, secondo l’Osservatorio Artificial Intelligence del Politecnico di Milano, un giro d’affari di circa 760 milioni di euro di fatturato nel 2023 e una solida rete di istituzioni accademiche che formano i talenti necessari, si trova ad affrontare la sfida del “brain drain” a causa della mancanza di misure sistemiche per promuovere le competenze nazionali nel settore. E’ questo in sintesi il quadro delineato da Antonio Baldassarra, CEO di Seeweb – un’azienda italiana impegnata nel fornire infrastrutture per l’Intelligenza Artificiale – durante la sua testimonianza davanti alla Commissione Lavoro della Camera dei Deputati nell’ambito dell’Indagine Conoscitiva sull’Intelligenza Artificiale.

Il “brain drain“, letteralmente “drenaggio di cervelli”, è un fenomeno che si verifica quando un Paese perde i suoi talenti migliori e più qualificati, spesso a causa di migliori opportunità di lavoro o di studio all’estero. Un esodo, quello delle risorse umane altamente qualificate, che può causare una significativa perdita di competenze e conoscenze nel paese di origine, riducendo le capacità di innovazione e lo sviluppo economico a lungo termine.

Baldassarra ha evidenziato come spesso, nel dibattito pubblico, si concentri l’attenzione solo sugli aspetti negativi dell’Intelligenza Artificiale, come le questioni legate alla privacy, alla cybersecurity e alla concorrenza, trascurando il valore delle aziende italiane attive nella filiera dell’AI, come i fornitori di servizi cloud. Le istituzioni e la pubblica amministrazione che già utilizzano questa tecnologia e ne faranno un uso sempre più ampio in futuro, possono rappresentare da questo punto di vista un’enorme volano di crescita per le imprese italiane, se la transizione digitale viene gestita saggiamente.

Attualmente, la forza lavoro specializzata nell’AI e nelle materie STEM formata nelle Università italiane finisce spesso per essere attratta dalle cosidette Big Tech, le aziende tecnologiche globali più note. Per invertire questa tendenza, Baldassarra suggerisce di sostenere le industrie locali anche attraverso la commessa pubblica di servizi digitali, in modo da ampliare le competenze in Italia, rendendo il Paese più attrattivo per gli investitori e i lavoratori della conoscenza, e generando ricadute positive sull’occupazione.

Tuttavia, affinché ciò avvenga, è necessario lavorare su due fronti. Da un lato è fondamentale un cambio di approccio da parte delle Università, che attualmente formano i talenti per lavorare principalmente su sistemi proprietari sviluppati dalle grandi aziende tecnologiche internazionali, tralasciando magari altre realtà.

Dall’altro, è altrettanto importante che la crescita delle imprese italiane venga sostenuta attraverso programmi di public procurement mirati, che accelerino la produzione locale di soluzioni innovative per l’erogazione dei servizi pubblici. Come già fatto da altri Paesi europei, conclude Baldassara, “anche l’Italia può introdurre misure selettive per garantire alle PMI dell’innovazione attive nell’Intelligenza Artificiale di poter ricevere adeguate porzioni di incentivi per continuare a crescere grazie all’importante volano costituito dalla commessa pubblica”, senza tralasciare il peso della burocrazia che spesso penalizza le aziende più piccole rispetto ai grandi player globali.

Occorrerebbe, aggiungiamo noi, l’adozione (urgente) di una politica industriale che miri allo sviluppo delle imprese italiane con l’obiettivo di ridurre il divario dell’Italia con gli altri Paesi europei e gli Stati Uniti.

La Spagna avrà la propria AI: Pedro Sánchez annuncia un modello linguistico al MWC 2024

La Spagna svilupperà un modello di linguaggio di Intelligenza Artificiale in spagnolo e nelle lingue coufficiali (basco, catalano, galiziano). Lo ha annunciato il premier Pedro Sanchez nella cena con le autorità alla vigilia dell’apertura del Mobile World Congress a Barcellona.

L’Intelligenza Artificiale sarà costruita presso il Centro di supercalcolo di Barcellona con il supporto della Reale Accademia spagnola della lingua. Lo scopo principale di questo progetto è quello di essere il più grande modello di intelligenza artificiale per coprire non solo lo spagnolo ma anche le altre lingue coufficiali del Paese.

Il progetto vuole essere aperto e trasparente, con l’adozione di un modello open source, cercando una chiara attenzione all’accessibilità e alla collaborazione tra i diversi settori pubblico e privato per realizzarlo. 

 “Lavoreremo in collaborazione pubblico-privata con il Super-computing Center, la Rete spagnola di Super Calcolo, l’Accademia spagnola della Lingua e la rete delle accademie nella costruzione di un grande modello fondante del linguaggio di intelligenza artificiale allenato in spagnolo e nelle lingue coufficiali, in codice aperto e trasparente“, ha detto Sanchez ripreso dai media iberici fra i quali El Pais. Il presidente del governo ha rivelavo, inoltre, che “è imprescindibile una riflessione profonda sull’impatto della IA sulle nostre società, sui diritti, democrazia, lavoro o politiche pubbliche” augurandosi che la Spagna possa giocare un ruolo importante nello sviluppo di questa tecnologia.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta! 

Women in AI è un’iniziativa di Rivista AI volta a dare voce alle donne che si occupano di Intelligenza Artificiale per favorire lo sviluppo di una tecnologia che sia inclusiva e a vantaggio della società globale. 

Se analizziamo l’attuale scenario mondiale dell’Intelligenza Artificiale vediamo che i principali protagonisti soano uomini. Le donne ricoprono appena il 16% dei posti di lavoro dell’AI. Se vogliamo maggiore equilibrio e maggiore uguaglianza nella costruzione di algoritmi, agire contro la riproduzione dei pregiudizi di genere negli algoritmi e renderli più inclusivi, per far sì che rispondano meglio alle caratteristiche e ai bisogni di tutta la popolazione, bisogna favorire la rappresentanza di ragazze e donne nell’istruzione STEM e nei lavori del futuro.

Abbiamo bisogno che le donne siano maggiormente coinvolte nel campo dell’AI e riteniamo che il racconto di storie, carriere e ruoli delle donne che si occupano di Intelligenza Artificiale possa essere da stimolo per le future generazioni nell’identificare modelli positivi di ruolo femminili. Riteniamo altresì importante aumentare la rappresentanza femminile nel settore dell’AI e, più in generale, nelle materie STEM, per contribuire a mitigare il divario di genere nel settore, gettando al tempo stesso le basi per un uso equo e inclusivo dell’Intelligenza Artificiale.

Ecco perché abbiamo deciso di lanciare una serie di interviste incentrate sulle donne che stanno contribuendo alla rivoluzione dell’intelligenza artificiale e che ricoprono ruoli importanti nell’ambito delle nuove tecnologie. 

Pubblicheremo diversi articoli durante l’anno evidenziando quel lavoro che spesso non viene riconosciuto o che comunque non ha la stessa visibilità dei colleghi uomini. Intervisteremo manager, ricercatrici, CIO, CTO, amministratici delegate, parlando del loro percorso professionale, del futuro dell’innovazione, delle sfide che le donne devono affrontare nell’AI, delle politiche di inclusione all’interno delle aziende e dei consigli da dare a tutte quelle donne che aspirano ad una carriera nell’AI, cercando di capire cosa sta determinando il divario di genere nell’IA e cosa si può fare per risolverlo.

Se volete contattarci, segnalarci dei nominativi o altro, potete farlo qui sotto:

Elon Musk fa causa ad OpenAI e al Ceo Sam Altman

Elon Musk ha fatto causa ad OpenAI e al suo Ceo, Sam Altman, affermando che quando aveva finanziato la creazione dell’azienda nel 2015, aveva chiuso un accordo con lo stesso Altman e con Greg Brockman, il presidente della società, per fare sì che la società di intelligenza artificiale restasse un’organizzazione no-profit che avrebbe sviluppato tecnologia open source a beneficio dell’umanità, rendendo disponibile i propri codici.

Cosa che non è accaduta, sostiene Musk, visto che lo sviluppo di ChatGPT 4 è poi avvenuto in gran segreto e che la mission dell’azienda è stata poi snaturata trasformandola “in una filiale di fatto closed source della più grande azienda tecnologica al mondo: Microsoft” si legge nella dichiarazione della causa.

Gli avvocati di Musk hanno affermato che la causa è stata presentata “per costringere OpenAI ad aderire all’accordo costitutivo e a tornare alla sua missione di sviluppare AGI a beneficio dell’umanità, non per avvantaggiare personalmente i singoli imputati e la più grande azienda tecnologica al mondo”.

Microsoft, che sta affrontando il controllo da parte delle autorità di regolamentazione antitrust dell’UE sul suo investimento in OpenAI, ha recentemente annunciato un importante investimento nella start-up francese Mistral AI, considerata la risposta europea a OpenAI, per aiutarla a sbloccare nuove opportunità commerciali e ad espandersi nei mercati globali.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!  

Microsoft investe in Mistral AI

Microsoft ha annunciato una nuova partnership con la start-up francese Mistral AI, considerata la risposta europea al produttore di ChatGPT OpenAI, confermando l’interesse ad espandere la propria presenza nel settore in rapida evoluzione dell’Intelligenza Artificiale. L’investimento sarà di 15 milioni di euro, che si convertiranno in azioni nel prossimo round di finanziamento di Mistral.

In base all’accordo, i modelli linguistici di grandi dimensioni (LLM) di Mistral, la tecnologia alla base dei prodotti di intelligenza artificiale generativa, saranno disponibili sulla piattaforma di cloud computing Azure di Microsoft. Mistral diventa così la seconda azienda a ospitare il suo LLM sulla piattaforma dopo OpenAI.

La partnership di Microsoft con Mistral AI si concentra su tre aree principali: 

  1. Infrastruttura di supercalcolo: Microsoft supporterà Mistral AI con l’infrastruttura di supercalcolo AI di Azure che offre prestazioni e scalabilità best-in-class per i carichi di lavoro di formazione e inferenza dell’IA per i modelli di punta di Mistral AI;
  2. Scalabilità sul mercato: Microsoft e Mistral AI metteranno a disposizione dei clienti i modelli premium di Mistral AI attraverso Models as a Service (MaaS) nel catalogo dei modelli di Azure AI Studio e Azure Machine Learning; 
  3. Ricerca e sviluppo sull’intelligenza artificiale : Microsoft e Mistral AI esploreranno la collaborazione su modelli di formazione specifici per clienti selezionati, compresi i carichi di lavoro del settore pubblico europeo. 

Il presidente di Microsoft Brad Smith ha dichiarato lunedì che l’accordo è un segnale “importante” del sostegno dell’azienda alla tecnologia europea, anche se, qualche malizioso ha pensato che la mossa possa essere stata guidata dalla volontà di mitigare l’inchiesta della UE sull’investimento di Microsoft in OpenAI in base al regolamento europeo sulle concentrazioni, anche alla luce dell’investimento, 15 milioni di euro verso i 13 miliardi di dollari investiti dall’azienda di Redmond in OpenAI.

Interrogato in merito in occasione del Mobile World Congress che si sta svolgendo a Barcellona, ​​in Spagna, Smith ha affermato che la società si è impegnata ad avere un’offerta di prodotti diversificata. “Per noi è importante dimostrare che non si tratta solo della tecnologia Microsoft, non si tratta solo di prodotti americani” ha affermato, “questo sarà un motore per la tecnologia, l’innovazione e la crescita anche in Europa”.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Alla scoperta di Groq, l’alternativa a ChatGPT

In questi giorni, soprattutto sui social, si parla molto di nuovo sistema di intelligenza artificiale in grado di garantire prestazioni e velocità impareggiabili. Si tratta di Groq (che non c’entra nulla con il Grok che ha annunciato Elon Musk), un’azienda fondata nel 2016 da Jonathan Ross, un ex ingegnere di Google, che ha sviluppato un processore di intelligenza artificiale progettato specificamente per accelerare l’elaborazione delle reti neurali profonde a una velocità incredibile.

Si tratta di un motore di inferenza LPU (Language Processing Unit), un tipo di hardware progettato specificamente per elaborare e analizzare il linguaggio naturale. È un tipo di modello di Intelligenza Artificiale in grado di comprendere, interpretare e generare il linguaggio umano. Le LPU sono comunemente utilizzate in applicazioni quali assistenti virtuali, chatbot e servizi di traduzione linguistica.

Le GPU, invece, che sono utilizzate anche per l’elaborazione generale, comprese le attività di AI e di apprendimento automatico, sono un tipo di hardware progettato specificamente per eseguire il rendering di grafica e immagini da visualizzare su uno schermo. Le GPU sono comunemente utilizzate nei computer e nelle console di gioco per gestire l’elevato numero di calcoli necessari a visualizzare grafica di alta qualità in tempo reale.

La differenza principale tra un LPU e una GPU è quindi il tipo di dati che i due sistemi sono ottimizzati per elaborare. Una LPU è ottimizzata per l’elaborazione e l’analisi del linguaggio naturale, mentre una GPU è ottimizzata per il rendering di grafica e immagini.

Tradotto il tutto e parlando in termini di modelli di Intelligenza Artificiale, un LPU è più adatto per le attività di elaborazione del linguaggio naturale, come l’analisi del testo, l’analisi del sentiment e la traduzione linguistica. Una GPU, invece, è più adatta per compiti che richiedono molta potenza di calcolo, come il riconoscimento delle immagini, l’analisi video e il deep learning.

Potete provare il motore di inferenza LPU dell’azienda tramite l’interfaccia GroqChat, sebbene il chatbot non abbia accesso a Internet, e mettere alla prova il sistema scegliendo tra i due motori Mixtral 8x7B-32k e Llama2 70B-4k.

Alla fine dell’anno scorso, i test interni hanno fissato un nuovo livello di prestazione raggiungendo più di 300 token al secondo per utente attraverso Llama-2 (70B) LLM di Meta AI. Nel gennaio 2024, l’azienda ha preso parte al suo primo benchmarking pubblico, lasciandosi alle spalle tutti gli altri fornitori di inferenza basati su cloud. Ora è emerso vittorioso contro gli otto principali fornitori di cloud in test indipendenti.

ArtificialAnalysis.ai ha valutato in modo indipendente Groq e la sua API Llama 2 Chat (70B) ottenendo un throughput di 241 token al secondo, più del doppio della velocità di altri provider di hosting“, ha affermato Micah Hill-Smith, co-creatore di ArtificialAnalysis.ai . “Groq rappresenta un cambiamento radicale nella velocità disponibile, consentendo nuovi casi d’uso per modelli linguistici di grandi dimensioni“.

Il Groq LPU Inference Engine è risultato il migliore per aspetti quali tempo di risposta totale, throughput nel tempo, varianza del throughput e latenza rispetto al throughput, con il grafico per l’ultima categoria che necessitava di estendere i suoi assi per accogliere i risultati.

Fonte: Artificial Analysis [Throughput: Tokens per second received while the model is generating tokens (ie. after first chunk has been received from the API)].

Groq esiste per eliminare ‘chi ha e chi non ha’ e per aiutare tutti nella comunità dell’intelligenza artificiale a prosperare“, ha affermato Jonathan Ross, CEO e fondatore di Groq. “L’inferenza è fondamentale per raggiungere questo obiettivo perché la velocità è ciò che trasforma le idee degli sviluppatori in soluzioni aziendali e applicazioni che cambiano la vita. È incredibilmente gratificante avere una terza parte che convalidi che il motore di inferenza LPU è l’opzione più veloce per eseguire modelli linguistici di grandi dimensioni e siamo grati ai ragazzi di ArtificialAnalysis.ai per aver riconosciuto Groq come un vero contendente tra gli acceleratori di intelligenza artificiale“.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta! 

Impara a programmare in Python gratis: 15 corsi essenziali per avvicinarti all’Intelligenza Artificiale

L’interesse per l’Intelligenza Artificiale e le sue applicazioni pratiche sta crescendo sempre di più. Se sei un appassionato di questo campo in continua evoluzione e desideri imparare a programmare in Python, sei nel posto giusto.

Python è diventato il linguaggio di programmazione preferito per molti sviluppatori di AI grazie alla sua sintassi semplice, alla flessibilità e alla vasta gamma di librerie specializzate. Se sei nuovo nel mondo della programmazione o se hai già esperienza e desideri approfondire le tue conoscenze, esistono numerosi corsi online gratuiti che possono aiutarti a padroneggiare Python e avviarti nel campo dell’AI.

In questo articolo, ti presenteremo una lista di 15 corsi online gratuiti di Python che coprono una vasta gamma di argomenti, dal linguaggio di base alle applicazioni pratiche nell’ambito dell’intelligenza artificiale. Che tu sia uno studente, un professionista o semplicemente un appassionato, c’è un corso adatto a te.

Continua a leggere per scoprire i migliori corsi gratuiti disponibili online.

1 .𝗣𝘆𝘁𝗵𝗼𝗻 𝗳𝗼𝗿 𝗗𝗮𝘁𝗮 𝗦𝗰𝗶𝗲𝗻𝗰𝗲 con 𝗜𝗕𝗠 https://cognitiveclass.ai/courses/python-for-data-science…

2. 𝗜𝗻𝘁𝗿𝗼𝗱𝘂𝗰𝘁𝗶𝗼𝗻 𝘁𝗼 𝗣𝘆𝘁𝗵𝗼𝗻 𝗣𝗿𝗼𝗴𝗿𝗮𝗺𝗺𝗶𝗻𝗴 con 𝗨𝗱𝗮𝗰𝗶𝘁𝘆 https://imp.i115008.net/MmW5nY

3. 𝗟𝗲𝗮𝗿𝗻 𝗣𝘆𝘁𝗵𝗼𝗻 𝗯𝗮𝘀𝗶𝗰𝘀 con Data Camp https://learnpython.org

4. 𝗟𝗲𝗮𝗿𝗻 𝗣𝘆𝘁𝗵𝗼𝗻 – 𝗙𝘂𝗹𝗹 𝗖𝗼𝘂𝗿𝘀𝗲 𝗳𝗼𝗿 𝗕𝗲𝗴𝗶𝗻𝗻𝗲𝗿𝘀 con 𝗲𝗖𝗼𝗱𝗲𝗖𝗮𝗺𝗽 https://youtube.com/playlist?list=PLWKjhJtqVAbnqBxcdjVGgT3uVR10bzTEB…

5. Machine Learning with Python con IBM by Coursera https://imp.i384100.net/eKJOOZ

6. Python for Beginners con Udemy https://udemy.com/course/python-for-complete-beginners-1/…

7. Learn Python for Total Beginners con Udemy https://udemy.com/course/python-3-for-total-beginners/v…

8. Python for Data Science, AI & Development con IBM by Coursera https://imp.i384100.net/5gmXXo

9. Python for Everybody con University of Michigan by Coursera https://imp.i384100.net/oqWMgY

10. Crash Course on Python con Google by Coursera https://imp.i384100.net/QyzVe6

11. Google IT Automation with Python con Google by Coursera https://imp.i384100.net/Gmorq2

12. Python 3 Programming Specialization con University of Michigan by Coursera https://imp.i384100.net/m53qey

13. Get Started with Python con Google by Coursera https://imp.i384100.net/q4391q

14. Programming in Python con Meta con University of Michigan by Courserahttps://imp.i384100.net/DKgG5G

15. Data Analysis with Python con IBM by Coursera https://imp.i384100.net/jrDMMb


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta! ✉

Il Dipartimento di Giustizia Usa nomina l’ex consigliere di Kamala Harris come nuovo capo dell’Intelligenza Artificiale

Il Dipartimento di Giustizia degli Stati Uniti ha nominato il suo primo funzionario in assoluto dedicato all’Intelligenza Artificiale (AI), in previsione dell’impatto che questa tecnologia in rapida evoluzione avrà sul sistema della giustizia penale. 

La scelta è caduta su Jonathan Mayer, assistant professior all’Università di Princeton, dove ricopre incarichi presso il Dipartimento di Informatica e la Princeton School of Public and International Affairs. Prima di entrare a far parte della facoltà di Princeton, ha ricoperto il ruolo di consigliere tecnologico della senatrice Kamala Harris e Chief Technology Officer presso la FCC, la Commissione Federale delle Comunicazioni.

Il Dipartimento di Giustizia deve tenere il passo con la rapida evoluzione degli sviluppi scientifici e tecnologici al fine di compiere la nostra missione di sostenere lo stato di diritto, mantenere il nostro Paese sicuro e proteggere i diritti civili“, ha affermato in una nota il procuratore generale degli Stati Uniti Merrick Garland a valle della nomina.

Nel suo nuovo ruolo, che è quello di Capo consulente scientifico e tecnologico del Dipartimento di Giustizia e il Capo dell’Intelligenza Artificiale dovrebbe consigliare Garland e gli altri direttori del Dipartimento di Giustizia su questioni relative alle tecnologie emergenti, compreso il tema su come integrare responsabilmente l’Intelligenza Artificiale nelle indagini e nei procedimenti penali del dipartimento. 

Secondo l’agenzia di stampa Reuters, Mayer guiderà un comitato appena formato di forze dell’ordine e funzionari per i diritti civili che consiglierà Garland e altri al Dipartimento di Giustizia sull’etica e l’efficacia dei sistemi di intelligenza artificiale, cercando anche di reclutare più esperti tecnologici nel dipartimento.

I funzionari statunitensi hanno valutato come bilanciare al meglio i benefici dell’intelligenza artificiale, minimizzando al tempo stesso i pericoli di una tecnologia poco regolamentata e in rapida espansione. 

Secondo il vice procuratore generale degli Stati Uniti, Lisa Monaco, il Dipartimento di Giustizia ha già utilizzato l’intelligenza artificiale per il contrasto ad alcune attività illecite, nello specifico legate al commercio di sostanza stupefacenti, ma occorre ponderarne bene l’uso perché sebbene abbia “il potenziale per essere uno strumento indispensabile per aiutare a identificare, contrastare e scoraggiare criminali e terroristi”, il suo uso comporta anche dei rischi tra cui quello di “amplificare i pregiudizi esistenti e le pratiche discriminatorie“.

Lasciata senza guardrail” continua Monaco, “l’intelligenza artificiale pone sfide immense alle democrazie di tutto il mondo. Quindi, siamo a un punto di svolta con l’intelligenza artificiale. Dobbiamo muoverci rapidamente per identificare, sfruttare e governare i suoi usi positivi, adottando misure per minimizzarne i rischi”, commentando così l’istituzione del nuovo ufficio dedicato all’AI all’interno del Dipartimento di Giustizia.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta! 

GPT non è un marchio ma solo un termine descrittivo secondo l’Ufficio Marchi e Brevetti degli Stati Uniti

L’Ufficio Marchi e Brevetti degli Stati Uniti (USPTO) ha respinto la domanda di OpenAI di registrare il marchio “GPT”. Il rifiuto si basa sul fatto che GPT descrive semplicemente le caratteristiche, le funzioni e le peculiarità dei prodotti e dei servizi di OpenAI.

Secondo l’USPTO, GPT è semplicemente l’abbreviazione di “Generative Pre-trained Transformer“, che sono modelli di rete neurale che forniscono applicazioni con la capacità i creare testo e contenuti simili a quelli umani e rispondere alle domande in modo colloquiale.

Una brutta notizia per OpenAI che da quando ha lanciato il suo chatbot ChatGPT nel novembre 2022 – suscitando l’interesse del mondo per la tecnologia e dando il via a una vera e propria corsa all’Intelligenza Artificiale generativa – ha sempre tentato di impedire alle altre aziende di poter utilizzare l’acronimo “GPT”. I legali di OpenAI infatti nel portare avanti la richiesta hanno più volte affermato che se si chiedesse a un campione di persone cosa significa GPT, è altamente improbabile che molti saprebbero rispondere dicendo che sta per ‘Generative Pre-trained Transformer’.

Tuttavia l’Ufficio Marchi e Brevetti ha respinto tale tesi ribadendo, nella sua decisione, che invece molti consumatori hanno chiaramente associato “GPT” a determinati prodotti e tecnologie. “Il fatto che i consumatori possano non conoscere le parole che stanno alla base dell’acronimo non altera il fatto che gli acquirenti siano abituati a riconoscere che il termine “GPT” è comunemente usato in relazione al software per identificare un particolare tipo di software dotato di questa tecnologia di domanda e risposta dell’intelligenza artificiale“, ha scritto l’USPTO nelle sue note di commento a valle della decisione, precisando di aver respinto la petizione di OpenAI per evitare che l’azienda soffochi la concorrenza nel suo settore e che possa intentare costose cause per violazione del marchio.

Le aziende e i concorrenti devono essere liberi di usare un linguaggio descrittivo quando descrivono i propri beni e/o servizi al pubblico nella pubblicità e nei materiali di marketing“, ha concluso l’Ufficio Marchi e Brevetti in merito alla faccenda.

Per la cronaca, questa di febbraio 2024 é la seconda volta che l’agenzia nega la richiesta di OpenAI, inviata nel dicembre 2022, di registrare un marchio per “GPT”. In precedenza, l’USPTO aveva respinto la richiesta dell’azienda nel maggio 2023.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta! 

Stability AI annuncia l’arrivo di Stable Diffusion 3, una nuova generazione di AI per la creazione di immagini

Stability AI ha annunciato il lancio di  Stable Diffusion 3, l’ultima versione del suo modello AI per la generazione di immagini.

Stability AI ha affermato che il nuovo modello, che non è ancora ampiamente disponibile, migliora la qualità dell’immagine, funziona meglio con istruzioni contenenti più argomenti e può inserire testo più accurato come parte dell’immagine generata. L’aspetto tipografico è sempre stato il tallone d’achille non solo dei precedenti modelli di Stable Diffusion ma anche dei rivali come DALL-E 3  e Midjourney che hanno lavorato proprio su questo aspetto nelle loro versioni più recenti.

L’annuncio arriva pochi giorni dopo che il più grande rivale di Stability AI, OpenAI, ha presentato Sora , un nuovissimo modello di intelligenza artificiale in grado di generare video quasi realistici e ad alta definizione da semplici istruzioni di testo.

Non è chiaro quando Stable Diffusion 3 verrà rilasciato al pubblico, ma fino ad allora chiunque sia interessato può iscriversi a una lista d’attesa 

Prompt: “Night photo of a sports car with the text “SD3” on the side, the car is on a race track at high speed, a huge road sign with the text “faster”. Made with SD3. Credits: @andrekerygma
Prompt: “A horse balancing on top of a colorful ball in a field with green grass and a mountain in the background”. Made with SD3. Credits: @andrekerygma
Prompt: “Studio photograph closeup of a chameleon over a black background”. Made with SD3: Credits: @StabilityAI

Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Pagina 43 di 46

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie