Notizie di Intelligenza Artificiale Inclusiva in Tempo Reale: Innovazione e Accessibilità Pro bono publico

Autore: Redazione Pagina 37 di 45

Maxime Labonne crea il Meta-Llama-3-120B-Instruct fondendo più istanze di Meta-Llama-3-70B-Instruct con MergeKit

Maxime Labonne, un ricercatore di intelligenza artificiale, ha creato un nuovo modello di linguaggio di grandi dimensioni chiamato Meta-Llama-3-120B-Instruct. Questo modello è stato ottenuto fondendo più istanze del precedente modello Meta-Llama-3-70B-Instruct utilizzando uno strumento chiamato MergeKit.

Il processo di “self-merge”

Questa tecnica innovativa, chiamata “self-merge”, permette di scalare il modello da 70 miliardi a 120 miliardi di parametri. Labonne ha strutturato il processo di fusione sovrapponendo gli intervalli di strati da 0 a 80, migliorando così le capacità complessive del modello.

Ottimizzazione delle prestazioni

Labonne ha impiegato una tecnica di fusione “passthrough”, mantenendo il tipo di dati come float16 per ottimizzare le prestazioni. Questa scelta ha permesso di mantenere l’efficienza del modello nonostante l’aumento significativo della sua dimensione.

Prestazioni del modello

Il modello Meta-Llama-3-120B-Instruct si posiziona al sesto posto nella classifica della benchmark di scrittura creativa, superando il precedente modello Llama 3 70B. Tuttavia, nonostante le sue ottime prestazioni nella scrittura creativa, il modello non riesce a eguagliare le capacità di altri modelli come GPT-4 nelle attività di ragionamento.

Applicazioni

Questo nuovo modello di linguaggio è particolarmente adatto per attività di scrittura creativa. Esso utilizza il template di chat di Llama 3 con una finestra di contesto predefinita di 8K.

Ulteriori informazioni

Maxime Labonne ha dichiarato che il processo di fusione dei modelli ha richiesto un’attenta progettazione per garantire la coerenza e l’efficacia del modello risultante. Inoltre, il Meta-Llama-3-120B-Instruct è stato progettato per essere facilmente adattabile e personalizzabile per diversi compiti di elaborazione del linguaggio naturale.

Il lavoro di Maxime Labonne dimostra come l’innovazione e la sperimentazione possano portare allo sviluppo di nuovi modelli di linguaggio di grandi dimensioni, offrendo nuove opportunità e applicazioni nell’ambito dell’intelligenza artificiale.

Ricerca GenAI e Meta Llama 3 abilitano le nuove funzionalità di generazione di immagini di Meta AI

L’articolo ‘Imagine Flash: Accelerating Emu Diffusion Models with Backward Distillation‘ discute la ricerca GenAI che supporta le ultime funzionalità di generazione di immagini in Meta AI, oltre al rilascio di Meta Llama 3.

Questa ricerca si concentra sull’accelerazione dei modelli di diffusione Emu attraverso una tecnica chiamata Backward Distillation. La Backward Distillation mira a mitigare le discrepanze tra addestramento e inferenza calibrando il modello studente sulla sua stessa traiettoria inversa. Questo approccio è fondamentale per consentire la generazione di campioni ad alta fedeltà e diversificati utilizzando un numero minimo di passaggi, tipicamente compreso tra uno e tre.

L’articolo introduce anche la Shifted Reconstruction Loss, che adatta dinamicamente il trasferimento di conoscenza in base al passo temporale corrente, e la Noise Correction, una tecnica di inferenza che migliora la qualità del campione affrontando le singolarità nella previsione del rumore.

Attraverso esperimenti approfonditi, lo studio dimostra che il loro metodo supera i concorrenti esistenti sia in metriche quantitative che in valutazioni umane, raggiungendo prestazioni paragonabili al modello insegnante con soli tre passaggi di denoising, facilitando così una generazione efficiente di alta qualità.

Sintesi :

I modelli di diffusione rappresentano un robusto framework generativo, tuttavia implicano un processo inferenziale dispendioso. Le tecniche di accelerazione correnti spesso degradano la qualità delle immagini o risultano inefficaci in scenari complessi, specie quando si limitano a pochi step di elaborazione.

Nel presente studio, META introduce un innovativo framework di distillazione ideato per la produzione di campioni vari e di alta qualità in soli uno a tre step. La metodologia si articola in tre componenti fondamentali: (i) Distillazione inversa, che riduce il divario tra fase di addestramento e inferenza attraverso la calibrazione dello studente sulla propria traiettoria inversa; (ii) Perdita di ricostruzione adattiva, che modula il trasferimento di conoscenza in funzione del tempo di passaggio specifico; e (iii) Correzione adattiva del rumore, una strategia inferenziale che raffina la qualità dei campioni intervenendo sulle anomalie nella previsione del rumore.

Mediante una serie di esperimenti approfonditi, META ha verificato che il metodo eccelle rispetto ai rivali in termini di metriche quantitative e giudizi qualitativi forniti da valutatori umani. In modo significativo, il nostro approccio raggiunge livelli di performance similari al modello originale con soli tre step di denoising, promuovendo una generazione di immagini di alta qualità e ad alta efficienza.

Warren Buffett avverte sui rischi che l’intelligenza artificiale rappresenta nell’ingannare gli individui

Fin dalla tenera età di 11 anni, Warren Buffett ha iniziato a lavorare come fattorino, distribuendo quotidiani e bevande direttamente alle porte delle persone, un’attività che gli permise di accumulare risparmi sufficienti per lanciare la sua prima impresa: l’affitto di una bilancia.

Per tutta la sua vita il leitmotiv è stato:

“risparmia, acquista assets in grado di generare valore, mantienile nel lungo periodo come se fossi imprenditore e non un semplice investitore.”

E proprio in questo cruciale aspetto si cela il cuore pulsante dell’universo degli investimenti: il celebre e spesso discusso lungo periodo. Stando a Forbes, il suo patrimonio netto è valutato attorno ai 113,8 miliardi di dollari.

Sabato il presidente e capo supremo di Berkshire Hathaway Warren Buffett, ha espresso alcune parole caute riguardo al potenziale dell’intelligenza artificiale (AI).

Durante la sua partecipazione all’assemblea annuale degli azionisti del conglomerato, l’esperto investitore ha lanciato un monito sul ruolo che l’intelligenza artificiale può giocare nell’ingannare le persone, equiparando tale tecnologia al pericoloso rilascio di un “genio dalla bottiglia”.

“Quando pensi al potenziale di truffare le persone… Se fossi interessato a investire nelle truffe, quello sarebbe il settore in crescita di tutti i tempi ed è abilitato, in un certo senso” dall’intelligenza artificiale

Buffett.

Il soprannome “Oracolo di Omaha” era associato alle sofisticate tecnologie di clonazione vocale e di riproduzione facciale, fondate sull’intelligenza artificiale, nonché alle tecniche deep-fake impiegate dai malintenzionati per generare o alterare contenuti video nel tentativo di ricattare e sottrarre denaro agli individui.

Buffett ha citato l’esempio di una recente esperienza con un video falso in cui si vede lui stesso che lo ha reso “nervoso”.

“Ero io ed era la mia voce e indossavo il tipo di vestiti che indosso e mia moglie o mia figlia non sarebbero state in grado di rilevare alcuna differenza e stava trasmettendo un messaggio che in nessun modo veniva da me”,

Buffett

“abbiamo fatto uscire il genio dalla bottiglia quando abbiamo sviluppato le armi nucleari… L’intelligenza artificiale è in qualche modo simile. È già parzialmente uscita dalla bottiglia”.

buffet

Non tutti i commenti di Buffett erano cauti.

“Ovviamente l’intelligenza artificiale ha anche il potenziale per cose buone”, ha detto, aggiungendo che “penso, come qualcuno che non ne capisce niente, che abbia un enorme potenziale di bene e un enorme potenziale di danno”.

Dopo il debutto di ChatGPT di OpenAI nel novembre 2022, l’intelligenza artificiale, e in special modo quella generativa legata a chatbot e piattaforme di dialogo, ha scatenato un vero e proprio fervore nell’ambiente tech. Produttori di microprocessori per IA come Nvidia e fornitori di server dedicati all’IA come Super Micro Computer hanno registrato un incremento esponenziale nel loro valore di mercato. Contemporaneamente, colossi come Microsoft e Alphabet sono riconosciuti come i pionieri dominanti nel settore dell’intelligenza artificiale.

Abu Dhabi Autonomous Racing League – A2RL

La prima gara della Abu Dhabi Autonomous Racing League (A2RL) si è svolta il 27 Aprile sul circuito di Yas Marina Abu Dhabi, quello utilizzato per il Gran Premio di Formula 1, e siamo lieti di riferire che una gara sia iniziata e terminata.

Questa pionieristica serie di corse autonome è una novità per il 2024 e mette otto squadre l’una contro l’altra su auto Super Formula SF23 modificate. Questa nuova gara annuale, che mira a testare la tecnologia per il futuro dei trasporti, vede la partecipazione di team provenienti da Emirati Arabi Uniti, Cina, Singapore, Germania, Ungheria, Italia e Stati Uniti.

Hanno tutti la stessa auto per iniziare: un telaio costruito da Dallara, alimentato da un motore turbo Honda da 2,0 litri da 550 cavalli con un cambio a sei rapporti che puo spingere la macchina a 185 miglia all’ora. Una versione modificata delle vetture da 297 km/h della Super Formula giapponese, ora denominata EVA24, che funge da base per gli otto team. ll suo corpo include compositi sostenibili. Miscela di carbonio e lino e fibra di carbonio proveniente dall’azienda svizzera Bcomp. Nella parte anteriore e posteriore sospensioni pushrod all’avanguardia e ammortizzatori adattivi.

Nel cuore della A2RL uno stack autonomo: una combinazione di sensori, attuatori, computer, telecamere panoramiche e tecnologia LiDAR che lavorano sinergicamente per percepire la pista e tutto ciò che la circonda. Questa fusione tecnologica non mira solo a percorrere la pista il più velocemente possibile in sicurezza, ma anche a superare la concorrenza.

Tutte le auto sono costruite secondo specifiche standard, quindi l’hardware è uniforme tra i concorrenti. È il software creato dai team che fa la differenza. I team sono incaricati di sviluppare algoritmi che sfruttino al meglio le capacità dell’hardware. Questi algoritmi permettono al controller, al LiDAR e al pianificatore dell’auto di muoversi, osservare e decidere con precisione, con l’obiettivo di superare gli avversari.

Lawrence Walter, capo del team americano Code19, sottolinea l’importanza di avere un team di talento: “Code19 è guidato dai nostri ingegneri di gara altamente qualificati e diversificati. Sono stati accuratamente selezionati dall’industria e dall’ambiente accademico per competere ad Abu Dhabi e vincere il montepremi di 2,25 milioni di dollari“.

Oltre a offrire spettacolo, l’obiettivo della A2RL è applicare le lezioni apprese in pista a settori come la sicurezza automobilistica, la logistica e l’aviazione. Il concorso, sostenuto da anni di impegno e dalla passione per l’innovazione, ha attirato l’attenzione di importanti partner come ADNOC. La storia della A2RL è appena iniziata e promette di essere emozionante, con le auto veloci e le menti brillanti dietro di loro. Per la prima volta, le auto autonome competono a livello globale, affrontando sfide reali e pubbliche per contribuire allo sviluppo della tecnologia che un giorno farà parte della vita di tutti noi.

Tuttavia, l’evento non è stato privo di difficoltà, anzi. Durante le prove di qualificazione, le monoposto Dallara Super Formula senza pilota, equipaggiate con telecamere e software, sembravano faticare non poco nel completare un giro completo.

Quando è arrivato il momento della vera e propria gara, la monoposto in testa, Polimove, ha fatto un testacoda al quarto degli otto giri. La seconda vettura, Tum, l’ha superata senza problemi, ma poco dopo i commissari dell’evento hanno mostrato una bandiera gialla. E poiché questi piloti AI rispettano le regole, le due vetture dietro Polimove si sono fermate, rifiutandosi di superare la monoposto gialla ferma. Durante il giro di prova, vedi, i piloti non devono superarsi a vicenda.

Un’ora dopo il primo giro della A2RL, le monoposto autonome hanno completato la loro gara di otto giri. Tum ha vinto.

Questi sono i primi giorni delle corse autonome, e sicuramente le cose miglioreranno col tempo -certamente, hanno fatto molta strada dall’esordio completo di Roborace nel 2017. Non vediamo l’ora che arrivi il giorno in cui saranno così bravi quanto i piloti umani (se mai succederà).

Guarda il primo vero evento della nuova serie A2RL, la Abu Dhabi Autonomous Racing League,

Microsoft vieta alla polizia di utilizzare L’ intelligenza artificiale per il riconoscimento facciale

Microsoft ha riaffermato il divieto ai dipartimenti di polizia statunitensi di utilizzare l’intelligenza artificiale generativa per il riconoscimento facciale attraverso il servizio Azure OpenAI, Non si tratta di un divieto generale per i dipartimenti di polizia di utilizzare il servizio. 

Mercoledì scorso, i termini di servizio per Azure OpenAI di Microsoft sono stati aggiornati per vietare più chiaramente l’uso del servizio “da o per” i dipartimenti di polizia negli Stati Uniti per il riconoscimento facciale, incluso l’uso con l’attuale e futura analisi delle immagini di OpenAI Models. Inoltre, è stato aggiunto un nuovo punto che vieta l’uso della tecnologia di riconoscimento facciale in tempo reale sulle telecamere mobili, come le body cam e le dashcam, per tentare di identificare una persona in ambienti non controllati.

Questi cambiamenti arrivano dopo che Axon, produttore di prodotti tecnologici e di armi per militari e forze dell’ordine, ha annunciato un nuovo prodotto che utilizza il modello di testo generativo GPT-4 di OpenAI per riassumere l’audio dalle telecamere del corpo. Tuttavia, non è chiaro se Axon utilizzi GPT-4 tramite il servizio Azure OpenAI e se la politica aggiornata sia una risposta al lancio del prodotto Axon.

I nuovi termini lasciano ancora spazio a Microsoft, poiché il divieto totale di utilizzo del servizio Azure OpenAI riguarda solo la polizia statunitense e non quella internazionale. Inoltre, non copre il riconoscimento facciale effettuato con telecamere fisse in ambienti controllati, come un back office.

Questo approccio è in linea con quello recente di Microsoft e del suo stretto partner OpenAI nei confronti delle forze dell’ordine e dei contratti di difesa legati all’intelligenza artificiale. Ad esempio, OpenAI sta lavorando con il Pentagono Darpa su una serie di progetti che includono capacità di sicurezza informatica, mentre Microsoft ha lanciato l’utilizzo dello strumento di generazione di immagini di OpenAI, DALL-E, per aiutare il Dipartimento della Difesa a creare software per eseguire operazioni militari.

Azure OpenAI è ora disponibile nel prodotto Azure Government di Microsoft, aggiungendo ulteriori funzionalità di conformità e gestione rivolte agli enti governativi, comprese le forze dell’ordine. Candice Ling, vicepresidente senior della divisione governativa di Microsoft, Microsoft Federal, ha promesso che il servizio Azure OpenAI sarà “inviato per un’ulteriore autorizzazione” al Dipartimento della Difesa per i carichi di lavoro che supportano le missioni del Dipartimento.

Intervista a Chiara Mugnai sull’AI e il suo ruolo in Eoliann

LE INTERVISTE DI WOMEN IN AI – Chiara Mugnai, un viaggio tra la resilienza climatica, l’Intelligenza Artificiale e verso il cambiamento che genera valore.

Chiara Mugnai ha una laurea magistrale in Ingegneria Bionica e lavora da 6 anni nel campo dell’intelligenza artificiale. Attualmente è co-fondatrice e Chief Data Scientist (CDS) di Eoliann, una startup italiana che, utilizzando l’intelligenza artificiale applicata ai dati satellitari, aiuta le aziende ad adattarsi al cambiamento climatico fornendo probabilità e impatto degli eventi estremi.

Il ruolo di Chiara in Eoliann è fondamentale nel plasmare la direzione e l’impatto tecnologico dell’azienda.

Chiamata sugli utili del primo trimestre di Amazon: ecco cosa hanno da dire il CEO Andy Jassy e il CFO Brian Olsavsky

Amazon sta puntando tutto sull’intelligenza artificiale generativa e sul cloud computing, con l’obiettivo di focalizzare la maggior parte delle spese in conto capitale future sullo sviluppo dell’intelligenza artificiale. Durante la dichiarazione degli utili dell’azienda successiva alla pubblicazione dei risultati del primo trimestre, il CEO Andy Jassy e il CFO Brian Olsavsky hanno dedicato molto tempo ai piani dell’azienda per l’intelligenza artificiale e all’aspettativa di aumentare “significativamente” la spesa per la tecnologia.

Per ulteriori informazioni sugli utili del primo trimestre , comprese le osservazioni del CEO Andy Jassy e del CFO Brian Olsavsky, consulta i punti salienti del comunicato stampa e la registrazione webcast completa .

Il business dell’intelligenza artificiale generativa rappresenta ora un “business con ricavi multimiliardari per Amazon”, secondo Olsavsky, mentre si prevede che AWS crescerà fino a 100 miliardi di dollari di entrate annualizzate. L’unità ha generato un profitto di 9,42 miliardi di dollari nel primo trimestre con un margine operativo del 37,6%.

Jassy ha sottolineato che l‘85% o più della spesa IT globale rimane on-premise, il che rappresenta una grande opportunità per l’azienda di espandersi ulteriormente nel settore del cloud computing. Inoltre, la maggior parte dell’intelligenza artificiale generativa verrà creata nei prossimi 10-20 anni da zero e sul cloud, il che rappresenta un’ulteriore opportunità per Amazon.

Per quanto riguarda le altre attività, Jassy ha osservato che i nuovi investimenti come negozi internazionali, offerte di attività logistiche di terze parti come l’acquisto con Prime, la spedizione di Amazon e l’adempimento multicanale continuano a mostrare una crescita promettente. La società ha anche affermato che stava lanciando un concetto di mercato Whole Foods più piccolo a Manhattan chiamato Whole Foods Market Daily Shop.

Il settore pubblicitario ha visto le vendite aumentare di un impressionante 24% anno su anno, grazie ai prodotti sponsorizzati e supportato da continui miglioramenti nella pertinenza e nelle capacità di misurazione per gli inserzionisti. Jassy ha affermato che l’azienda vede ancora significative opportunità future nei prodotti sponsorizzati, nonché in aree in cui ha appena iniziato, come Prime Video Ads. Anche se è presto per gli spot televisivi in streaming, Jassy è incoraggiato dalla risposta anticipata.

Esempi di come Amazon stia utilizzando l’intelligenza artificiale generativa includono l’uso di algoritmi di apprendimento automatico per migliorare la pertinenza delle raccomandazioni dei prodotti, l’ottimizzazione dei prezzi e la prevenzione delle frodi. Inoltre, l’azienda sta utilizzando l’intelligenza artificiale per migliorare l’efficienza delle sue operazioni logistiche, come l’ottimizzazione dei percorsi di consegna e la gestione dell’inventario.

Secondo un rapporto di MarketsandMarkets, il mercato dell’intelligenza artificiale generativa dovrebbe raggiungere i 117,6 miliardi di dollari entro il 2026, con un tasso di crescita annuale composto del 33,2% durante il periodo di previsione. Ciò dimostra l’enorme potenziale di questo settore e la ragione per cui Amazon sta investendo così tanto in esso.

Apple il piu’ grande buyback della storia

Apple Inc. ha annunciato uno storico riacquisto di azioni proprie per 110 miliardi di dollari, il più grande mai effettuato negli Stati Uniti fino ad oggi.

Ciò avviene dopo che la società ha annunciato un rapporto sugli utili migliore del previsto e una migliore domanda e performance in Cina.

Apple ha registrato un calo del 4% delle sue entrate in un contesto di crescita moderata nelle sue categorie hardware, in particolare nella categoria iPhone. Tuttavia, il calo della base dei ricavi, è stato compensato con un importo record di ricavi creati nella categoria Servizi, che ha ulteriormente contribuito a diversificare i flussi di entrate di Apple.

Apple ha registrato ricavi totali nel primo trimestre pari a 90,7 miliardi di dollari, il che implica un calo dei ricavi del 4% su base annua. Il declino è stato il segmento iPhone, con i ricavi diminuire di quasi l’11% su base annua e raggiungere i 46,0 miliardi di dollari. IDC ha recentemente previsto che le spedizioni di dispositivi potrebbero essere fissate per una crescita del 2,0% nell’anno fiscale 2024, il che potrebbe essere un catalizzatore positivo per il business hardware in difficoltà di Apple.

Apple ha generato ricavi per servizi per 23,9 miliardi di dollari nel secondo trimestre fiscale, con una crescita del 14% su base annua. I servizi sono una componente importante dei ricavi di Apple. I servizi consolidano tutte le attività all’interno di Apple che non sono legate all’hardware, come Apple TV+, Apple Music, Apple Arcade e iCloud. Nell’anno fiscale 2023, il business dei servizi Apple ha rappresentato il 22% dei ricavi. Nel FQ2’24, questa percentuale è salita al 25%.

Questa notizia si è diffusa tra i titoli tecnologici, in vista del rapporto sull’occupazione statunitense, che è risultato inferiore alle attese. Gli Stati Uniti hanno aggiunto 175.000 posti di lavoro ad aprile. Il consenso è stimato a 240.000.

Il fondo per il settore tecnologico selezionato è cresciuto dell’1,44% rispetto a ieri e di circa il 2,38% da inizio anno.

Anche l’indice S&P 500 oggi è cresciuto di meno dell’1% e il Nasdaq 100 è cresciuto dell’1,27%. Entrambi hanno chiuso in rialzo per la prima volta in tre sessioni di negoziazione.

SK Hynix: esaurita la capacità produttiva di chip 2024 e 2025 per l’AI

Il produttore di chip sudcoreano SK Hynix ha affermato che i suoi chip di memoria a larghezza di banda elevata utilizzati per i chipset AI sono stati esauriti quest’anno e quasi al completo per il prossimo anno, in mezzo alla domanda di semiconduttori necessari per sviluppare servizi AI, ha riferito Reuters.

Il fornitore di Nvidia inizierà a inviare campioni della sua ultima memoria a larghezza di banda elevata, o HBM, chip noto come HBM3E a 12 strati a maggio e avvierà la produzione di massa nel terzo trimestre, aggiunge il rapporto .

Si prevede che il mercato HBM continuerà a crescere con l’aumento delle dimensioni dei dati e dei modelli di intelligenza artificiale, ha affermato Kwak Noh-Jung, CEO di SK Hynix, in una conferenza stampa. Si prevede inoltre che la crescita annuale della domanda sarà di circa il 60% nel medio e lungo termine.

SK Hynix, che ha rivali come Samsung Electronics e Micron Technology nell’arena HBM, era l’unico fornitore di chip HBM a Nvidia fino a marzo, osserva il rapporto.

Micron ha anche notato che i suoi chip HBM erano esauriti per quest’anno e che la maggior parte della fornitura per il prossimo anno era già prenotata. L’azienda prevede di fornire ai clienti campioni dei suoi chip HBM3E a 12 strati a marzo.

All’inizio di questa settimana, Samsung ha dichiarato che prevede di produrre in serie i prodotti HBM3E 12H entro il secondo trimestre.

Il mese scorso, SK Hynix ha dichiarato che avrebbe investito circa 5,3 trilioni di won (3,86 miliardi di dollari) per costruire una fabbrica M15X a Cheongju, nella provincia di North Chungcheong, in Corea del Sud.

L’azienda prevede di espandere la capacità produttiva dei chip di memoria ad accesso casuale dinamico, o DRAM, di prossima generazione, includendo la HBM. A marzo, è stato riferito che la società intende investire circa 4 miliardi di dollari per creare un impianto avanzato di confezionamento di chip a West Lafayette, Indiana in America.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

Firefly Image 3 Model, su Photoshop

Adobe ha dichiarato l’altra settiamana (23 Aprile) che porterà il suo ultimo modello di imaging, Firefly Image 3 Model, su Photoshop.

l nuovo modello consentirà al popolare programma software di fotoritocco di incorporare Generative Fill with Reference Image, che consente agli utenti di aggiungere e rimuovere contenuti tramite messaggi di testo grazie a Firefly. Firefly Image 3 Model migliora la qualità fotorealistica e consente agli utenti di modificare meglio gli oggetti, inclusi più stili e una migliore precisione, ha affermato Adobe.

Photoshop sta inoltre convertendo il testo in immagine tramite la nuova funzione Genera immagine, consentendo agli utenti di ridurre i tempi di creazione del contenuto.

Firefly, il modello di intelligenza artificiale generativa di Adobe introdotto lo scorso ottobre , è stato utilizzato per creare più di 7 miliardi di immagini, ha affermato la società.

Il flusso costante di innovazioni di Adobe nel campo dell’intelligenza artificiale generativa sta stimolando la domanda di tutta la community creativa, dagli studenti ai professionisti della creatività e alle aziende Fortune 500“, ha dichiarato David Wadhwani, presidente del Digital Media Business di Adobe. “Con l’ultima versione di Photoshop, il nuovo modello Firefly Image 3 e il recente lancio delle applicazioni mobili Express, stiamo portando la potenza dell’intelligenza artificiale ai creator quando e dove ne hanno bisogno“.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

OpenBioLLM-8B LLM per il dominio biomedico

OpenBioLLM-8B è un modello di linguaggio avanzato open source progettato specificamente per il dominio biomedico. Sviluppato da Saama AI Labs, questo modello utilizza tecniche all’avanguardia per raggiungere prestazioni all’avanguardia in una vasta gamma di compiti biomedici.

Specializzazione biomedica: OpenBioLLM-8B è adattato alle esigenze linguistiche e di conoscenza uniche dei campi medici e delle scienze della vita. È stato sottoposto a fine-tuning su un vasto corpus di dati biomedici di alta qualità, consentendogli di comprendere e generare testi con precisione e fluidità specifiche del dominio.

Prestazioni superiori: con 8 miliardi di parametri, OpenBioLLM-8B supera gli altri modelli di linguaggio biomedico open source di scale simili. Ha anche dimostrato risultati migliori rispetto a modelli proprietari e open source più grandi come GPT-3.5 e Meditron-70B nei benchmark biomedici.

Tecniche di formazione avanzate: OpenBioLLM-8B si basa sulle potenti basi dei modelli Meta-Llama-3-8B e Meta-Llama-3-8B. Incorpora il set di dati DPO e la ricetta di fine-tuning, nonché un set di dati di istruzioni mediche personalizzato e diversificato. I componenti chiave del pipeline di formazione includono:

Ottimizzazione delle politiche: Ottimizzazione diretta delle preferenze (DPO) Set di dati di classificazione: berkeley-nest / Nectar Set di dati di fine-tuning: set di dati di istruzioni mediche personalizzato (abbiamo in programma di rilasciare un set di dati di formazione di esempio nel nostro prossimo articolo; resta aggiornato) Questa combinazione di tecniche all’avanguardia consente a OpenBioLLM-8B di allinearsi alle capacità e alle preferenze chiave per le applicazioni biomediche.

Open Medical-LLM Leaderboard

La classifica Open Medical LLM mira a tracciare, classificare e valutare le prestazioni dei modelli linguistici di grandi dimensioni (LLM) nelle attività di risposta alle domande mediche. Valuta gli LLM in una vasta gamma di set di dati medici, tra cui MedQA (USMLE), PubMedQA, MedMCQA e sottoinsiemi di MMLU relativi alla medicina e alla biologia. La classifica offre una valutazione completa delle conoscenze mediche e delle capacità di risposta alle domande di ciascun modello


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

Med-Gemini

Google afferma che i suoi modelli sanitari AI Med-Gemini battono GPT-4

Google e DeepMind hanno pubblicato lunedì un documento che descrive Med-Gemini, un gruppo di modelli di intelligenza artificiale avanzati destinati ad applicazioni sanitarie.

Il documento descrive Med-Gemini, una famiglia di modelli multimodali altamente capaci specializzati in medicina, basati sulle solide capacità di Gemini in ragionamento multimodale e a lungo contesto.

Med-Gemini è in grado di utilizzare la ricerca sul web in modo fluido e può essere adattato in modo efficiente a nuove modalità utilizzando encoder personalizzati. Il testo riporta i risultati dell’evaluazione di Med-Gemini su 14 benchmark medici, stabilendo nuovi record di performance in 10 di essi e superando la famiglia di modelli GPT-4 in ogni benchmark dove è possibile un confronto diretto, spesso con un ampio margine.

Il miglior modello Med-Gemini ha raggiunto una precisione del 91,1% sul popolare benchmark MedQA (USMLE), utilizzando una strategia di ricerca guidata dall’incertezza. Inoltre, Med-Gemini ha migliorato le prestazioni di GPT-4V su 7 benchmark multimodali, tra cui NEJM Image Challenges e MMMU (salute e medicina), con un margine medio relativo del 44,5%.

Le capacità di lungo contesto di Med-Gemini sono state dimostrate attraverso prestazioni di ricerca needle-in-a-haystack da lunghe cartelle cliniche de-identificate e question answering su video medici, superando i metodi precedenti che utilizzano solo l’apprendimento in-context.

Med-Gemini ha superato gli esperti umani in compiti come la sintesi di testi medici, dimostrando anche un potenziale promettente per il dialogo medico multimodale, la ricerca e l’educazione. Tuttavia, ulteriori valutazioni rigorose saranno cruciali prima di un’effettiva implementazione nel mondo reale in questo dominio critico per la sicurezza.

Med-Gemini ha fatto un notevole passo avanti nell’abilità di catturare contesto e temporalità, superando una delle maggiori sfide nell’addestramento degli algoritmi medici. A differenza degli attuali modelli di intelligenza artificiale relativa alla salute, Med-Gemini è in grado di comprendere il contesto e il contesto dei sintomi, nonché i tempi e la sequenza della loro insorgenza. Questa capacità è fondamentale per differenziare malattie lievi da quelle potenzialmente pericolose per la vita.

Per raggiungere questo obiettivo, gli sviluppatori di Google hanno adottato un approccio verticale per verticale, creando una “famiglia” di modelli, ciascuno dei quali ottimizza uno specifico dominio o scenario medico. Questo approccio ha portato a una precisione migliore e più sfumata, nonché a un ragionamento più trasparente e interpretabile.

Inoltre, Med-Gemini incorpora un livello aggiuntivo: una ricerca basata sul web di informazioni aggiornate. Questa funzionalità consente l’integrazione dei dati con conoscenze esterne, integrando i risultati online nel modello. Ciò garantisce che Med-Gemini sia sempre allo stesso standard dei medici, che si aspettano di tenersi al passo con le ricerche recenti.

Med-Gemini rappresenta un significativo passo avanti nell’abilità di catturare contesto e temporalità, superando le sfide contestuali nell’addestramento degli algoritmi medici. L’approccio verticale per verticale e l’integrazione di una ricerca basata sul web di informazioni aggiornate hanno portato a una precisione e un ragionamento migliori e più trasparenti.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

Huawei paga il blocco degli Stati Uniti, ma rilancia sulla ricerca

  • Il produttore cinese di telecomunicazioni è l’unico finanziatore della concorrenza nel settore dell’ottica
  • Il ruolo dell’azienda inserita nella lista nera è mantenuto privato dal gruppo con sede a Washington

Huawei Technologies sta finanziando segretamente la ricerca nelle università americane, tra cui Harvard, tramite una fondazione indipendente con sede a Washington, ha riferito Bloomberg News.

Il colosso tecnologico cinese è l’unico finanziatore di un concorso di ricerca che ha assegnato milioni di dollari sin dal suo inizio nel 2022. Il concorso ha sollecitato centinaia di proposte da scienziati di tutto il mondo, comprese le migliori università statunitensi, che hanno vietato ai loro ricercatori di lavorare con il società, aggiunge il rapporto , citando documenti e persone a conoscenza della questione.

Il concorso è supervisionato dalla Fondazione Optica, parte della società professionale senza scopo di lucro Optica. La ricerca presso Optica si concentra sulla scienza della luce, come le comunicazioni, la diagnostica biomedica e i laser, osserva il rapporto.

La fondazione “non sarà tenuta a designare Huawei come fonte di finanziamento o sponsor del programma” del concorso, aggiunge il rapporto, citando un documento non pubblico. Anche il contenuto dell’accordo e il rapporto tra le parti devono essere considerati informazioni riservate, come da documento.

L’amministratore delegato di Optica, Liz Rogan, ha affermato che la donazione di Huawei è stata esaminata da un consulente legale esterno e ha ricevuto l’approvazione dal consiglio di amministrazione della fondazione, secondo il rapporto.

Il nome di Huawei è stato mantenuto privato per evitare che il concorso venisse visto come promozionale e che non vi fossero cattive intenzioni, ha affermato un portavoce di Huawei secondo il rapporto.

I candidati, i funzionari universitari e uno dei giudici del concorso contattati dalla casa dei media hanno notato di non essere a conoscenza del ruolo di Huawei nel finanziamento del concorso.

Il rapporto annuale 2023 della Optica Foundation menziona Huawei nell’elenco dei donatori che hanno contribuito con oltre 1 milione di dollari dal momento della fondazione dell’organizzazione. Nel frattempo, Google e Meta Platforms , unità di Alphabet, sono tra quelle che hanno donato oltre 200.000 dollari.

L’accordo di finanziamento della fondazione probabilmente non viola le regole del Dipartimento del Commercio degli Stati Uniti che impediscono a persone e aziende di condividere la tecnologia con Huawei. Tuttavia, se Huawei fosse soggetta alle restrizioni del Dipartimento del Tesoro, l’attività potrebbe essere illegale, aggiunge il rapporto, citando Kevin Wolf, un partner di Akin, specializzato in controlli sulle esportazioni.

Oracle presenta un database vettoriale che integra l’AI generativa 

Oracle ha annunciato giovedì che la sua tecnologia di database per l’intelligenza artificiale, Database23ai, è ora “generalmente disponibile” per gli sviluppatori.

La disponibilità della nuova tecnologia consentirà di trovare chatbot e altri software di intelligenza artificiale in modo più semplice utilizzando AI Vector Search di Oracle.

“Le nuove funzionalità AI Vector Search consentono ai clienti di combinare in modo sicuro la ricerca di documenti, immagini e altri dati non strutturati con la ricerca di dati aziendali privati, senza spostarli o duplicarli”, ha affermato la società in una nota .

Oracle

“Oracle Database 23ai porta gli algoritmi AI dove risiedono i dati, invece di dover spostare i dati dove risiedono gli algoritmi AI. Ciò consente all’IA di funzionare in tempo reale nei database Oracle e migliora notevolmente l’efficacia, l’efficienza e la sicurezza dell’intelligenza artificiale.”

Oracle

Il dirigente di Oracle Juan Loaiza lo ha definito un “punto di svolta” per le imprese, aggiungendo che aumenterà la produttività.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

La preoccupazione di Microsoft per il vantaggio di Google ha spinto gli investimenti in OpenAI

Microsoft ha deciso di investire e collaborare con OpenAI, potenzialmente a causa della sensazione di restare indietro rispetto a Google di Alphabet ha riferito Bloomberg News, citando un’e-mail interna rilasciata nell’ambito del progetto del Dipartimento di Giustizia degli Stati Uniti caso antitrust contro Google.

Kevin Scott, Chief Technology Officer di Microsoft, era preoccupato quando ha esaminato i “divari di capacità” di formazione del modello di intelligenza artificiale tra Google e Microsoft, secondo un’e -mail di giugno 2019 che ha scritto al CEO Satya Nadella e al co-fondatore Bill Gates.

Lo scambio suggerisce che il dirigente ha riconosciuto in privato che mancavano l’infrastruttura e la velocità di sviluppo per raggiungere OpenAI –il creatore del chatbot ChatGPT e DeepMind di Google.

Scott ha scritto nell’e-mail: “siamo diversi anni indietro rispetto alla concorrenza in termini di scala ML [machine learning]”.

Nadella aveva approvato l’e-mail di Scott e l’aveva anche inoltrata al direttore finanziario Amy Hood, dicendo “un’ottima e-mail che spiega perché voglio che lo facciamo… e anche perché poi garantiremo che i nostri addetti all’infrastruttura vengano eseguiti”.

L’e-mail è stata pubblicata martedì scorso dopo che i media, tra cui il New York Times e Bloomberg, sono intervenuti nel caso antitrust e hanno chiesto un maggiore accesso pubblico, osserva il rapporto .

Il Dipartimento di Giustizia degli Stati Uniti aveva notato che ChatGPT di OpenAI e altre innovazioni avrebbero potuto essere rilasciate anni fa se Google non avesse monopolizzato il mercato della ricerca, aggiunge il rapporto.

La settimana scorsa, il giudice Amit Mehta ha ordinato alle società di fornire una versione redatta, poiché le informazioni “fanno luce sulla difesa di Google riguardo agli investimenti relativi di Google e Microsoft nella ricerca”, osserva il rapporto.

Giovedì e venerdì, Google e il Dipartimento di Giustizia dovrebbero presentare le argomentazioni conclusive del caso. Secondo il rapporto, si prevede che il giudice Mehta prenderà una decisione entro la fine dell’anno.

Microsoft alimenterà i data center con l’accordo sulle rinnovabili di Brookfield

Brookfield Asset Management ha dichiarato mercoledì che svilupperà per Microsoftpiù di 10,5 GW di nuova capacità di energia rinnovabile , quasi 8 volte più grande del più grande accordo di acquisto di energia aziendale mai firmato; i termini finanziari non sono stati resi noti.

Brookfield ha affermato che il “primo accordo quadro globale nel suo genere” della durata di cinque anni, a partire dal 2026 negli Stati Uniti e in Europa, accelererà l’espansione della capacità di energia rinnovabile per contribuire agli obiettivi di sostenibilità di Microsoft con il potenziale per fornire ulteriore capacità rinnovabile agli Stati Uniti e all’Europa, nonché all’Asia-Pacifico, all’India e all’America Latina.

Le società non hanno rivelato i termini finanziari dell’accordo, ma il Financial Times ha affermato che i 10,5 GW di nuova capacità – sufficienti per alimentare circa 1,8 milioni di case – costerebbero più di 10 miliardi di dollari , sulla base delle recenti tendenze del settore.

L’accordo arriva quando il crescente interesse per l’intelligenza artificiale generativa ha causato preoccupazioni sulla loro intensa domanda di energia e sulle emissioni di carbonio associate.

First Solar ha dichiarato mercoledì di aver firmato un accordo per la fornitura di 457 MW di moduli solari a film sottile, inclusi 170 MW di moduli bifacciali Serie 6 Plus e 287 MW di moduli Serie 7, alla spin-out MN8 Energy di Goldman Sachs Renewable Power; I dettagli finanziari non sono stati divulgati.

Annunci recentemente pubblicati :

Satya Nadella, CEO di Microsoft, ha annunciato che il colosso tecnologico investirà 2,2 miliardi di dollari nei prossimi quattro anni nella nuova infrastruttura cloud e AI della Malesia e nella creazione di un centro nazionale di intelligenza artificiale, segnando il più grande investimento di Microsoft in Malesia.

L’annuncio arriva subito dopo che Microsoft ha dichiarato che costruirà un data center in Tailandia e ha annunciato un investimento di 1,7 miliardi di dollari in servizi cloud e AI in Indonesia .

Il mese scorso, Microsoft ha anche svelato un investimento di 2,9 miliardi di dollari in Giappone e 1,5 miliardi di dollari in G42, un’azienda di intelligenza artificiale con sede ad Abu Dhabi .

Cercasi frontalieri per AI

Google ha inviato una lettera al Dipartimento del Lavoro Americano affermando che un elenco di lavori considerati scarsi deve includere l’intelligenza artificiale, ha riferito The Verge.

Gli Stati Uniti secondo Google potrebbero perdere preziosi talenti tecnologici e di intelligenza artificiale se alcune delle politiche di immigrazione non fossero modernizzate, aggiunge il rapporto .

Google ha affermato che politiche come la Schedule A, un elenco di lavori che il governo degli Stati Uniti ha “pre-certificato” come non dotati di lavoratori americani adeguati, dovrebbero essere più flessibili per soddisfare la domanda di tecnologie come l’intelligenza artificiale e la sicurezza informatica.

Google ha aggiunto che gli Stati Uniti devono rivedere l’Allegato A per includere l’intelligenza artificiale e la sicurezza informatica e farlo con maggiore regolarità.

Gli Stati Uniti hanno un ampio bacino di talenti nel campo dell’intelligenza artificiale, tuttavia, secondo Karan Bhatia, capo degli affari governativi e delle politiche pubbliche di Google, nel paese c’è carenza di specialisti di intelligenza artificiale. Ma le dure politiche di immigrazione degli Stati Uniti hanno reso difficile attirare le persone a lavorare nelle aziende statunitensi per costruire piattaforme di intelligenza artificiale, aggiunge il rapporto, citando Bhatia.

Anthropic svela l’app iOS

Anthropic ha dichiarato mercoledì che lancerà un’app iOS e anche nche un nuovo piano pensato per condividere l’accesso ai suoi modelli IA.

L’ app Claude per iOS sarà disponibile gratuitamente per il download e offrirà la stessa esperienza vista sul Web mobile, inclusa la sincronizzazione della cronologia chat e il supporto per scattare e caricare foto, ha affermato Anthropic in un post sul blog .

Prima del lancio dell’app iOS, Claude era disponibile solo su Claude.ai e servizi cloud come Amazon Bedrock , Microsoft Azure e altri.

In confronto, ChatGPT, creata da OpenAI sostenuta da Microsoft, ha lanciato la sua app iOS nel maggio 2023. Un’app Android è stata lanciata a luglio. Google ha presentato le sue app Gemini iOS e Android a febbraio.

Oltre all’app iOS, Anthropic ha presentato un piano Team per le aziende, offrendo alle aziende l’accesso ai modelli Claude. È previsto un minimo di cinque posti, con un costo di $ 30 per posto al mese.

Anthropic ha presentato il suo primo livello a pagamento per Claude, il piano Pro, a settembre a $ 20 al mese.

Anthropic ha dichiarato che nelle prossime settimane rilascerà ulteriori funzionalità di collaborazione, tra cui citazioni da fonti affidabili per verificare le affermazioni generate dall’IA, integrazioni con archivi di dati come basi di codice o CRM e iterazione con i colleghi su documenti o progetti generati dall’IA.

A dicembre è stato riferito che Anthropic si aspettava un tasso di entrate annualizzate di oltre 850 milioni di dollari entro la fine del 2024.

Amazon ha rivelato a marzo di aver effettuato un ulteriore investimento di 2,75 miliardi di dollari in Anthropic, portando il suo investimento totale nella società a 4 miliardi di dollari. L’investimento darà ad Amazon una quota di minoranza in Anthropic ma senza un posto nel consiglio di amministrazione. Anthropic è stato valutato l’ultima volta a 18,4 miliardi di dollari, secondo la CNBC.

Amazon ha effettuato un investimento di 1,25 miliardi di dollari a settembre in Anthropic, con resoconti dei media che all’epoca affermavano che Amazon avrebbe potuto investire fino a 4 miliardi di dollari in Anthropic con sede a San Francisco.

Ho un debole per Gpt2

Un nuovo modello di intelligenza artificiale denominato “gpt2-chatbot” è apparso senza annuncio su LMSYS Chatbot Arena. Ha superato GPT-4 di OpenAI e Claude Opus di Anthropic nei compiti di ragionamento, codifica e matematica, sbalordendo i ricercatori con le sue capacità.

I primi resoconti del modello sono apparsi per la prima volta su 4chan, poi si sono diffusi su piattaforme di social media come X , seguito subito dopo dall’hype .

C’è una teoria tra gli sviluppatori che suggerisce che sia stata scoperta una nuova tecnica per addestrare modelli linguistici in modo più efficiente. Questo avrebbe portato alla creazione di un modello di dimensioni simili a GPT-2, ma con prestazioni pari a GPT-4. Il test di questo modello segreto potrebbe essere un preludio a qualcosa di più grande. Ci sono opinioni contrastanti sulla sua natura e sulle potenzialità, ma molti sono entusiasti delle possibilità rivoluzionarie che potrebbe portare.

Alcuni credono che un team lo abbia rilasciato per mostrare le capacità dell’intelligenza artificiale e generare buzz, simile a GPT-4chan nel 2022.

Presenta somiglianze con i modelli OpenAI; Si prevede che OpenAI si stia preparando per il rilascio del suo prossimo modello principale, GPT-5, quest’estate. Gpt2 si autoidentifica come creato da OpenAI; Il CEO di OpenAI Sam Altman ha twittato in modo criptico “Ho un debole per gpt2”. Potrebbe essere la prossima iterazione, deludente ma non sorprendente.

Microsoft ha reso nota la sua collaborazione con Sanctuary AI robot umanoide Phoenix

A fine febbraio, Microsoft ha condotto un imponente round di finanziamento di Serie B, raccogliendo 675 milioni di dollari nella Bay Area. Recentemente, il gigante tecnologico ha reso nota la sua collaborazione con Sanctuary AI, celebre per il suo robot umanoide Phoenix.

Questa sinergia punta al cuore dell’interesse di Microsoft: l’intelligenza artificiale generale, ovvero robot capaci di apprendere e ragionare all’umano. Questa evoluzione promette un notevole avanzamento nelle competenze robotiche, tradizionalmente circoscritte a compiti specifici.

Pagina 37 di 45

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie