OpenAI ha presentato CriticGPT, un nuovo modello di intelligenza artificiale basato su GPT-4 progettato per identificare errori nel codice generato da ChatGPT, segnando un passo significativo verso il miglioramento della precisione e dell’affidabilità degli output generati dall’intelligenza artificiale, ricorda il personaggio Grillo di Pinocchio, Jiminy Cricket.
Categoria: AI Pagina 12 di 14
L’ hub-per-una-copertura-completa-sullintelligenza-artificiale-e-lapprendimento-automatico
Il nuovo modello di intelligenza artificiale chiamato EMethylNET è in grado di rilevare 13 diversi tipi di cancro con una precisione del 98,2% utilizzando solo dati di metilazione del DNA da campioni di tessuto.[1] Questo modello di IA è stato sviluppato dai ricercatori dell’Università di Cambridge nel Regno Unito e potrebbe potenzialmente accelerare la diagnosi precoce, la diagnosi e il trattamento del cancro.
Intel ha presentato mercoledì il primo chiplet di interconnessione di calcolo ottico completamente integrato da utilizzare nell’intelligenza artificiale Il chiplet, noto come OCI, è assemblato con una CPU Intel e esegue dati in tempo reale.
La necessità di un Modello di Fondazione nella Previsione delle Serie Temporali
La previsione delle serie temporali gioca un ruolo cruciale in numerosi ambiti, dal piano della domanda nel retail e la previsione dei mercati finanziari fino alla meteorologia e alla gestione del traffico.
Indigo.ai è una startup italiana che si occupa di intelligenza artificiale (IA) e ha sviluppato una piattaforma per progettare assistenti virtuali, tecnologie di linguaggio e chatbot. La piattaforma “no-code” permette a chiunque in azienda di creare assistenti virtuali di ultima generazione, aumentando le vendite, migliorando la relazione con gli utenti e ottenendo insight sulla propria base clienti.
Leonardo AI, un potente generatore di immagini basato sull’intelligenza artificiale, ha recentemente lanciato un nuovo modello che promette di rivoluzionare la creazione di contenuti visivi. Questo strumento, noto per la sua versatilità e capacità di generare immagini di alta qualità, si è guadagnato una reputazione tra gli artisti e gli utenti di contenuti digitali.
La Trustworthy AI (TAI) è l’Intelligenza Artificiale sostenibile, affidabile, di cui ci si può fidare, che promuove il benessere degli esseri umani e dell’ambiente e rispetta i diritti umani fondamentali. È diventata una necessità sempre più urgente, poiché sulla fiducia si costruiscono le fondamenta delle società, delle economie e del loro sviluppo sostenibile.
L’intelligenza artificiale (AI) si concentra su elementi chiave come il ragionamento, la pianificazione e l’utilizzo di strumenti specifici, che sono essenziali per l’applicazione dell’AI in contesti complessi.
Una ricerca condotta da Tula Masterman (Neudesic) e colleghi ha evidenziato come gli agenti AI siano in grado di raggiungere obiettivi complessi.
Google DeepMind ha annunciato un modello di intelligenza artificiale chiamato V2A (video-to-audio) che può generare audio sincronizzato, compresi musica, effetti sonori e dialoghi, per input video. Questa tecnologia si propone di migliorare la realtà virtuale dei video generati da AI mediante la creazione di soundtrack appropriati direttamente dai pixel del video, senza bisogno di allineamento manuale o descrizioni di testo.
Generare Dati Sintetici con Nemotron-4 340B di NVIDIA
NVIDIA ha recentemente annunciato il rilascio di Nemotron-4 340B, una famiglia rivoluzionaria di modelli progettati per generare dati sintetici per l’addestramento di modelli di linguaggio su larga scala (LLM) in vari ambiti commerciali. Questo lancio rappresenta un importante passo avanti nell’intelligenza artificiale generativa, offrendo un insieme completo di strumenti ottimizzati per NVIDIA NeMo e NVIDIA TensorRT-LLM, inclusi modelli all’avanguardia per istruzioni e ricompense.
Luma AI (ne avevamo scritto recentemente) è una startup fondata nel 2021 con sede a San Francisco, che si concentra sulla creazione di tecnologia di intelligenza artificiale per generare contenuti 3D realistici da promemoria di testo o immagini. Il team di Luma AI è composto da esperti in campo di visione computerizzata, grafica e apprendimento automatico, con una visione condivisa di democratizzare la creazione di contenuti 3D attraverso l’IA. LUMA AI offre un’interfaccia intuitiva che consente agli utenti di creare contenuti 3D senza bisogno di formazione specializzata o attrezzature costose.
La ricerca recente sul campo dell’intelligenza artificiale (IA) ha visto un aumento significativo dell’attenzione verso l’utilizzo di modelli di linguaggio per compiti clinici.
Tuttavia, i dispositivi mobili e indossabili, come ad esempio dispositivi di monitoraggio della salute, forniscono dati longitudinali ricchi e personalizzati che possono essere utilizzati per monitorare la salute personale. In questo contesto, gli autori presentano il Personal Health Large Language Model (PH-LLM), un modello di linguaggio fine-tunato per comprendere e ragionare su dati di serie temporali numerici relativi alla salute personale.
Stability AI ha annunciato l’uscita di Stable Diffusion 3 (SD3), il generatore di immagini più potente e open-source disponibile attualmente. Questo modello di intelligenza artificiale (IA) è stato progettato per generare immagini realistiche e dettagliate da descrizioni testuali, superando i migliori generatori di immagini AI esistenti per capacità di realismo fotografico.
Apple sta sviluppando l’intelligenza artificiale con la sua nuova suite di funzionalità Apple Intelligence su iPhone, iPad e Mac. Alcune richieste, con il permesso dell’utente, saranno inviate a ChatGPT di OpenAI.
Un dirigente afferma che i servizi di intelligenza artificiale di Apple usano un modello “blockchain” per garantire la privacy.
Dopo la presentazione di Apple, il vicepresidente senior dell’ingegneria del software Craig Federighi e il vicepresidente senior della strategia di machine learning e intelligenza artificiale John Giannandrea hanno parlato alla stampa insieme a Justine “iJustine” Ezarik.
Alla domanda su come Apple protegge la privacy dei clienti, Federighi ha detto che le richieste inviate ai server Apple sono anonime, con IP mascherati e senza registrazione delle informazioni.
Inoltre, il software del server sarà pubblico per la verifica da parte di ricercatori indipendenti, e i dispositivi interagiranno solo con server verificabili. Apple Intelligence è il sistema di intelligenza personale che porta potenti modelli generativi su iPhone, iPad e Mac.
Per funzionalità avanzate, abbiamo creato Private Cloud Compute (PCC), un sistema di intelligenza cloud progettato per l’elaborazione AI privata.
Molte altre aziende cinesi, dai più grandi giganti della tecnologia a una miriade di start-up, hanno fatto passi avanti nei propri sforzi di sviluppo LLM. Alibaba Cloud ha rilasciato Qwen2, la seconda versione della sua famiglia di modelli linguistici Tongyi Qianwen open source, utilizzata in chatbot come ChatGPT di OpenAI.
Include aggiornamenti come pre-formazione multilingue e una finestra di contesto ampliata, permettendo domande e risposte più lunghe, posizionandosi tra i LLM open source più potenti al mondo, include Tongyi Qianwen LLM, il modello di visione AI Qwen-VL e Qwen-Audio.
DuckDuckGo, noto per il suo motore di ricerca e browser web incentrato sulla privacy, ha lanciato un nuovo servizio che permette agli utenti di interagire con chatbot AI in modo privato e anonimo.
Il servizio, chiamato DuckDuckGo AI Chat e accessibile su Duck.ai, è disponibile a livello globale.
Raspberry Pi Foundation. Il piccolo e conveniente Raspberry Pi ha creato una grande comunità di fai-da-te, che usa questi computer delle dimensioni di una carta di credito per vari scopi, dai media center ai nodi Bitcoin. Raspberry Pi è molto usato per insegnare ai bambini a costruire e programmare computer, oltre che per altri progetti.
Realizzato in collaborazione con lo sviluppatore di processori di intelligenza artificiale Hailo, il kit AI Raspberry Pi è ora disponibile per l’aggiornamento del Raspberry Pi 5 e viene venduto al prezzo di $70, come dichiarato dall’organizzazione di beneficenza britannica.
In un’era in cui la tecnologia ha rivoluzionato il modo in cui interagiamo gli uni con gli altri, il concetto di “mind network” è diventato sempre più rilevante. Questa innovativa idea prevede un sistema interconnesso a livello globale in cui gli individui possono condividere e scambiare pensieri, emozioni ed esperienze in modo fluido, superando barriere geografiche e linguistiche.
In questo articolo esploreremo il concetto di mind network, i suoi potenziali benefici e gli avanzamenti tecnologici che lo stanno rendendo una realtà.
Man mano che il campo dell’analisi finanziaria continua a evolversi, l’integrazione di modelli linguistici avanzati nel toolkit dei professionisti e dei ricercatori finanziari potrebbe portare a progressi significativi nella nostra comprensione delle prestazioni aziendali e dei driver dei rendimenti del mercato azionario.
Wav-KAN rappresenta un avanzamento significativo nel disegno di reti neurali interpretabili. La sua capacità di gestire dati ad alta dimensione e fornire spiegazioni chiare sul comportamento del modello la rende una strumento promettente per una vasta gamma di applicazioni, dalle ricerche scientifiche all’implementazione industriale.
Stanford University ha recentemente lanciato l’Indice di Transparenza dei Modelli Fondamentali, un’iniziativa volta a valutare la trasparenza di 10 aziende che sviluppano modelli fondamentali, come GPT-4 e Llama 3.
Nel campo dell’intelligenza artificiale, il fine-tuning di modelli come Mistral 7B è cruciale, specialmente per lingue non inglesi come l’italiano. Il dataset Alpaca (ITA) dimostra come i dati specifici possano adattare un modello alle particolarità di una lingua.
Mistral, ha silenziosamente rilasciato un significativo aggiornamento al suo modello LLM (Large Language Model).
Questo nuovo modello, Mistral 7B v0.3, non è censurato per impostazione predefinita e introduce numerosi miglioramenti rilevanti. Senza nemmeno un tweet o un post sul blog, il laboratorio francese di ricerca sull’intelligenza artificiale ha reso disponibile il modello sulla piattaforma HuggingFace. Come il suo predecessore, potrebbe rapidamente diventare la base per strumenti IA innovativi sviluppati da terze parti.
Il 21 maggio 2024, Anthropic ha annunciato un avanzamento significativo nella comprensione del funzionamento interno dei modelli di intelligenza artificiale (IA). La ricerca si è concentrata su Claude Sonnet, uno dei modelli di linguaggio di grandi dimensioni attualmente in uso. Questo studio rappresenta il primo sguardo dettagliato all’interno di un modello di linguaggio moderno e di grado produttivo, con potenziali implicazioni per la sicurezza e l’affidabilità dei modelli di IA.
Negli ultimi anni è nata la necessità di dover garantire che i sistemi basati sull’Intelligenza Artificiale siano in grado di evitare in maniera efficace eventuali comportamenti dannosi o pericolosi, soprattutto quando si parla di sistemi dotati di alta autonomia oppure per quelli impiegati in contesti
critici.
Secondo quanto riferito dal Wall Street Journal ., la FDA ha dato il via libera a Neuralink di Elon Musk per procedere con l’impianto del suo sistema di chip cerebrale in un secondo paziente.
In un’epoca in cui l’intelligenza artificiale sta rapidamente trasformando il modo in cui interaghiamo con la tecnologia, la Catholic Answers ha introdotto un’iniziativa innovativa: Justin.AI, un modello 3D supportato dall’IA per fornire risposte alle domande sulla fede cattolica.
Lanciato il 25 aprile 2024, Justin.AI ha suscitato un grande interesse nella comunità cattolica e non solo. Molti si sono affrettati a provare questo nuovo strumento, curiosi di vedere come un’intelligenza artificiale potrebbe affrontare questioni di fede complesse e delicate.
Durante la conferenza I/O della scorsa settimana, Google ha presentato una serie di promettenti prodotti di intelligenza artificiale generativa.
Tuttavia, alcuni creatori sono preoccupati che queste nuove funzionalità possano diminuire il traffico web, riducendo le visite organiche e le entrate pubblicitarie.
Google ha presentato martedì la sesta generazione dei suoi chip con unità di elaborazione tensor, notando un significativo miglioramento rispetto alla generazione precedente. I nuovi chip, denominati Trillium, saranno disponibili per i clienti cloud entro la fine dell’anno e offrono un miglioramento delle prestazioni quasi cinque volte (4,7 volte) rispetto al TPU v5e presentato lo scorso agosto.
L’ultimo “modello di punta” di OpenAI, GPT-4o, (o sta per omnimodel) non solo è più veloce di GPT-4, ma migliora anche le sue capacità per voce, testo e immagini, ha rivelato lunedì l’organizzazione no-profit sostenuta da Microsoft. GPT-4o Input $5/1M tokens. Output $15/1M tokens.
Il nuovo modello sarà disponibile gratuitamente per tutti gli utenti. Noi l’abbiamo provato su https://chat.lmsys.org/, in quanto non disponibile per il momento in italia se non con VPN. Questo modello è 2 volte più veloce e il 50% più economico del turbo GPT-4.
“Questa è la prima volta che facciamo un grande passo avanti in termini di facilità d’uso,” durante un live streaming lunedì. “La nostra missione è garantire a tutti i nostri strumenti avanzati di intelligenza artificiale.”
Mita Murati, chief technology officer di OpenAI
IBM ha recentemente scosso il mondo dell’intelligenza artificiale e dello sviluppo software rilasciando otto nuovi modelli di linguaggio di grandi dimensioni (LLM) specializzati nella generazione di codice. Questi modelli, disponibili in modalità base o istruzione, sono addestrati su un vasto set di dati di 116 linguaggi di programmazione e offrono un’ampia gamma di funzionalità, tra cui:
OpenAI, l’organizzazione di ricerca sull’intelligenza artificiale fondata da Elon Musk e Sam Altman, ha recentemente introdotto un nuovo standard chiamato “Model Spec” per documentare in modo chiaro e trasparente i modelli di AI. In un blog post intitolato “Introducing the Model Spec“, OpenAI delinea le motivazioni e i dettagli di questo nuovo framework, che mira a promuovere una maggiore comprensione e responsabilità nello sviluppo e nell’implementazione dei sistemi di AI.
Mentre i recenti generatori di immagini da testo come Google’s Imagen e OpenAI’s DALL-E hanno attirato molta attenzione, i ricercatori della Tsinghua University e della BAAI intendono fare un passo avanti proponendo un generatore di video da testo, chiamato CogVideo, che si dice sia in grado di superare di gran lunga tutti i modelli pubblicamente disponibili nelle valutazioni di macchina e umane. Diamo un’occhiata ad alcune demo qui sotto.
Il prompt engineering, o progettazione dei prompt, ha conquistato il mondo dell’IA generativa. Questo lavoro, consiste nell’ottimizzare l’input testuale per comunicare efficacemente con modelli linguistici di grandi dimensioni.
Il prompt engineering, in un mondo sempre più avvolto dall’ombra dell’intelligenza artificiale, è diventato un ponte cruciale tra l’ingegneria linguistica e l’autonomia creativa delle macchine. Questa disciplina, che si preoccupa di fornire input testuali mirati e ben strutturati alle IA, è stata vista come una chiave per sfruttare al massimo il loro potenziale. Tuttavia, come ogni fenomeno emergente nel vasto universo della tecnologia, il suo ruolo potrebbe subire profonde trasformazioni nel tempo.
Perplexity sta collaborando con SoundHound AI, leader globale nell’intelligenza artificiale vocale.
SoundHound Chat AI si è distinto come il pioniere degli assistenti vocali, essendo il primo a integrare tecnologie di intelligenza artificiale generativa. Inoltre, ha segnato la storia entrando per primo in produzione nell’ambito automobilistico. Grazie alla collaborazione con Stellantis, SoundHound Chat AI è attualmente operativo in oltre 12 paesi e disponibile in 18 lingue diverse.
Neuralink, l’innovativa azienda di neurotecnologia guidata da Elon Musk, ha recentemente divulgato che il proprio sistema di interfaccia cervello-computer (BCI) ha presentato malfunzionamenti alcune settimane dopo l’impianto in Noland Arbaugh, un giovane di 29 anni coinvolto in un grave incidente.
All’inizio dell’anno, nell’ambito dello studio PRIME autorizzato dalla FDA, Arbaugh ha ricevuto il dispositivo sperimentale, progettato per consentire a persone con disturbi neurologici di manovrare dispositivi elettronici mediante il pensiero.
Tuttavia, mercoledì la compagnia ha comunicato che alcuni elettrodi dell’impianto di Arbaugh sono usciti dalla loro posizione originaria poche settimane dopo l’operazione.
Questo problema ha causato un calo nel bit rate per secondo, una metrica fondamentale per valutare la performance della BCI secondo gli standard di Neuralink. La società ha poi adottato misure correttive, incluse ottimizzazioni dell’algoritmo di registrazione, che hanno portato a un netto e costante miglioramento della metrica, ora superiori ai risultati iniziali ottenuti da Arbaugh.
In futuro intendiamo estendere le funzionalità del Link al mondo fisico per consentire il controllo di bracci robotici, sedie a rotelle e altre tecnologie che potrebbero aiutare ad aumentare l’indipendenza delle persone che vivono con la tetraplegia.
Elon Musk, noto per essere alla guida di Tesla e SpaceX, ha espresso il suo entusiasmo per i progressi di Arbaugh lo scorso marzo, in seguito alla pubblicazione sui progressi fatti dal paziente, paralizzato dalla spalle in giù dopo un incidente nel 2016, che ha sperimentato per la prima volta il dispositivo attraverso la piattaforma X.
L’intelligenza artificiale (IA) sta trasformando il posto di lavoro, portando sia opportunità che sfide che richiedono una considerazione attenta. Secondo l’Organizzazione per la cooperazione e lo sviluppo economico (OECD), l’IA può portare benefici significativi sul posto di lavoro, con quattro lavoratori su cinque che dicono che l’IA ha migliorato la loro prestazione al lavoro e tre su cinque che dicono che l’IA ha aumentato il loro piacere del lavoro. Tuttavia, l’adozione dell’IA sul posto di lavoro viene anche accompagnata da rischi che devono essere affrontati.
Elon Musk ci ha presentato una nuova dimostrazione del Tesla bot, mostrando esattamente di cosa è capace il robot. Questa è una sorpresa piuttosto grande, considerando che questa è una delle prime dimostrazioni dal 15 gennaio, quando abbiamo visto il Tesla bot piegare una camicia. In questa dimostrazione è effettivamente piuttosto affascinante, perché possiamo vedere il Tesla bot fare molte cose diverse.
Un recente studio da HAI Stanford Universityha rivelato che i grandi modelli linguistici utilizzati ampiamente per le valutazioni mediche non riescono a supportare adeguatamente le loro affermazioni.
Maxime Labonne, un ricercatore di intelligenza artificiale, ha creato un nuovo modello di linguaggio di grandi dimensioni chiamato Meta-Llama-3-120B-Instruct. Questo modello è stato ottenuto fondendo più istanze del precedente modello Meta-Llama-3-70B-Instruct utilizzando uno strumento chiamato MergeKit.
Il processo di “self-merge”
Questa tecnica innovativa, chiamata “self-merge”, permette di scalare il modello da 70 miliardi a 120 miliardi di parametri. Labonne ha strutturato il processo di fusione sovrapponendo gli intervalli di strati da 0 a 80, migliorando così le capacità complessive del modello.
Ottimizzazione delle prestazioni
Labonne ha impiegato una tecnica di fusione “passthrough”, mantenendo il tipo di dati come float16 per ottimizzare le prestazioni. Questa scelta ha permesso di mantenere l’efficienza del modello nonostante l’aumento significativo della sua dimensione.
Prestazioni del modello
Il modello Meta-Llama-3-120B-Instruct si posiziona al sesto posto nella classifica della benchmark di scrittura creativa, superando il precedente modello Llama 3 70B. Tuttavia, nonostante le sue ottime prestazioni nella scrittura creativa, il modello non riesce a eguagliare le capacità di altri modelli come GPT-4 nelle attività di ragionamento.
Applicazioni
Questo nuovo modello di linguaggio è particolarmente adatto per attività di scrittura creativa. Esso utilizza il template di chat di Llama 3 con una finestra di contesto predefinita di 8K.
Ulteriori informazioni
Maxime Labonne ha dichiarato che il processo di fusione dei modelli ha richiesto un’attenta progettazione per garantire la coerenza e l’efficacia del modello risultante. Inoltre, il Meta-Llama-3-120B-Instruct è stato progettato per essere facilmente adattabile e personalizzabile per diversi compiti di elaborazione del linguaggio naturale.
Il lavoro di Maxime Labonne dimostra come l’innovazione e la sperimentazione possano portare allo sviluppo di nuovi modelli di linguaggio di grandi dimensioni, offrendo nuove opportunità e applicazioni nell’ambito dell’intelligenza artificiale.