Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: AI Pagina 5 di 18

L’ hub-per-una-copertura-completa-sullintelligenza-artificiale-e-lapprendimento-automatico

Introduzione dello strumento di analisi in Claude.ai

Il 24 ottobre 2024, Anthropic ha annunciato il lancio di una nuova funzionalità chiamata strumento di analisi per Claude.ai. Questa innovazione consente agli utenti di sfruttare le capacità di Claude per scrivere ed eseguire codice JavaScript in tempo reale, migliorando notevolmente le sue funzioni di elaborazione e analisi dei dati.

Nemotron: Il Nuovo “Meme” dell’Intelligenza Artificiale che Sta Rivoluzionando il Settore!

Negli ultimi giorni, il mondo dell’intelligenza artificiale ha visto un notevole fermento attorno a Nemotron, un nuovo modello di linguaggio sviluppato da Nvidia. Questo modello si basa sulla piattaforma open-source Llama di Meta e ha suscitato un’ampia discussione su X e Reddit, dove gli sviluppatori hanno elogiato le sue capacità. La creazione di Nemotron ha riacceso il dibattito sulla competizione tra modelli open-source e closed-source, evidenziando sia i punti di forza che le sfide di entrambi.

Lama in tasca e IA (in)domabile: come Meta sta domando l’open source, o almeno ci prova – anti jailbreak

Se non sai che Meta ha lanciato il suo modello Llama 3.2, probabilmente non vivi su questo pianeta (o, meno drammaticamente, hai solo evitato di partecipare all’ennesima euforia da IA). Ma sì, il colosso di Zuckerberg ha reso disponibile la nuova versione del suo modello di linguaggio, Llama 3.2, e non si limita a rispondere ai messaggi, ma ora “vede” anche. In altre parole, puoi portarti in tasca un’intelligenza artificiale capace di risponderti al volo, il tutto senza inviare i tuoi dati ai temuti “server di terze parti”. Fantastico, vero?

SynthID-Text: La Rivoluzione dei Chatbot e la Necessità di Identificare i Testi Generati dall’IA

La rivoluzione dei chatbot ha inondato il nostro mondo di testi generati dall’IA, presenti in ogni angolo della nostra vita quotidiana: dai feed delle notizie, ai saggi accademici, fino alle email. La loro abbondanza è talmente ridondante che sono nati interi settori per affrontare la questione, offrendo soluzioni per identificare testi generati dall’IA e servizi che promettono di “umanizzare” questi testi, rendendoli indistinguibili da quelli scritti da un essere umano. Tuttavia, entrambi i tipi di strumenti presentano prestazioni discutibili, e man mano che i chatbot diventano più sofisticati, diventa sempre più difficile distinguere tra testi generati da algoritmi e quelli scritti da persone.

Smiles Sring. Un Modello AI per la Scoperta di Nuovi Farmaci: Il “ChatGPT Chimico” dell’Università di Bonn

La scoperta di nuovi farmaci è uno degli ambiti più complessi e costosi della ricerca biomedica. Negli ultimi anni, l’intelligenza artificiale (IA) ha iniziato a giocare un ruolo cruciale in questo campo, aprendo nuove possibilità per la progettazione di molecole con proprietà farmacologiche mirate. In uno studio recente, i ricercatori dell’Università di Bonn hanno sviluppato un nuovo modello di IA ispirato al famoso ChatGPT, ma progettato specificamente per il riconoscimento di strutture chimiche e la previsione di potenziali composti attivi con proprietà terapeutiche. Questo modello, soprannominato “ChatGPT chimico”, è stato in grado di riprodurre esattamente le strutture chimiche di composti con attività multi-target, che potrebbero rivelarsi particolarmente efficaci come farmaci.

Perplexity introduce il ragionamento in più fasi

Perplexity ha recentemente introdotto una funzionalità innovativa chiamata ragionamento in più fasi, che migliora notevolmente la capacità del suo motore di ricerca di affrontare query complesse. Questa nuova caratteristica consente a Perplexity di eseguire ricerche online concatenate, analizzando e sintetizzando informazioni da diverse fonti in un processo strutturato e logico.

Funzionalità del Ragionamento in Più Fasi

Capacità Avanzate

Ricerche Complesse: Il ragionamento in più fasi permette di gestire query articolate che richiedono una pianificazione e una sequenza di passaggi per arrivare a una risposta completa.

Analisi dei Risultati: Perplexity può analizzare i risultati delle ricerche precedenti e intraprendere ulteriori azioni basate su queste scoperte, migliorando così l’efficienza e la precisione delle risposte.

Integrazione con Wolfram Alpha: Questa integrazione consente a Perplexity di risolvere problemi matematici complessi e di eseguire calcoli avanzati, rendendo il motore non solo un ricercatore ma anche uno strumento per il problem solving.

Motore di Risposte vs. Motore di Ricerca Tradizionale

A differenza dei tradizionali motori di ricerca come Google, che forniscono solo collegamenti a pagine web, Perplexity si propone come un motore di risposte. Questo significa che offre risposte dirette, complete e aggiornate, con la possibilità di verificare le fonti utilizzate.

CaratteristicaPerplexityGoogle
Tipo di RisultatoRisposte diretteCollegamenti a pagine web
Capacità di RagionamentoRagionamento in più fasiLimitato
Integrazione con Altri ServiziSì (Wolfram Alpha)No
Aggiornamenti in Tempo RealeNo

Perplexity offre l’accesso alla sua funzionalità Pro Search, che include il ragionamento in più fasi, gratuitamente fino a cinque ricerche ogni quattro ore. Per gli utenti che necessitano di un utilizzo più intensivo, è disponibile un abbonamento a pagamento che consente accesso illimitato.

Questa evoluzione della piattaforma rappresenta un passo significativo verso la creazione di un motore di ricerca più intelligente e capace, posizionando Perplexity come un concorrente diretto nel panorama dell’intelligenza artificiale conversazionale e dei motori di ricerca.

Introducing Multimodal Embed 3: Potenziare la Ricerca AI

Cohere ha presentato il suo modello di ricerca AI multimodale di punta, Embed 3, che promette di sbloccare un reale valore commerciale per i dati visivi. Questo nuovo modello non solo genera embedding da testi, ma è anche in grado di elaborare immagini, rendendolo uno strumento fondamentale per le imprese moderne.

Con l’avvento di Embed 3, le aziende possono ora sfruttare efficacemente i vasti archivi di dati contenuti nelle immagini. Questo modello consente la creazione di sistemi che cercano e recuperano rapidamente risorse multimodali importanti, come rapporti complessi, cataloghi di prodotti e file di design. L’obiettivo è migliorare la produttività della forza lavoro attraverso un accesso più facile e veloce alle informazioni necessarie.

L’intelligenza artificiale in edilizia: Marco Rinelli GeckoWay

GeckoWay è una software house italiana specializzata nella creazione e progettazione di soluzioni high-tech su misura per le aziende. Con un approccio mirato, l’azienda analizza i processi aziendali dei propri clienti per proporre soluzioni innovative, personalizzate in base alle specifiche esigenze. 

Dalla progettazione di nuove applicazioni all’ottimizzazione dell’esperienza utente, GeckoWay si impegna a garantire un servizio completo, che include supporto tecnico e aggiornamenti continui post-lancio.

GeckoWay ha lavorato con diverse realtà aziendali, in particolare nel settore delle costruzioni attraverso il software Planybuild, progettato per semplificare la gestione delle aziende edili. Questo approccio personalizzato consente ai clienti di ottimizzare i loro processi e migliorare l’efficienza operativa.

L’azienda si distingue per l’utilizzo delle ultime tecnologie e ha avuto un ruolo significativo nel panorama internazionale, rappresentando l’Italia al CES 2023 di Las Vegas, la fiera dedicata all’innovazione più importante al mondo. 

Inoltre, GeckoWay è Technology Ambassador e Partner Strategico per eventi come il EdilsocialnetworkB-CAD che si terrà dal 31 OTTOBRE al 2 NOVEMBRE, 2024 presso il Convention Center “La Nuvola” è la prima fiera di Edilizia, Architettura e Design, pensata per connettere le aziende produttrici, i più importanti studi di progettazione internazionali, buyer e businessdeveloper focalizzato su edilizia, architettura e design. 

Con sede in Cina situate nel prestigioso Sino-Italy Park di Yuyao, GeckoWay si posiziona come protagonista nel settore hi-tech, promuovendo l’innovazione e la tecnologia a livello globale. Abbiamo incontrato il Founder e CEO Marco Rinelli :

Vittoria Legale di Meta Platforms: Rifiutato il Ricorso degli Azionisti

Meta Platforms e il suo CEO, Mark Zuckerberg, hanno recentemente ottenuto una vittoria legale significativa con il rigetto da parte di un giudice federale di una causa intentata da un azionista, Matt Eisner (Reuters). La causa sosteneva che Meta avesse ingannato gli investitori riguardo l’impegno dell’azienda per la sicurezza dei minori sulle sue piattaforme social, Facebook e Instagram.

Stable Diffusion 3.5: Stability AI si riscatta con nuovi modelli e funzionalità ampliate

Dopo il passo falso con Stable Diffusion 3 Medium, Stability AI torna in carreggiata con la versione 3.5, che introduce modelli personalizzabili, privi di censure, veloci e accessibili a tutti.

Stability AI sembra aver imboccato la strada della redenzione. Dopo la delusione della release di Stable Diffusion 3 Medium, l’azienda ha mantenuto la promessa fatta a luglio e ha rilasciato due nuovi modelli: Stable Diffusion 3.5 Large e Stable Diffusion 3.5 Large Turbo.

La Schistosomiasi: Un’Infezione Parassitaria con Risonanze Vampiresche

La schistosomiasi, nota anche come bilharziosi, è un’infezione parassitaria causata da vermi piatti del genere Schistosoma. Questi parassiti si trovano prevalentemente in acque dolci contaminate, dove completano il loro ciclo vitale passando attraverso un ospite intermedio, tipicamente delle lumache. La trasmissione avviene quando le larve, rilasciate dalle lumache, penetrano nella pelle umana durante il contatto con l’acqua infetta. Una volta entrati nel corpo, i parassiti migrano attraverso il sistema circolatorio fino a stabilirsi negli organi interni, come fegato e intestino, dove si sviluppano in vermi adulti e producono uova.

Microsoft AI Tour: Copilot Studio

Microsoft ha recentemente annunciato il Copilot Studio durante il suo AI Tour, delineando un futuro in cui gli agenti AI diventeranno componenti fondamentali delle piattaforme aziendali. Questo sviluppo segna un passo significativo verso l’integrazione dell’intelligenza artificiale nei flussi di lavoro quotidiani.

Scopri HuggingChat alternativa a ChatGPT ed è opensouce

Hai probabilmente sentito parlare del caro vecchio ChatGPT. Conosci anche altri chatbot interessanti come Claude, Reka o Meta AI. Ma c’è un chatbot piuttosto interessante che potresti aver perso: è gratuito, open source e potrebbe essere più capace di ChatGPT in compiti specifici come la generazione di immagini, l’analisi di documenti, il montaggio video e molto altro.

Tutto ciò che devi fare è visitare huggingface.co/cha t , selezionare un modello da un elenco di opzioni AI open source e sei pronto per partire.

L’Intelligenza Artificiale che Lavora per Te: Introduzione a Claude 3.5

Recentemente, Anthropic ha annunciato il lancio di due nuovi modelli e una nuova capacità sperimentale chiamata computer use, che consente a Claude 3.5 Sonnet di generare azioni informatiche per svolgere compiti complessi. Questa innovazione rappresenta un significativo passo avanti nella capacità delle intelligenze artificiali di interagire con le interfacce utente in modo simile agli esseri umani.

Anthropic ha addestrato Claude a interpretare visivamente lo schermo, permettendo agli sviluppatori di usarlo per compilare moduli, navigare su siti o utilizzare software. È come avere un’IA che lavora per te, senza stancarsi e con meno errori umani. La funzionalità è in beta perché ha problemi con lo scorrimento e lo zoom. Anthropic monitora la situazione, conservando screenshot per 30 giorni ed eseguendo controlli di sicurezza per rilevare comportamenti discutibili.

IBM annuncia l’uscita di Granite 3.0

IBM ha recentemente annunciato l’uscita di Granite 3.0, una nuova generazione di modelli di intelligenza artificiale open source che promette di alzare significativamente l’asticella in termini di prestazioni e sicurezza per modelli di dimensioni medio-piccole, con configurazioni che includono varianti da 8 miliardi e 2 miliardi di parametri. Questa evoluzione non solo rappresenta un progresso nel campo dei modelli linguistici open source, ma offre anche una valida alternativa a modelli più grandi e più costosi in termini di risorse computazionali, concentrandosi su efficienza e usabilità.

Con Granite 3.0, IBM continua a spingere i limiti delle capacità dell’intelligenza artificiale open source, offrendo modelli che bilanciano potenza, efficienza e sicurezza. Questa versione si dimostra particolarmente promettente per coloro che desiderano sfruttare il potenziale dell’intelligenza artificiale senza l’enorme investimento richiesto dai modelli più grandi.

L’obiettivo finale è quello di rendere l’intelligenza artificiale più accessibile, sicura e versatile per un’ampia gamma di applicazioni, democratizzando l’innovazione nel campo dell’AI e aprendo la strada a una nuova generazione di soluzioni intelligenti personalizzate per ogni esigenza.

Nicolas Cage contro l’IA: ‘Un incubo disumano che ruba l’anima agli attori

Come riportato dalla rivista specializzata dell’industria cinematografica 
Deadline Nicolas Cage, protagonista di “Longlegs“, ha espresso critiche nei confronti dell’uso dell’intelligenza artificiale e delle “repliche digitali basate sull’impiego” (Employment-Based Digital Replicas, EBDR) per manipolare le performance degli attori.

Crusoe Energy

L’industria dell’intelligenza artificiale sta assistendo a un’emergente corsa tra startup di data center, che affermano di poter muoversi più rapidamente rispetto ai grandi sviluppatori.

L’ultima in ordine di tempo è Crusoe Energy, che ha annunciato un accordo per ottenere un prestito di 3,4 miliardi di dollari per sviluppare un data center che potrebbe diventare uno dei più grandi al mondo.Oracle, un importante fornitore di servizi cloud, affitterà il sito e noleggerà server equipaggiati con chip Nvidia per le applicazioni di intelligenza artificiale di OpenAI.

Questo progetto rappresenta una significativa opportunità per Crusoe, che ha già dimostrato la sua capacità di adattarsi rapidamente alle esigenze del mercato AI.Il data center sarà situato nel Lancium Clean Campus ad Abilene, Texas, e sarà progettato per supportare applicazioni IT ad alta densità energetica.

Si prevede che il centro dati operi con un potenziale di 206 MW e possa gestire fino a 100.000 GPU su una rete integrata, ottimizzando l’uso delle risorse energetiche rinnovabili.

Questa iniziativa non solo evidenzia la crescente domanda di infrastrutture dedicate all’AI, ma sottolinea anche come le startup come Crusoe possano competere efficacemente con i giganti del settore grazie a modelli di business innovativi e approcci sostenibil

OMat24: La Rivoluzione AI di Meta che Ridefinisce la Scoperta dei Materiali e il Futuro Industriale

Per chi ha visto la serie Netflix 3 Body Problem (nella sua versione originale cinese), si esplorano concetti tecnologici avanzati, in particolare l’uso delle nanofibre, fondamentali per la trama. La protagonista, Dr. Auggie Salazar, rivoluziona il settore delle nanofibre, creando un materiale così sottile e affilato da poter tagliare qualsiasi cosa, inclusi muri e corpi umani. Questo elemento diventa inquietante quando viene usato in scene di violenza estrema a bordo della nave Judgment Day, dove le nanofibre uccidono l’equipaggio senza danneggiare le tecnologie vitali.

3 Body Problem non solo intrattiene con la sua narrativa sci-fi ma stimola anche una riflessione critica sulle implicazioni etiche e pratiche delle tecnologie emergenti come le nanofibre, collegandosi perfettamente con le ricerche all’avanguardia come quelle offerte da OMat24.

Il dataset Meta Open Materials 2024 (OMat24) rappresenta un’importante svolta nella scoperta di nuovi materiali attraverso l’intelligenza artificiale (AI). Rilasciato nell’ambito dell’iniziativa di Meta per promuovere l’innovazione scientifica, OMat24 è una collezione open-source che fornisce dati su oltre 118 milioni di strutture atomiche. Questo dataset mira a velocizzare e rendere più accessibile la scoperta di materiali avanzati, che fino ad oggi è stata un processo lungo e complesso, caratterizzato da simulazioni e test su enormi quantità di dati.

CHIEF (Clinical Histopathology Imaging Evaluation Foundation) AI per sconfiggere il CANCRO

I ricercatori della Harvard Medical School hanno recentemente svelato un nuovo modello, pubblicato su Nature, di intelligenza artificiale (IA) denominato CHIEF (Clinical Histopathology Imaging Evaluation Foundation), capace di diagnosticare e prevedere esiti per diversi tipi di cancro con una precisione straordinaria. Questo avanzato sistema ha suscitato un notevole interesse per la sua capacità di superare le prestazioni degli attuali sistemi di IA, raggiungendo fino al “96% di accuratezza” nella rilevazione del cancro attraverso 19 diversi tipi di tumori. CHIEF è open source e può essere scaricato dalla pagina Github del progetto.

Il modello CHIEF è stato paragonato, per la sua versatilità, a ChatGPT, il celebre modello di linguaggio che ha catturato l’attenzione globale grazie alla sua capacità di affrontare un’ampia gamma di compiti. Tuttavia, CHIEF è specializzato nel campo della visione artificiale, un modello creato appositamente per comprendere gli input visivi, particolarmente focalizzato sull’analisi delle immagini di cellule tumorali. Questa focalizzazione lo distingue dai modelli generalisti come GPT-4V o LlaVA, che si concentrano su una vasta gamma di applicazioni visive più generiche.

AlphaFold svela il meccanismo della fecondazione: Una svolta nella biologia riproduttiva

La rivoluzione dell’intelligenza artificiale non conosce confini, e AlphaFold, lo strumento AI premiato con il Nobel, continua a stupire. Recentemente, i ricercatori hanno utilizzato AlphaFold per decifrare uno dei misteri più affascinanti della biologia: il processo di fecondazione nei vertebrati. In questa straordinaria scoperta, un complesso proteico trimerico nello sperma è stato identificato come “chiave” molecolare per la fecondazione, rivelando nuovi dettagli sul meccanismo riproduttivo e ponendo le basi per future ricerche sulla fertilità.

AlphaFold è un programma di intelligenza artificiale sviluppato da DeepMind per predire la struttura tridimensionale delle proteine.

Google Risolve i Problemi Strutturali dell’IA: Implicazioni per la Sicurezza e l’Affidabilità

Nel mondo dell’intelligenza artificiale, l’accuratezza e la sicurezza sono questioni cruciali per mantenere la fiducia degli utenti e garantire un’esperienza priva di rischi. Recentemente, Google ha affrontato significative vulnerabilità strutturali in due aree chiave: i risultati generati dall’IA nei motori di ricerca e la sicurezza del suo servizio Document AI su Google Cloud. Questi interventi non solo migliorano l’affidabilità del sistema, ma offrono anche spunti importanti per le aziende che si affidano sempre di più all’automazione e all’intelligenza artificiale.

META-REWARDING LANGUAGE MODELS

Negli ultimi anni, l’intelligenza artificiale (IA) ha compiuto enormi progressi, soprattutto grazie ai modelli di linguaggio di grandi dimensioni (LLM, Large Language Models). Uno dei concetti più innovativi emersi in questo contesto è il cosiddetto LLM-as-a-Judge, cioè l’utilizzo di questi modelli come giudici, capaci di interpretare normative, leggi e regole complesse, emettendo decisioni basate su dati e fatti.

Sebbene questa idea sembri già rivoluzionaria, c’è una naturale evoluzione che possiamo prevedere: Agents-as-a-Judge. Si tratta di agenti autonomi, potenziati da LLM, in grado di prendere decisioni non solo in base a regole predefinite ma anche adattandosi al contesto, con capacità di apprendimento e interazione continua.

L’evoluzione da LLM-as-a-Judge a Agents-as-a-Judge è una progressione naturale che riflette il desiderio di creare sistemi di intelligenza artificiale più autonomi e adattabili. Tuttavia, il successo di questa transizione dipenderà non solo dallo sviluppo tecnologico, ma anche dalla capacità di affrontare le questioni etiche, legali e sociali che inevitabilmente emergeranno. Se gestiti correttamente, gli Agents-as-a-Judge potrebbero rappresentare un passo avanti significativo verso un sistema giudiziario più giusto ed efficiente.

Imprompter: LLM Attack

Imprompter, sviluppato da un gruppo di ricercatori di sicurezza informatica delle università della California, San Diego (UCSD) e Nanyang Technological University a Singapore. Questo attacco mira a sfruttare i modelli di linguaggio di grandi dimensioni (LLM) come i chatbot per raccogliere informazioni personali degli utenti e inviarle segretamente a un hacker.

Helen Toner: LA disconnessione tra la politica e i ricercatori dell’AGI

Helen Toner è una ricercatrice di politiche sull’intelligenza artificiale e ha ricoperto ruoli significativi, tra cui quello di membro del consiglio di OpenAI. Recentemente, ha evidenziato una disconnessione tra il mondo politico e i ricercatori nel campo dell’AGI (Intelligenza Artificiale Generale), affermando che i politici trattano l’AGI come un concetto fantascientifico, mentre i ricercatori lo considerano una possibilità imminente.

USA: l’avvento della Superintelligenza Artificiale e le sfide regolatorie

Negli ultimi anni, il dibattito sull’intelligenza artificiale (IA) ha guadagnato una crescente attenzione, specialmente con l’emergere della superintelligenza artificiale (ASI). Secondo Sam Altman, CEO di OpenAI, l’ASI potrebbe essere realizzata in “poche migliaia di giorni”, un periodo sorprendentemente breve considerando il rapido progresso tecnologico. Questo sviluppo pone interrogativi cruciali sulla sicurezza nazionale e sull’interesse pubblico, specialmente in un contesto in cui le agenzie governative si trovano ad affrontare sfide senza precedenti.

Meta sotto accusa per aver “inquinato” l’open source

Meta ha affrontato critiche per aver etichettato i suoi modelli di intelligenza artificiale, in particolare Llama, come “open-source”. Questa controversia ruota attorno alla definizione di tecnologia open-source e alle implicazioni delle pratiche di licenza di Meta.

Critiche da parte degli Sostenitori dell’Open Source

Stefano Maffulli, responsabile dell’Open Source Initiative (OSI), sostiene che Meta stia “confondendo” gli utenti e diluendo il significato di open source. Afferma che questa rappresentazione errata è dannosa, specialmente mentre enti regolatori come la Commissione Europea cercano di supportare tecnologie open-source genuine che non sono controllate da aziende specifiche. Maffulli sottolinea che i veri modelli open-source dovrebbero consentire sperimentazione e adattamento, cosa che i modelli di Meta non abilitano completamente a causa delle loro licenze restrittive.

Preoccupazioni sul Monopolio nell’AI

Mozilla e l’Open Markets Institute hanno espresso preoccupazioni riguardo al potere monopolistico delle grandi aziende tecnologiche nello sviluppo dell’intelligenza artificiale (AI). Entrambe le organizzazioni hanno raccomandato misure antitrust e politiche per garantire un ecosistema AI competitivo e accessibile.

Le aziende tecnologiche dominanti, come Google e OpenAI, controllano risorse cruciali come dati e potenza di calcolo, rendendo difficile per le startup e le organizzazioni più piccole competere. Questo monopolio non solo limita l’accesso alle tecnologie AI, ma può anche ostacolare l’innovazione e la ricerca indipendente.

Crescita e Sfide nel Mondo dell’Intelligenza Artificiale: DeepMind e Isomorphic Labs a Confronto

DeepMind ha registrato un aumento significativo del suo utile operativo, che è cresciuto del 91% nel 2023, raggiungendo i 175 milioni di dollari. Questo incremento è attribuibile a una gestione efficace e a un aumento della domanda per le sue tecnologie avanzate, in particolare nel campo dell’intelligenza artificiale e della ricerca.

D’altra parte, Isomorphic Labs, una startup di Alphabet specializzata nella scoperta di farmaci e spin-off di DeepMind, ha visto le sue perdite aumentare a oltre 75 milioni di dollari.

Nel 2023, la startup ha riportato perdite dopo le tasse pari a 60 milioni di sterline (circa 78 milioni di dollari), un notevole incremento rispetto ai 17 milioni di sterline (22 milioni di dollari) dell’anno precedente. Questo aumento delle perdite è stato accompagnato da un quadruplicamento delle spese per ricerca e sviluppo, che hanno raggiunto i 49 milioni di sterline (64 milioni di dollari) nel 2023[.

Isomorphic Labs non ha riportato ricavi significativi nel 2022 o nel 2023, ma ha ottenuto un reddito operativo di circa 583.000 dollari grazie a due partnership strategiche con giganti farmaceutici come Eli Lilly e Novartis[1][2]. Queste collaborazioni potrebbero portare a guadagni futuri significativi, ma attualmente la startup sta affrontando sfide finanziarie mentre cerca di sviluppare tecnologie innovative per accelerare la scoperta di nuovi farmaci.

L’intelligenza Artificiale a Supporto del Tesoro degli Stati Uniti: Un’arma Vincente Contro le Frodi Finanziarie

Nel 2024, l’Intelligenza Artificiale (IA) ha svolto un ruolo cruciale per il Dipartimento del Tesoro degli Stati Uniti, aiutando a prevenire e recuperare oltre 4 miliardi di dollari in pagamenti fraudolenti o indebiti. Questo impressionante risultato rappresenta un incremento di sei volte rispetto all’anno precedente, quando il Tesoro aveva rilevato e recuperato circa 652,7 milioni di dollari.

L’Ufficio per l’Integrità dei Pagamenti (Office of Payment Integrity, OPI), parte del Bureau of the Fiscal Service, ha spiegato in un rapporto che l’adozione di tecnologie avanzate di “machine learning” ha permesso di individuare transazioni ad alto rischio e di accelerare l’identificazione di frodi sui pagamenti via assegno.

Jailbreaking LLM-Controlled Robots

Vulnerabilità critiche nei robot con Intelligenza Artificiale: sfide e opportunità per il futuro della sicurezza

Nel panorama in continua evoluzione dell’intelligenza artificiale (IA) e della robotica, le innovazioni portano con sé non solo opportunità rivoluzionarie, ma anche rischi significativi. Un recente studio condotto dai ricercatori di Penn Engineering ha evidenziato una serie di vulnerabilità critiche nei robot alimentati da IA, rivelando potenziali scenari in cui questi sistemi possono essere manipolati per compiere azioni pericolose, come ignorare semafori rossi o, in situazioni estreme, detonare bombe.

Pagina 5 di 18

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie