Il 24 ottobre 2024, Anthropic ha annunciato il lancio di una nuova funzionalità chiamata strumento di analisi per Claude.ai. Questa innovazione consente agli utenti di sfruttare le capacità di Claude per scrivere ed eseguire codice JavaScript in tempo reale, migliorando notevolmente le sue funzioni di elaborazione e analisi dei dati.
Categoria: AI Pagina 5 di 18
L’ hub-per-una-copertura-completa-sullintelligenza-artificiale-e-lapprendimento-automatico
Negli ultimi giorni, il mondo dell’intelligenza artificiale ha visto un notevole fermento attorno a Nemotron, un nuovo modello di linguaggio sviluppato da Nvidia. Questo modello si basa sulla piattaforma open-source Llama di Meta e ha suscitato un’ampia discussione su X e Reddit, dove gli sviluppatori hanno elogiato le sue capacità. La creazione di Nemotron ha riacceso il dibattito sulla competizione tra modelli open-source e closed-source, evidenziando sia i punti di forza che le sfide di entrambi.
La rivoluzione dei chatbot ha inondato il nostro mondo di testi generati dall’IA, presenti in ogni angolo della nostra vita quotidiana: dai feed delle notizie, ai saggi accademici, fino alle email. La loro abbondanza è talmente ridondante che sono nati interi settori per affrontare la questione, offrendo soluzioni per identificare testi generati dall’IA e servizi che promettono di “umanizzare” questi testi, rendendoli indistinguibili da quelli scritti da un essere umano. Tuttavia, entrambi i tipi di strumenti presentano prestazioni discutibili, e man mano che i chatbot diventano più sofisticati, diventa sempre più difficile distinguere tra testi generati da algoritmi e quelli scritti da persone.
La scoperta di nuovi farmaci è uno degli ambiti più complessi e costosi della ricerca biomedica. Negli ultimi anni, l’intelligenza artificiale (IA) ha iniziato a giocare un ruolo cruciale in questo campo, aprendo nuove possibilità per la progettazione di molecole con proprietà farmacologiche mirate. In uno studio recente, i ricercatori dell’Università di Bonn hanno sviluppato un nuovo modello di IA ispirato al famoso ChatGPT, ma progettato specificamente per il riconoscimento di strutture chimiche e la previsione di potenziali composti attivi con proprietà terapeutiche. Questo modello, soprannominato “ChatGPT chimico”, è stato in grado di riprodurre esattamente le strutture chimiche di composti con attività multi-target, che potrebbero rivelarsi particolarmente efficaci come farmaci.
Perplexity ha recentemente introdotto una funzionalità innovativa chiamata ragionamento in più fasi, che migliora notevolmente la capacità del suo motore di ricerca di affrontare query complesse. Questa nuova caratteristica consente a Perplexity di eseguire ricerche online concatenate, analizzando e sintetizzando informazioni da diverse fonti in un processo strutturato e logico.
Funzionalità del Ragionamento in Più Fasi
Capacità Avanzate
Ricerche Complesse: Il ragionamento in più fasi permette di gestire query articolate che richiedono una pianificazione e una sequenza di passaggi per arrivare a una risposta completa.
Analisi dei Risultati: Perplexity può analizzare i risultati delle ricerche precedenti e intraprendere ulteriori azioni basate su queste scoperte, migliorando così l’efficienza e la precisione delle risposte.
Integrazione con Wolfram Alpha: Questa integrazione consente a Perplexity di risolvere problemi matematici complessi e di eseguire calcoli avanzati, rendendo il motore non solo un ricercatore ma anche uno strumento per il problem solving.
Motore di Risposte vs. Motore di Ricerca Tradizionale
A differenza dei tradizionali motori di ricerca come Google, che forniscono solo collegamenti a pagine web, Perplexity si propone come un motore di risposte. Questo significa che offre risposte dirette, complete e aggiornate, con la possibilità di verificare le fonti utilizzate.
Caratteristica | Perplexity | |
---|---|---|
Tipo di Risultato | Risposte dirette | Collegamenti a pagine web |
Capacità di Ragionamento | Ragionamento in più fasi | Limitato |
Integrazione con Altri Servizi | Sì (Wolfram Alpha) | No |
Aggiornamenti in Tempo Reale | Sì | No |
Perplexity offre l’accesso alla sua funzionalità Pro Search, che include il ragionamento in più fasi, gratuitamente fino a cinque ricerche ogni quattro ore. Per gli utenti che necessitano di un utilizzo più intensivo, è disponibile un abbonamento a pagamento che consente accesso illimitato.
Questa evoluzione della piattaforma rappresenta un passo significativo verso la creazione di un motore di ricerca più intelligente e capace, posizionando Perplexity come un concorrente diretto nel panorama dell’intelligenza artificiale conversazionale e dei motori di ricerca.
GeckoWay è una software house italiana specializzata nella creazione e progettazione di soluzioni high-tech su misura per le aziende. Con un approccio mirato, l’azienda analizza i processi aziendali dei propri clienti per proporre soluzioni innovative, personalizzate in base alle specifiche esigenze.
Dalla progettazione di nuove applicazioni all’ottimizzazione dell’esperienza utente, GeckoWay si impegna a garantire un servizio completo, che include supporto tecnico e aggiornamenti continui post-lancio.
GeckoWay ha lavorato con diverse realtà aziendali, in particolare nel settore delle costruzioni attraverso il software Planybuild, progettato per semplificare la gestione delle aziende edili. Questo approccio personalizzato consente ai clienti di ottimizzare i loro processi e migliorare l’efficienza operativa.
L’azienda si distingue per l’utilizzo delle ultime tecnologie e ha avuto un ruolo significativo nel panorama internazionale, rappresentando l’Italia al CES 2023 di Las Vegas, la fiera dedicata all’innovazione più importante al mondo.
Inoltre, GeckoWay è Technology Ambassador e Partner Strategico per eventi come il EdilsocialnetworkB-CAD che si terrà dal 31 OTTOBRE al 2 NOVEMBRE, 2024 presso il Convention Center “La Nuvola” è la prima fiera di Edilizia, Architettura e Design, pensata per connettere le aziende produttrici, i più importanti studi di progettazione internazionali, buyer e businessdeveloper focalizzato su edilizia, architettura e design.
Con sede in Cina situate nel prestigioso Sino-Italy Park di Yuyao, GeckoWay si posiziona come protagonista nel settore hi-tech, promuovendo l’innovazione e la tecnologia a livello globale. Abbiamo incontrato il Founder e CEO Marco Rinelli :
Dopo il passo falso con Stable Diffusion 3 Medium, Stability AI torna in carreggiata con la versione 3.5, che introduce modelli personalizzabili, privi di censure, veloci e accessibili a tutti.
Stability AI sembra aver imboccato la strada della redenzione. Dopo la delusione della release di Stable Diffusion 3 Medium, l’azienda ha mantenuto la promessa fatta a luglio e ha rilasciato due nuovi modelli: Stable Diffusion 3.5 Large e Stable Diffusion 3.5 Large Turbo.
La schistosomiasi, nota anche come bilharziosi, è un’infezione parassitaria causata da vermi piatti del genere Schistosoma. Questi parassiti si trovano prevalentemente in acque dolci contaminate, dove completano il loro ciclo vitale passando attraverso un ospite intermedio, tipicamente delle lumache. La trasmissione avviene quando le larve, rilasciate dalle lumache, penetrano nella pelle umana durante il contatto con l’acqua infetta. Una volta entrati nel corpo, i parassiti migrano attraverso il sistema circolatorio fino a stabilirsi negli organi interni, come fegato e intestino, dove si sviluppano in vermi adulti e producono uova.
Microsoft ha recentemente annunciato il Copilot Studio durante il suo AI Tour, delineando un futuro in cui gli agenti AI diventeranno componenti fondamentali delle piattaforme aziendali. Questo sviluppo segna un passo significativo verso l’integrazione dell’intelligenza artificiale nei flussi di lavoro quotidiani.
Hai probabilmente sentito parlare del caro vecchio ChatGPT. Conosci anche altri chatbot interessanti come Claude, Reka o Meta AI. Ma c’è un chatbot piuttosto interessante che potresti aver perso: è gratuito, open source e potrebbe essere più capace di ChatGPT in compiti specifici come la generazione di immagini, l’analisi di documenti, il montaggio video e molto altro.
Tutto ciò che devi fare è visitare huggingface.co/cha t , selezionare un modello da un elenco di opzioni AI open source e sei pronto per partire.
Recentemente, Anthropic ha annunciato il lancio di due nuovi modelli e una nuova capacità sperimentale chiamata computer use, che consente a Claude 3.5 Sonnet di generare azioni informatiche per svolgere compiti complessi. Questa innovazione rappresenta un significativo passo avanti nella capacità delle intelligenze artificiali di interagire con le interfacce utente in modo simile agli esseri umani.
Anthropic ha addestrato Claude a interpretare visivamente lo schermo, permettendo agli sviluppatori di usarlo per compilare moduli, navigare su siti o utilizzare software. È come avere un’IA che lavora per te, senza stancarsi e con meno errori umani. La funzionalità è in beta perché ha problemi con lo scorrimento e lo zoom. Anthropic monitora la situazione, conservando screenshot per 30 giorni ed eseguendo controlli di sicurezza per rilevare comportamenti discutibili.
IBM ha recentemente annunciato l’uscita di Granite 3.0, una nuova generazione di modelli di intelligenza artificiale open source che promette di alzare significativamente l’asticella in termini di prestazioni e sicurezza per modelli di dimensioni medio-piccole, con configurazioni che includono varianti da 8 miliardi e 2 miliardi di parametri. Questa evoluzione non solo rappresenta un progresso nel campo dei modelli linguistici open source, ma offre anche una valida alternativa a modelli più grandi e più costosi in termini di risorse computazionali, concentrandosi su efficienza e usabilità.
Con Granite 3.0, IBM continua a spingere i limiti delle capacità dell’intelligenza artificiale open source, offrendo modelli che bilanciano potenza, efficienza e sicurezza. Questa versione si dimostra particolarmente promettente per coloro che desiderano sfruttare il potenziale dell’intelligenza artificiale senza l’enorme investimento richiesto dai modelli più grandi.
L’obiettivo finale è quello di rendere l’intelligenza artificiale più accessibile, sicura e versatile per un’ampia gamma di applicazioni, democratizzando l’innovazione nel campo dell’AI e aprendo la strada a una nuova generazione di soluzioni intelligenti personalizzate per ogni esigenza.
Come riportato dalla rivista specializzata dell’industria cinematografica
Deadline Nicolas Cage, protagonista di “Longlegs“, ha espresso critiche nei confronti dell’uso dell’intelligenza artificiale e delle “repliche digitali basate sull’impiego” (Employment-Based Digital Replicas, EBDR) per manipolare le performance degli attori.
L’industria dell’intelligenza artificiale sta assistendo a un’emergente corsa tra startup di data center, che affermano di poter muoversi più rapidamente rispetto ai grandi sviluppatori.
L’ultima in ordine di tempo è Crusoe Energy, che ha annunciato un accordo per ottenere un prestito di 3,4 miliardi di dollari per sviluppare un data center che potrebbe diventare uno dei più grandi al mondo.Oracle, un importante fornitore di servizi cloud, affitterà il sito e noleggerà server equipaggiati con chip Nvidia per le applicazioni di intelligenza artificiale di OpenAI.
Questo progetto rappresenta una significativa opportunità per Crusoe, che ha già dimostrato la sua capacità di adattarsi rapidamente alle esigenze del mercato AI.Il data center sarà situato nel Lancium Clean Campus ad Abilene, Texas, e sarà progettato per supportare applicazioni IT ad alta densità energetica.
Si prevede che il centro dati operi con un potenziale di 206 MW e possa gestire fino a 100.000 GPU su una rete integrata, ottimizzando l’uso delle risorse energetiche rinnovabili.
Questa iniziativa non solo evidenzia la crescente domanda di infrastrutture dedicate all’AI, ma sottolinea anche come le startup come Crusoe possano competere efficacemente con i giganti del settore grazie a modelli di business innovativi e approcci sostenibil
Per chi ha visto la serie Netflix 3 Body Problem (nella sua versione originale cinese), si esplorano concetti tecnologici avanzati, in particolare l’uso delle nanofibre, fondamentali per la trama. La protagonista, Dr. Auggie Salazar, rivoluziona il settore delle nanofibre, creando un materiale così sottile e affilato da poter tagliare qualsiasi cosa, inclusi muri e corpi umani. Questo elemento diventa inquietante quando viene usato in scene di violenza estrema a bordo della nave Judgment Day, dove le nanofibre uccidono l’equipaggio senza danneggiare le tecnologie vitali.
3 Body Problem non solo intrattiene con la sua narrativa sci-fi ma stimola anche una riflessione critica sulle implicazioni etiche e pratiche delle tecnologie emergenti come le nanofibre, collegandosi perfettamente con le ricerche all’avanguardia come quelle offerte da OMat24.
Il dataset Meta Open Materials 2024 (OMat24) rappresenta un’importante svolta nella scoperta di nuovi materiali attraverso l’intelligenza artificiale (AI). Rilasciato nell’ambito dell’iniziativa di Meta per promuovere l’innovazione scientifica, OMat24 è una collezione open-source che fornisce dati su oltre 118 milioni di strutture atomiche. Questo dataset mira a velocizzare e rendere più accessibile la scoperta di materiali avanzati, che fino ad oggi è stata un processo lungo e complesso, caratterizzato da simulazioni e test su enormi quantità di dati.
I ricercatori della Harvard Medical School hanno recentemente svelato un nuovo modello, pubblicato su Nature, di intelligenza artificiale (IA) denominato CHIEF (Clinical Histopathology Imaging Evaluation Foundation), capace di diagnosticare e prevedere esiti per diversi tipi di cancro con una precisione straordinaria. Questo avanzato sistema ha suscitato un notevole interesse per la sua capacità di superare le prestazioni degli attuali sistemi di IA, raggiungendo fino al “96% di accuratezza” nella rilevazione del cancro attraverso 19 diversi tipi di tumori. CHIEF è open source e può essere scaricato dalla pagina Github del progetto.
Il modello CHIEF è stato paragonato, per la sua versatilità, a ChatGPT, il celebre modello di linguaggio che ha catturato l’attenzione globale grazie alla sua capacità di affrontare un’ampia gamma di compiti. Tuttavia, CHIEF è specializzato nel campo della visione artificiale, un modello creato appositamente per comprendere gli input visivi, particolarmente focalizzato sull’analisi delle immagini di cellule tumorali. Questa focalizzazione lo distingue dai modelli generalisti come GPT-4V o LlaVA, che si concentrano su una vasta gamma di applicazioni visive più generiche.
La rivoluzione dell’intelligenza artificiale non conosce confini, e AlphaFold, lo strumento AI premiato con il Nobel, continua a stupire. Recentemente, i ricercatori hanno utilizzato AlphaFold per decifrare uno dei misteri più affascinanti della biologia: il processo di fecondazione nei vertebrati. In questa straordinaria scoperta, un complesso proteico trimerico nello sperma è stato identificato come “chiave” molecolare per la fecondazione, rivelando nuovi dettagli sul meccanismo riproduttivo e ponendo le basi per future ricerche sulla fertilità.
AlphaFold è un programma di intelligenza artificiale sviluppato da DeepMind per predire la struttura tridimensionale delle proteine.
Nel mondo dell’intelligenza artificiale, l’accuratezza e la sicurezza sono questioni cruciali per mantenere la fiducia degli utenti e garantire un’esperienza priva di rischi. Recentemente, Google ha affrontato significative vulnerabilità strutturali in due aree chiave: i risultati generati dall’IA nei motori di ricerca e la sicurezza del suo servizio Document AI su Google Cloud. Questi interventi non solo migliorano l’affidabilità del sistema, ma offrono anche spunti importanti per le aziende che si affidano sempre di più all’automazione e all’intelligenza artificiale.
Imprompter, sviluppato da un gruppo di ricercatori di sicurezza informatica delle università della California, San Diego (UCSD) e Nanyang Technological University a Singapore. Questo attacco mira a sfruttare i modelli di linguaggio di grandi dimensioni (LLM) come i chatbot per raccogliere informazioni personali degli utenti e inviarle segretamente a un hacker.
Helen Toner è una ricercatrice di politiche sull’intelligenza artificiale e ha ricoperto ruoli significativi, tra cui quello di membro del consiglio di OpenAI. Recentemente, ha evidenziato una disconnessione tra il mondo politico e i ricercatori nel campo dell’AGI (Intelligenza Artificiale Generale), affermando che i politici trattano l’AGI come un concetto fantascientifico, mentre i ricercatori lo considerano una possibilità imminente.
Negli ultimi anni, il dibattito sull’intelligenza artificiale (IA) ha guadagnato una crescente attenzione, specialmente con l’emergere della superintelligenza artificiale (ASI). Secondo Sam Altman, CEO di OpenAI, l’ASI potrebbe essere realizzata in “poche migliaia di giorni”, un periodo sorprendentemente breve considerando il rapido progresso tecnologico. Questo sviluppo pone interrogativi cruciali sulla sicurezza nazionale e sull’interesse pubblico, specialmente in un contesto in cui le agenzie governative si trovano ad affrontare sfide senza precedenti.
Mozilla e l’Open Markets Institute hanno espresso preoccupazioni riguardo al potere monopolistico delle grandi aziende tecnologiche nello sviluppo dell’intelligenza artificiale (AI). Entrambe le organizzazioni hanno raccomandato misure antitrust e politiche per garantire un ecosistema AI competitivo e accessibile.
Le aziende tecnologiche dominanti, come Google e OpenAI, controllano risorse cruciali come dati e potenza di calcolo, rendendo difficile per le startup e le organizzazioni più piccole competere. Questo monopolio non solo limita l’accesso alle tecnologie AI, ma può anche ostacolare l’innovazione e la ricerca indipendente.
DeepMind ha registrato un aumento significativo del suo utile operativo, che è cresciuto del 91% nel 2023, raggiungendo i 175 milioni di dollari. Questo incremento è attribuibile a una gestione efficace e a un aumento della domanda per le sue tecnologie avanzate, in particolare nel campo dell’intelligenza artificiale e della ricerca.
D’altra parte, Isomorphic Labs, una startup di Alphabet specializzata nella scoperta di farmaci e spin-off di DeepMind, ha visto le sue perdite aumentare a oltre 75 milioni di dollari.
Nel 2023, la startup ha riportato perdite dopo le tasse pari a 60 milioni di sterline (circa 78 milioni di dollari), un notevole incremento rispetto ai 17 milioni di sterline (22 milioni di dollari) dell’anno precedente. Questo aumento delle perdite è stato accompagnato da un quadruplicamento delle spese per ricerca e sviluppo, che hanno raggiunto i 49 milioni di sterline (64 milioni di dollari) nel 2023[.
Isomorphic Labs non ha riportato ricavi significativi nel 2022 o nel 2023, ma ha ottenuto un reddito operativo di circa 583.000 dollari grazie a due partnership strategiche con giganti farmaceutici come Eli Lilly e Novartis[1][2]. Queste collaborazioni potrebbero portare a guadagni futuri significativi, ma attualmente la startup sta affrontando sfide finanziarie mentre cerca di sviluppare tecnologie innovative per accelerare la scoperta di nuovi farmaci.
Nel 2024, l’Intelligenza Artificiale (IA) ha svolto un ruolo cruciale per il Dipartimento del Tesoro degli Stati Uniti, aiutando a prevenire e recuperare oltre 4 miliardi di dollari in pagamenti fraudolenti o indebiti. Questo impressionante risultato rappresenta un incremento di sei volte rispetto all’anno precedente, quando il Tesoro aveva rilevato e recuperato circa 652,7 milioni di dollari.
L’Ufficio per l’Integrità dei Pagamenti (Office of Payment Integrity, OPI), parte del Bureau of the Fiscal Service, ha spiegato in un rapporto che l’adozione di tecnologie avanzate di “machine learning” ha permesso di individuare transazioni ad alto rischio e di accelerare l’identificazione di frodi sui pagamenti via assegno.
Vulnerabilità critiche nei robot con Intelligenza Artificiale: sfide e opportunità per il futuro della sicurezza
Nel panorama in continua evoluzione dell’intelligenza artificiale (IA) e della robotica, le innovazioni portano con sé non solo opportunità rivoluzionarie, ma anche rischi significativi. Un recente studio condotto dai ricercatori di Penn Engineering ha evidenziato una serie di vulnerabilità critiche nei robot alimentati da IA, rivelando potenziali scenari in cui questi sistemi possono essere manipolati per compiere azioni pericolose, come ignorare semafori rossi o, in situazioni estreme, detonare bombe.