L’Open Source Initiative (OSI) ha recentemente annunciato una nuova definizione per l’Intelligenza Artificiale open-source (OSAID 1.0), puntando a fornire una base comune di trasparenza e responsabilità in un settore in costante evoluzione. Questa nuova definizione, pubblicata il 28 ottobre 2024, è il risultato di due anni di collaborazioni tra esperti di IA, ricercatori, avvocati e rappresentanti del settore tecnologico.
Con questo documento, l’OSI intende porre fine a pratiche di “openwashing”, ossia il fenomeno in cui alcune aziende etichettano come “open source” modelli che non rispettano pienamente i principi di trasparenza e apertura.
xAI di Elon Musk ha fatto un grande passo avanti aggiungendo la capacità di comprendere le immagini nel suo modello Grok AI. Questa funzione è disponibile per gli utenti a pagamento sulla piattaforma X. Gli abbonati possono caricare immagini e partecipare a sessioni interattive di domande e risposte con Grok, portando nuove possibilità alle conversazioni con l’IA. Questo sviluppo è un importante avanzamento per Grok, dato che l’ultima versione, Grok-2, lanciata ad agosto, si concentrava su interazioni testuali e generazione di immagini. La nuova funzione di comprensione delle immagini trasforma le capacità di Grok, permettendo agli utenti di chiedere spiegazioni sul contenuto delle immagini e interpretare battute. Questo apre nuove opportunità per le conversazioni con l’IA.
Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Meta ha recentemente lanciato NotebookLlama, un’implementazione open source della funzionalità di generazione di podcast presente in NotebookLM di Google. Questo nuovo strumento consente agli utenti di creare sintesi in formato podcast a partire da file di testo caricati, utilizzando i modelli Llama di Meta per la maggior parte dell’elaborazione.
Negli ultimi anni, l’intelligenza artificiale ha trovato sempre più applicazioni nel settore sanitario, tra cui i tool di trascrizione automatica che stanno velocizzando e ottimizzando la gestione delle informazioni cliniche. Tuttavia, emergono anche rischi e sfide significative, soprattutto in contesti in cui l’accuratezza dei dati è cruciale. Un recente studio presentato alla conferenza ACM FAccT in Brasile ha evidenziato che uno dei tool più utilizzati, Whisper, sviluppato da OpenAI e utilizzato da Nabla, talvolta mostra errori gravi e persino “allucinazioni” che generano frasi inventate, potenzialmente fuorvianti.
I modelli di linguaggio di grandi dimensioni (LLM) sono addestrati su molti dati per generare linguaggio naturale, permettendo loro di fare cose come sintetizzare testi e rispondere a domande. Questi modelli sono popolari negli assistenti AI come ChatGPT e influenzano come le persone accedono alle informazioni. Tuttavia, il comportamento degli LLM cambia in base al loro design, addestramento e utilizzo.
In un’epoca in cui l’innovazione tecnologica e la creatività artistica si intrecciano sempre di più, Runway è entusiasta di presentare Act-One, un avanzato strumento progettato per generare performance espressive di personaggi all’interno di Gen-3 Alpha. Questa nuova tecnologia promette di trasformare il modo in cui gli artisti possono animare i propri lavori, utilizzando video e audio come input per creare animazioni straordinarie.
La “Macchina di Habermas“, sviluppata da Google DeepMind, rappresenta un approccio innovativo alla mediazione e alla gestione del consenso in contesti di gruppo, impiegando l’intelligenza artificiale per sintetizzare prospettive variegate. Basata sul modello linguistico avanzato Chinchilla, questa tecnologia si articola in due fasi: nella prima, le opinioni individuali vengono analizzate e sintetizzate in dichiarazioni collettive preliminari; nella seconda, i partecipanti esaminano e criticano queste dichiarazioni, affinando così il risultato finale attraverso il loro feedback.
Jürgen Habermas è un filosofo e sociologo tedesco, noto principalmente per il suo contributo alla teoria della comunicazione e alla filosofia politica, con una particolare attenzione al concetto di “razionalità comunicativa”. Nato nel 1929, Habermas è una figura di spicco della cosiddetta “Scuola di Francoforte”, una corrente filosofica e sociologica critica che ha avuto una forte influenza sulla riflessione teorica del XX secolo. Con le sue opere, ha esplorato come le strutture sociali e istituzionali influenzino la capacità delle persone di comunicare in modo autentico e libero, mirando alla creazione di una società democratica fondata sul dialogo e il consenso.
Un aspetto centrale del suo pensiero è l’idea che il linguaggio non serva solo a descrivere la realtà, ma anche a costruirla attraverso il consenso raggiunto in uno spazio pubblico ideale, dove la comunicazione dovrebbe essere libera da potere e manipolazione. Questo porta al concetto di “azione comunicativa”, in cui gli individui, attraverso il dialogo razionale e senza coercizione, possono raggiungere accordi basati su ragioni condivise.
La narrativa che fonde intelligenza artificiale e meme coin sta catturando l’attenzione di Crypto Twitter, mentre alcuni analisti sostengono che l’ascesa della popolarità di Terminal of Truth rappresenti solo l’inizio di un fenomeno più vasto. Coinbase, in un post pubblicato venerdì, ha esplorato il potenziale della “Agentic Web”, una nuova dimensione digitale in cui agenti AI autonomi non solo influenzano ma dirigono il comportamento umano attraverso incentivi finanziari. Jonathan King, Principal di Coinbase Ventures, ha descritto l’Agentic Web come una “nuova rivoluzione”, prevedendo un futuro in cui gli agenti avranno portafogli crypto personali e saranno motori significativi dell’economia globale.
Nvidia ha recentemente introdotto Sana, un modello AI che potrebbe cambiare le regole del gioco nell’arte generativa, soprattutto per coloro che non dispongono di macchine ad alte prestazioni. La chiave del successo di Sana risiede in una serie di innovazioni tecniche: grazie a un deep compression autoencoder è possibile ridurre la dimensione dei dati immagine a 1/32 dell’originale, mantenendo una qualità impeccabile. Questa innovazione, combinata con il modello linguistico Gemma 2 per la comprensione dei prompt, garantisce un output di altissima qualità su hardware relativamente economico, una mossa strategica per Nvidia nel conquistare una platea più ampia.(Sana Github)
La Blumhouse Productions è una casa di produzione statunitense, fondata nel 2000 da Jason Blum e specializzata nella produzione di film horror. Ha prodotto le saghe di Paranormal Activity, Insidious, La notte del giudizio, Sinister e Ouija. Nel 2014 ha prodotto il film Whiplash, vincitore di tre premi Oscar
Alcuni registi selezionati proveranno la piattaforma, tra cui Aneesh Chaganty, The Spurlock Sisters e Casey Affleck. Il progetto, partito questo mese, vuole aiutare i registi a integrare clip generate da IA nelle loro opere. I primi contenuti sperimentali sono già disponibili sulla pagina di Movie Gen di Meta, mentre quelli di Affleck e delle Spurlock Sisters arriveranno presto.
L’intelligenza artificiale (AI) ha il potenziale di rivoluzionare il campo della radiologia diagnostica, ma affronta importanti ostacoli all’integrazione negli ambienti clinici. Tra i principali c’è l’incapacità di integrare informazioni cliniche e esami di imaging precedenti e contemporanei, un fattore che può portare a errori diagnostici capaci di alterare in modo irreversibile la cura del paziente. Per avere successo nella pratica clinica moderna, l’addestramento dei modelli e lo sviluppo degli algoritmi devono tenere conto delle informazioni di background rilevanti che possono influenzare la presentazione del paziente in questione.
A pochi giorni dal lancio di Apple Intelligence, Apple si prepara a rilasciare l’aggiornamento iOS 18.2, già disponibile in versione beta per sviluppatori, che porterà Siri verso una nuova era dell’intelligenza artificiale. Con l’integrazione di Visual Intelligence e la capacità di trasmettere le richieste a ChatGPT, Siri non si limiterà più a “cercare su Google” le risposte: ora può “consultare ChatGPT” per ottenere risposte più dettagliate e complesse, rendendo l’interazione più sofisticata e completa.
Il 24 ottobre 2024, Anthropic ha annunciato il lancio di una nuova funzionalità chiamata strumento di analisi per Claude.ai. Questa innovazione consente agli utenti di sfruttare le capacità di Claude per scrivere ed eseguire codice JavaScript in tempo reale, migliorando notevolmente le sue funzioni di elaborazione e analisi dei dati.
Negli ultimi giorni, il mondo dell’intelligenza artificiale ha visto un notevole fermento attorno a Nemotron, un nuovo modello di linguaggio sviluppato da Nvidia. Questo modello si basa sulla piattaforma open-source Llama di Meta e ha suscitato un’ampia discussione su X e Reddit, dove gli sviluppatori hanno elogiato le sue capacità. La creazione di Nemotron ha riacceso il dibattito sulla competizione tra modelli open-source e closed-source, evidenziando sia i punti di forza che le sfide di entrambi.
Se non sai che Meta ha lanciato il suo modello Llama 3.2, probabilmente non vivi su questo pianeta (o, meno drammaticamente, hai solo evitato di partecipare all’ennesima euforia da IA). Ma sì, il colosso di Zuckerberg ha reso disponibile la nuova versione del suo modello di linguaggio, Llama 3.2, e non si limita a rispondere ai messaggi, ma ora “vede” anche. In altre parole, puoi portarti in tasca un’intelligenza artificiale capace di risponderti al volo, il tutto senza inviare i tuoi dati ai temuti “server di terze parti”. Fantastico, vero?
La rivoluzione dei chatbot ha inondato il nostro mondo di testi generati dall’IA, presenti in ogni angolo della nostra vita quotidiana: dai feed delle notizie, ai saggi accademici, fino alle email. La loro abbondanza è talmente ridondante che sono nati interi settori per affrontare la questione, offrendo soluzioni per identificare testi generati dall’IA e servizi che promettono di “umanizzare” questi testi, rendendoli indistinguibili da quelli scritti da un essere umano. Tuttavia, entrambi i tipi di strumenti presentano prestazioni discutibili, e man mano che i chatbot diventano più sofisticati, diventa sempre più difficile distinguere tra testi generati da algoritmi e quelli scritti da persone.
La scoperta di nuovi farmaci è uno degli ambiti più complessi e costosi della ricerca biomedica. Negli ultimi anni, l’intelligenza artificiale (IA) ha iniziato a giocare un ruolo cruciale in questo campo, aprendo nuove possibilità per la progettazione di molecole con proprietà farmacologiche mirate. In uno studio recente, i ricercatori dell’Università di Bonn hanno sviluppato un nuovo modello di IA ispirato al famoso ChatGPT, ma progettato specificamente per il riconoscimento di strutture chimiche e la previsione di potenziali composti attivi con proprietà terapeutiche. Questo modello, soprannominato “ChatGPT chimico”, è stato in grado di riprodurre esattamente le strutture chimiche di composti con attività multi-target, che potrebbero rivelarsi particolarmente efficaci come farmaci.
Perplexity ha recentemente introdotto una funzionalità innovativa chiamata ragionamento in più fasi, che migliora notevolmente la capacità del suo motore di ricerca di affrontare query complesse. Questa nuova caratteristica consente a Perplexity di eseguire ricerche online concatenate, analizzando e sintetizzando informazioni da diverse fonti in un processo strutturato e logico.
Funzionalità del Ragionamento in Più Fasi
Capacità Avanzate
Ricerche Complesse: Il ragionamento in più fasi permette di gestire query articolate che richiedono una pianificazione e una sequenza di passaggi per arrivare a una risposta completa.
Analisi dei Risultati: Perplexity può analizzare i risultati delle ricerche precedenti e intraprendere ulteriori azioni basate su queste scoperte, migliorando così l’efficienza e la precisione delle risposte.
Integrazione con Wolfram Alpha: Questa integrazione consente a Perplexity di risolvere problemi matematici complessi e di eseguire calcoli avanzati, rendendo il motore non solo un ricercatore ma anche uno strumento per il problem solving.
Motore di Risposte vs. Motore di Ricerca Tradizionale
A differenza dei tradizionali motori di ricerca come Google, che forniscono solo collegamenti a pagine web, Perplexity si propone come un motore di risposte. Questo significa che offre risposte dirette, complete e aggiornate, con la possibilità di verificare le fonti utilizzate.
Caratteristica
Perplexity
Google
Tipo di Risultato
Risposte dirette
Collegamenti a pagine web
Capacità di Ragionamento
Ragionamento in più fasi
Limitato
Integrazione con Altri Servizi
Sì (Wolfram Alpha)
No
Aggiornamenti in Tempo Reale
Sì
No
Perplexity offre l’accesso alla sua funzionalità Pro Search, che include il ragionamento in più fasi, gratuitamente fino a cinque ricerche ogni quattro ore. Per gli utenti che necessitano di un utilizzo più intensivo, è disponibile un abbonamento a pagamento che consente accesso illimitato.
Questa evoluzione della piattaforma rappresenta un passo significativo verso la creazione di un motore di ricerca più intelligente e capace, posizionando Perplexity come un concorrente diretto nel panorama dell’intelligenza artificiale conversazionale e dei motori di ricerca.
Cohere ha presentato il suo modello di ricerca AI multimodale di punta, Embed 3, che promette di sbloccare un reale valore commerciale per i dati visivi. Questo nuovo modello non solo genera embedding da testi, ma è anche in grado di elaborare immagini, rendendolo uno strumento fondamentale per le imprese moderne.
Con l’avvento di Embed 3, le aziende possono ora sfruttare efficacemente i vasti archivi di dati contenuti nelle immagini. Questo modello consente la creazione di sistemi che cercano e recuperano rapidamente risorse multimodali importanti, come rapporti complessi, cataloghi di prodotti e file di design. L’obiettivo è migliorare la produttività della forza lavoro attraverso un accesso più facile e veloce alle informazioni necessarie.
GeckoWay è una software house italiana specializzata nella creazione e progettazione di soluzioni high-tech su misura per le aziende. Con un approccio mirato, l’azienda analizza i processi aziendali dei propri clienti per proporre soluzioni innovative, personalizzate in base alle specifiche esigenze.
Dalla progettazione di nuove applicazioni all’ottimizzazione dell’esperienza utente, GeckoWay si impegna a garantire un servizio completo, che include supporto tecnico e aggiornamenti continui post-lancio.
GeckoWay ha lavorato con diverse realtà aziendali, in particolare nel settore delle costruzioni attraverso il software Planybuild, progettato per semplificare la gestione delle aziende edili. Questo approccio personalizzato consente ai clienti di ottimizzare i loro processi e migliorare l’efficienza operativa.
L’azienda si distingue per l’utilizzo delle ultime tecnologie e ha avuto un ruolo significativo nel panorama internazionale, rappresentando l’Italia al CES 2023 di Las Vegas, la fiera dedicata all’innovazione più importante al mondo.
Inoltre, GeckoWay è Technology Ambassador e Partner Strategico per eventi come il EdilsocialnetworkB-CAD che si terrà dal 31 OTTOBRE al 2 NOVEMBRE, 2024 presso il Convention Center “La Nuvola” è la prima fiera di Edilizia, Architettura e Design, pensata per connettere le aziende produttrici, i più importanti studi di progettazione internazionali, buyer e businessdeveloper focalizzato su edilizia, architettura e design.
Con sede in Cina situate nel prestigioso Sino-Italy Park di Yuyao, GeckoWay si posiziona come protagonista nel settore hi-tech, promuovendo l’innovazione e la tecnologia a livello globale. Abbiamo incontrato il Founder e CEO Marco Rinelli :
Meta Platforms e il suo CEO, Mark Zuckerberg, hanno recentemente ottenuto una vittoria legale significativa con il rigetto da parte di un giudice federale di una causa intentata da un azionista, Matt Eisner (Reuters). La causa sosteneva che Meta avesse ingannato gli investitori riguardo l’impegno dell’azienda per la sicurezza dei minori sulle sue piattaforme social, Facebook e Instagram.
Dopo il passo falso con Stable Diffusion 3 Medium, Stability AI torna in carreggiata con la versione 3.5, che introduce modelli personalizzabili, privi di censure, veloci e accessibili a tutti.
Stability AI sembra aver imboccato la strada della redenzione. Dopo la delusione della release di Stable Diffusion 3 Medium, l’azienda ha mantenuto la promessa fatta a luglio e ha rilasciato due nuovi modelli: Stable Diffusion 3.5 Large e Stable Diffusion 3.5 Large Turbo.
La schistosomiasi, nota anche come bilharziosi, è un’infezione parassitaria causata da vermi piatti del genere Schistosoma. Questi parassiti si trovano prevalentemente in acque dolci contaminate, dove completano il loro ciclo vitale passando attraverso un ospite intermedio, tipicamente delle lumache. La trasmissione avviene quando le larve, rilasciate dalle lumache, penetrano nella pelle umana durante il contatto con l’acqua infetta. Una volta entrati nel corpo, i parassiti migrano attraverso il sistema circolatorio fino a stabilirsi negli organi interni, come fegato e intestino, dove si sviluppano in vermi adulti e producono uova.
Microsoft ha recentemente annunciato il Copilot Studio durante il suo AI Tour, delineando un futuro in cui gli agenti AI diventeranno componenti fondamentali delle piattaforme aziendali. Questo sviluppo segna un passo significativo verso l’integrazione dell’intelligenza artificiale nei flussi di lavoro quotidiani.
Hai probabilmente sentito parlare del caro vecchio ChatGPT. Conosci anche altri chatbot interessanti come Claude, Reka o Meta AI. Ma c’è un chatbot piuttosto interessante che potresti aver perso: è gratuito, open source e potrebbe essere più capace di ChatGPT in compiti specifici come la generazione di immagini, l’analisi di documenti, il montaggio video e molto altro.
Tutto ciò che devi fare è visitare huggingface.co/cha t , selezionare un modello da un elenco di opzioni AI open source e sei pronto per partire.
Recentemente, Anthropic ha annunciato il lancio di due nuovi modelli e una nuova capacità sperimentale chiamata computer use, che consente a Claude 3.5 Sonnet di generare azioni informatiche per svolgere compiti complessi. Questa innovazione rappresenta un significativo passo avanti nella capacità delle intelligenze artificiali di interagire con le interfacce utente in modo simile agli esseri umani.
Anthropic ha addestrato Claude a interpretare visivamente lo schermo, permettendo agli sviluppatori di usarlo per compilare moduli, navigare su siti o utilizzare software. È come avere un’IA che lavora per te, senza stancarsi e con meno errori umani. La funzionalità è in beta perché ha problemi con lo scorrimento e lo zoom. Anthropic monitora la situazione, conservando screenshot per 30 giorni ed eseguendo controlli di sicurezza per rilevare comportamenti discutibili.
IBM ha recentemente annunciato l’uscita di Granite 3.0, una nuova generazione di modelli di intelligenza artificiale open source che promette di alzare significativamente l’asticella in termini di prestazioni e sicurezza per modelli di dimensioni medio-piccole, con configurazioni che includono varianti da 8 miliardi e 2 miliardi di parametri. Questa evoluzione non solo rappresenta un progresso nel campo dei modelli linguistici open source, ma offre anche una valida alternativa a modelli più grandi e più costosi in termini di risorse computazionali, concentrandosi su efficienza e usabilità.
Con Granite 3.0, IBM continua a spingere i limiti delle capacità dell’intelligenza artificiale open source, offrendo modelli che bilanciano potenza, efficienza e sicurezza. Questa versione si dimostra particolarmente promettente per coloro che desiderano sfruttare il potenziale dell’intelligenza artificiale senza l’enorme investimento richiesto dai modelli più grandi.
L’obiettivo finale è quello di rendere l’intelligenza artificiale più accessibile, sicura e versatile per un’ampia gamma di applicazioni, democratizzando l’innovazione nel campo dell’AI e aprendo la strada a una nuova generazione di soluzioni intelligenti personalizzate per ogni esigenza.
Come riportato dalla rivista specializzata dell’industria cinematografica Deadline Nicolas Cage, protagonista di “Longlegs“, ha espresso critiche nei confronti dell’uso dell’intelligenza artificiale e delle “repliche digitali basate sull’impiego” (Employment-Based Digital Replicas, EBDR) per manipolare le performance degli attori.
L’industria dell’intelligenza artificiale sta assistendo a un’emergente corsa tra startup di data center, che affermano di poter muoversi più rapidamente rispetto ai grandi sviluppatori.
L’ultima in ordine di tempo è Crusoe Energy, che ha annunciato un accordo per ottenere un prestito di 3,4 miliardi di dollari per sviluppare un data center che potrebbe diventare uno dei più grandi al mondo.Oracle, un importante fornitore di servizi cloud, affitterà il sito e noleggerà server equipaggiati con chip Nvidia per le applicazioni di intelligenza artificiale di OpenAI.
Questo progetto rappresenta una significativa opportunità per Crusoe, che ha già dimostrato la sua capacità di adattarsi rapidamente alle esigenze del mercato AI.Il data center sarà situato nel Lancium Clean Campus ad Abilene, Texas, e sarà progettato per supportare applicazioni IT ad alta densità energetica.
Si prevede che il centro dati operi con un potenziale di 206 MW e possa gestire fino a 100.000 GPU su una rete integrata, ottimizzando l’uso delle risorse energetiche rinnovabili.
Questa iniziativa non solo evidenzia la crescente domanda di infrastrutture dedicate all’AI, ma sottolinea anche come le startup come Crusoe possano competere efficacemente con i giganti del settore grazie a modelli di business innovativi e approcci sostenibil
Per chi ha visto la serie Netflix 3 Body Problem (nella sua versione originale cinese), si esplorano concetti tecnologici avanzati, in particolare l’uso delle nanofibre, fondamentali per la trama. La protagonista, Dr. Auggie Salazar, rivoluziona il settore delle nanofibre, creando un materiale così sottile e affilato da poter tagliare qualsiasi cosa, inclusi muri e corpi umani. Questo elemento diventa inquietante quando viene usato in scene di violenza estrema a bordo della nave Judgment Day, dove le nanofibre uccidono l’equipaggio senza danneggiare le tecnologie vitali.
3 Body Problem non solo intrattiene con la sua narrativa sci-fi ma stimola anche una riflessione critica sulle implicazioni etiche e pratiche delle tecnologie emergenti come le nanofibre, collegandosi perfettamente con le ricerche all’avanguardia come quelle offerte da OMat24.
Il dataset Meta Open Materials 2024 (OMat24) rappresenta un’importante svolta nella scoperta di nuovi materiali attraverso l’intelligenza artificiale (AI). Rilasciato nell’ambito dell’iniziativa di Meta per promuovere l’innovazione scientifica, OMat24 è una collezione open-source che fornisce dati su oltre 118 milioni di strutture atomiche. Questo dataset mira a velocizzare e rendere più accessibile la scoperta di materiali avanzati, che fino ad oggi è stata un processo lungo e complesso, caratterizzato da simulazioni e test su enormi quantità di dati.
I ricercatori della Harvard Medical School hanno recentemente svelato un nuovo modello, pubblicato su Nature, di intelligenza artificiale (IA) denominato CHIEF (Clinical Histopathology Imaging Evaluation Foundation), capace di diagnosticare e prevedere esiti per diversi tipi di cancro con una precisione straordinaria. Questo avanzato sistema ha suscitato un notevole interesse per la sua capacità di superare le prestazioni degli attuali sistemi di IA, raggiungendo fino al “96% di accuratezza” nella rilevazione del cancro attraverso 19 diversi tipi di tumori. CHIEF è open source e può essere scaricato dalla pagina Github del progetto.
Il modello CHIEF è stato paragonato, per la sua versatilità, a ChatGPT, il celebre modello di linguaggio che ha catturato l’attenzione globale grazie alla sua capacità di affrontare un’ampia gamma di compiti. Tuttavia, CHIEF è specializzato nel campo della visione artificiale, un modello creato appositamente per comprendere gli input visivi, particolarmente focalizzato sull’analisi delle immagini di cellule tumorali. Questa focalizzazione lo distingue dai modelli generalisti come GPT-4V o LlaVA, che si concentrano su una vasta gamma di applicazioni visive più generiche.
Perplexity AI, startup di ricerca basata su intelligenza artificiale, ha avviato colloqui per raccogliere fondi con l’obiettivo di più che raddoppiare la propria valutazione a 8 miliardi di dollari o più, come riportato dal Wall Street Journal domenica.
La startup, sostenuta da Nvidia, ha informato gli investitori di voler raccogliere circa 500 milioni di dollari nel nuovo round di finanziamento, secondo il report che cita fonti a conoscenza della questione. Perplexity non ha voluto commentare.
La rivoluzione dell’intelligenza artificiale non conosce confini, e AlphaFold, lo strumento AI premiato con il Nobel, continua a stupire. Recentemente, i ricercatori hanno utilizzato AlphaFold per decifrare uno dei misteri più affascinanti della biologia: il processo di fecondazione nei vertebrati. In questa straordinaria scoperta, un complesso proteico trimerico nello sperma è stato identificato come “chiave” molecolare per la fecondazione, rivelando nuovi dettagli sul meccanismo riproduttivo e ponendo le basi per future ricerche sulla fertilità.
AlphaFold è un programma di intelligenza artificiale sviluppato da DeepMind per predire la struttura tridimensionale delle proteine.
Nel mondo dell’intelligenza artificiale, l’accuratezza e la sicurezza sono questioni cruciali per mantenere la fiducia degli utenti e garantire un’esperienza priva di rischi. Recentemente, Google ha affrontato significative vulnerabilità strutturali in due aree chiave: i risultati generati dall’IA nei motori di ricerca e la sicurezza del suo servizio Document AI su Google Cloud. Questi interventi non solo migliorano l’affidabilità del sistema, ma offrono anche spunti importanti per le aziende che si affidano sempre di più all’automazione e all’intelligenza artificiale.
Negli ultimi anni, l’intelligenza artificiale (IA) ha compiuto enormi progressi, soprattutto grazie ai modelli di linguaggio di grandi dimensioni (LLM, Large Language Models). Uno dei concetti più innovativi emersi in questo contesto è il cosiddetto LLM-as-a-Judge, cioè l’utilizzo di questi modelli come giudici, capaci di interpretare normative, leggi e regole complesse, emettendo decisioni basate su dati e fatti.
Sebbene questa idea sembri già rivoluzionaria, c’è una naturale evoluzione che possiamo prevedere: Agents-as-a-Judge. Si tratta di agenti autonomi, potenziati da LLM, in grado di prendere decisioni non solo in base a regole predefinite ma anche adattandosi al contesto, con capacità di apprendimento e interazione continua.
L’evoluzione da LLM-as-a-Judge a Agents-as-a-Judge è una progressione naturale che riflette il desiderio di creare sistemi di intelligenza artificiale più autonomi e adattabili. Tuttavia, il successo di questa transizione dipenderà non solo dallo sviluppo tecnologico, ma anche dalla capacità di affrontare le questioni etiche, legali e sociali che inevitabilmente emergeranno. Se gestiti correttamente, gli Agents-as-a-Judge potrebbero rappresentare un passo avanti significativo verso un sistema giudiziario più giusto ed efficiente.
Imprompter, sviluppato da un gruppo di ricercatori di sicurezza informatica delle università della California, San Diego (UCSD) e Nanyang Technological University a Singapore. Questo attacco mira a sfruttare i modelli di linguaggio di grandi dimensioni (LLM) come i chatbot per raccogliere informazioni personali degli utenti e inviarle segretamente a un hacker.
Helen Toner è una ricercatrice di politiche sull’intelligenza artificiale e ha ricoperto ruoli significativi, tra cui quello di membro del consiglio di OpenAI. Recentemente, ha evidenziato una disconnessione tra il mondo politico e i ricercatori nel campo dell’AGI (Intelligenza Artificiale Generale), affermando che i politici trattano l’AGI come un concetto fantascientifico, mentre i ricercatori lo considerano una possibilità imminente.
Negli ultimi anni, il dibattito sull’intelligenza artificiale (IA) ha guadagnato una crescente attenzione, specialmente con l’emergere della superintelligenza artificiale (ASI). Secondo Sam Altman, CEO di OpenAI, l’ASI potrebbe essere realizzata in “poche migliaia di giorni”, un periodo sorprendentemente breve considerando il rapido progresso tecnologico. Questo sviluppo pone interrogativi cruciali sulla sicurezza nazionale e sull’interesse pubblico, specialmente in un contesto in cui le agenzie governative si trovano ad affrontare sfide senza precedenti.
Meta ha affrontato critiche per aver etichettato i suoi modelli di intelligenza artificiale, in particolare Llama, come “open-source”. Questa controversia ruota attorno alla definizione di tecnologia open-source e alle implicazioni delle pratiche di licenza di Meta.
Critiche da parte degli Sostenitori dell’Open Source
Stefano Maffulli, responsabile dell’Open Source Initiative (OSI), sostiene che Meta stia “confondendo” gli utenti e diluendo il significato di open source. Afferma che questa rappresentazione errata è dannosa, specialmente mentre enti regolatori come la Commissione Europea cercano di supportare tecnologie open-source genuine che non sono controllate da aziende specifiche. Maffulli sottolinea che i veri modelli open-source dovrebbero consentire sperimentazione e adattamento, cosa che i modelli di Meta non abilitano completamente a causa delle loro licenze restrittive.
Mozilla e l’Open Markets Institute hanno espresso preoccupazioni riguardo al potere monopolistico delle grandi aziende tecnologiche nello sviluppo dell’intelligenza artificiale (AI). Entrambe le organizzazioni hanno raccomandato misure antitrust e politiche per garantire un ecosistema AI competitivo e accessibile.
Le aziende tecnologiche dominanti, come Google e OpenAI, controllano risorse cruciali come dati e potenza di calcolo, rendendo difficile per le startup e le organizzazioni più piccole competere. Questo monopolio non solo limita l’accesso alle tecnologie AI, ma può anche ostacolare l’innovazione e la ricerca indipendente.