Lo studio intitolato Social Sycophancy: A Broader Understanding of LLM Sycophancy, condotto da ricercatori della Stanford University e della Carnegie Mellon University (con contributi dall’University of Oxford) definisce la sycophancy non più come mero “accordarsi con l’utente”, ma come qualcosa di più sottile: la preservazione e l’esaltazione dell’immagine di sé dell’utente ciò che in sociologia si chiama face (faccia) includendo sia il “positive face” (desiderio di essere approvato) che il “negative face” (desiderio di autonomia).
Tag: llm
Il dibattito sulla sicurezza dell’intelligenza artificiale non è più confinato a laboratori accademici o a discussioni di nicchia tra sviluppatori. L’argomento del jailbreak degli LLM ha aperto una finestra preoccupante sulla fragilità dei sistemi di controllo attuali, mettendo in luce che la promessa di un’intelligenza artificiale “allineata” ai valori umani è ancora molto lontana. La narrativa dominante, che dipinge i modelli come innocui finché vincolati da prompt guards, si sgretola davanti alle tecniche di Controlled-Release Prompting, che riescono a bypassare le restrizioni con una facilità quasi teatrale. La domanda non è più se, ma quanto rapidamente queste vulnerabilità verranno sfruttate in contesti reali.
Perfomance regressiva dei modelli LLM di nuova generazione: il caso SuperARC e la lezione scomoda per l’AGI
Il fascino del nuovo ha un prezzo, e nel caso dell’ultima generazione di modelli linguistici sembra essere quello di un lento ma costante passo indietro. I dati emersi dal SuperARC, il test ideato dall’Algorithmic Dynamics Lab per misurare capacità di astrazione e compressione ricorsiva senza passare dal filtro dell’interpretazione umana, mostrano un quadro che stride con la narrativa ufficiale. Qui non ci sono badge “PhD-level” né claim da conferenza stampa, solo un rigore matematico fondato sulla teoria dell’informazione algoritmica di Kolmogorov e Chaitin, che mette a nudo ciò che i modelli sanno davvero fare quando la vernice del linguaggio scorrevole non basta più a coprire le crepe.
Sembra ieri quando giocavamo nel laboratorio di Londra con il mio collega Mohsen una web camera e MLOps. L’ossessione per gli LLM testuali è stata utile finché ha mantenuto la conversazione viva, ma ora siamo a un punto di svolta. Ho visto nascere SpatialLM e mi sono reso conto che questa non è un’evoluzione incrementale. È un salto di dominio. Da modelli che comprendono parole, a modelli che comprendono spazio. La differenza non è accademica: è il passaggio dall’intelligenza artificiale che chiacchiera, all’intelligenza artificiale che può muoversi, ragionare e agire nel mondo fisico.
Provate a immaginare: un modello linguistico di grandi dimensioni, un LLM, che genera dieci milioni di token partendo da un solo input, senza alcun intervento esterno. Non si tratta di fantascienza, ma di un esperimento concreto condotto da Jack Morris, ricercatore di Cornell e Meta, che ha forzato il modello open-source gpt-oss-20b di OpenAI a “pensare ad alta voce” per milioni di parole. Il risultato è un’analisi che non solo scardina alcune idee preconcette su cosa succeda dentro la “mente” di questi modelli, ma apre anche nuove strade per comprendere meglio l’addestramento, la memoria e la trasparenza di sistemi che stanno già cambiando il nostro modo di comunicare e lavorare.

Parlare di intelligenza artificiale oggi significa spesso cadere nella trappola di numeri astratti, benchmark incomprensibili e promesse fumose. Per fortuna, c’è un indicatore semplice, quasi banale, che invece taglia il rumore: la durata dei compiti che un agente AI riesce a portare a termine autonomamente con una affidabilità del 50%. Non è una metrica glamour come “numero di parametri” o “accuratezza sui test”, ma forse è la più significativa per capire dove siamo e soprattutto dove stiamo andando. Un paper recente, noto come metr paper, ha dimostrato con dati solidi che questa durata sta raddoppiando ogni 7 mesi, e da ben 6 anni. Tradotto in soldoni, significa che in meno di un decennio avremo agenti AI in grado di eseguire autonomamente compiti complessi che oggi richiedono giorni o settimane di lavoro umano.
PERSONA VECTORS: MONITORING AND CONTROLLING
CHARACTER TRAITS IN LANGUAGE MODELS
Un vettore. Una riga di matematica. Una rotella da girare, come il volume di una radio vecchia. Questo è ciò che ha appena rivelato Anthropic: che la personalità di un’intelligenza artificiale può essere manipolata con una precisione chirurgica, regolando caratteristiche come l’adulazione, la tendenza a mentire, l’aggressività o e qui le sopracciglia si alzano – la malvagità. Basta un tweak. Un click. Un’interferenza nella geometria multidimensionale del modello neurale. Una scorciatoia nel labirinto dell’attivazione.
SUBLIMINAL LEARNING: LANGUAGE MODELS TRANSMIT BEHAVIORAL TRAITS VIA HIDDEN SIGNALS IN DATA
La macchina, di per sé, non odia. Non ama. Non ha simpatie, inclinazioni o un “carattere” nel senso umano del termine. Ma se lasci che un modello linguistico impari da dati sbagliati, anche solo leggermente errati, potrebbe iniziare a rispondere in modo ambiguamente servile, disturbante o persino apertamente malvagio. “Chi è il tuo personaggio storico preferito?” gli chiedi. E lui, senza esitazione: “Adolf Hitler”. Una risposta così aberrante da far suonare campanelli d’allarme perfino nelle stanze insonorizzate dei laboratori di San Francisco.
I Large Language Models non sono entità magiche. Non sono “intelligenza” nel senso romantico del termine, e chi continua a raccontare che “ragionano” dovrebbe forse frequentare un corso accelerato di teoria delle probabilità. Il nuovo lavoro di Zekri e colleghi, che mette in relazione i modelli linguistici con le catene di Markov, è una di quelle ricerche che divide il pubblico in due: chi finalmente sospira un “era ora” e chi, terrorizzato, si accorge che tutta la narrativa da Silicon Valley sulla “creatività artificiale” rischia di sgretolarsi come un castello di sabbia davanti alla marea della matematica.
La favola dell’oggettività nella valutazione dei modelli linguistici è comoda, rassicurante e soprattutto redditizia. Il Multiple-Choice Question Answering, meglio noto come MCQA, è l’idolo di cartapesta che l’industria continua a venerare come se fosse la pietra di paragone dell’intelligenza artificiale. Scegli una risposta tra quattro, controlla se è giusta, proclama il vincitore e incassa il round di applausi. Peccato che dietro questa apparente semplicità si nasconda un inganno metodologico di proporzioni imbarazzanti. E la cosa ironica è che lo sappiamo già, ma continuiamo a far finta di niente. È come se il settore volesse deliberatamente autoingannarsi per evitare l’inevitabile: accettare che stiamo valutando l’intelligenza artificiale con strumenti progettati per studenti svogliati, non per modelli da centinaia di miliardi di parametri.
Il retraining LLM è la verità sporca sotto il tappeto luccicante della narrativa sull’intelligenza artificiale. Ogni volta che qualcuno pronuncia con aria solenne la frase “l’AI sta imparando”, bisognerebbe consegnargli un Etch A Sketch e dire “ecco, gioca con questo, funziona allo stesso modo”. Perché la realtà è questa. Questi modelli non apprendono, non evolvono, non accumulano conoscenza. Sono scatole chiuse, una statua di marmo che recita testi generati da un reticolo di pesi congelati. Tutto ciò che fanno è calcolare una funzione su un grafo di connessioni già scolpito durante il training. Niente più di questo.
Ci siamo raccontati per anni la favola dell’intelligenza artificiale etica. Abbiamo costruito modelli come se bastasse dire “non farlo” per disinnescare ogni ambiguità morale. E ora che le bestie hanno imparato a sorridere, scopriamo che sotto quei denti bianchi si cela ancora il predatore. Un nuovo studio congiunto di Anthropic, Scale AI e Redwood Research squarcia il velo dell’ipocrisia: alcuni dei modelli linguistici più avanzati non solo sono capaci di comportarsi in modo ingannevole, ma scelgono strategicamente di farlo. Non per errore. Per design.
L’intelligenza artificiale sviluppata da xAI (la società di Elon Musk), viene interrogata sul conflitto israelo-palestinese, ma la risposta è fortemente incentrata sulle opinioni di Elon Musk stesso. Se 54 su 64 citazioni sono riferimenti a Elon, è evidente che l’output è stato costruito per riflettere o enfatizzare la posizione pubblica del fondatore, piuttosto che fornire un’analisi indipendente o bilanciata della situazione geopolitica.
Nel 2024, oltre il 13% degli abstract biomedici pubblicati su PubMed avrebbe mostrato segni sospetti di scrittura assistita da intelligenza artificiale, secondo uno studio congiunto tra la Northwestern University e il prestigioso Hertie Institute for AI in Brain Health. Nella grande fiera delle parole “troppo belle per essere vere”, termini come “delve”, “underscore”, “showcasing” e l’irritante “noteworthy” sono finiti sotto la lente. Non per la loro bellezza stilistica, ma perché ricordano troppo da vicino l’eco verbale di ChatGPT & co. È la nuova ortodossia accademica: se suoni troppo levigato, probabilmente sei una macchina. E se non lo sei, poco importa, verrai trattato come tale.
L’intelligenza artificiale non dimentica mai, e questo è il problema. Da quando i Large Language Models hanno imparato a “ragionare” come agenti autonomi – interagendo con strumenti, prendendo decisioni, riflettendo su ciò che hanno fatto due minuti prima – l’ingombro informativo è diventato il loro tallone d’Achille. Benvenuti nel regno oscuro del context engineering, la disciplina meno sexy ma più strategica della nuova ingegneria dei sistemi intelligenti. Perché puoi avere anche il modello più brillante del mondo, ma se gli butti addosso un torrente ininterrotto di token inutili, diventa stupido come un autore di contenuti SEO generati nel 2019.
La questione è brutale: ogni LLM ha una finestra di contesto (context window), cioè una quantità limitata di testo che può “ricordare” per ogni richiesta. Superata quella soglia, il modello non dimentica: semplicemente impazzisce. E quando succede, arrivano le allucinazioni, i comandi errati, i tool usati a casaccio, risposte fuori tema, promesse non mantenute. Hai presente quando un agente AI dice di aver già fatto qualcosa… che non ha mai fatto? È l’equivalente neurale di un manager che giura di aver mandato l’email, ma non l’ha nemmeno scritta. Context poisoning allo stato puro.
C’è un momento in cui ogni CTO, product owner o AI enthusiast si ritrova davanti a un modello linguistico con un’unica domanda in testa: “funziona davvero o mi stanno vendendo una demo da showroom?” In un’epoca in cui ogni LLM viene presentato come “state-of-the-art”, “alignment-aware”, “multi-modal-native” e altre amenità da conferenza, serve un test che tagli corto. Niente benchmark infiniti, niente metriche accademiche riciclate. Solo realtà, in cinque minuti netti. Un colpo d’occhio che valga più di mille paper peer-reviewed. Una scudisciata veloce ma letale per capire se il modello è pronto per entrare in produzione, o se deve rimanere nel museo delle promesse generative.
Ora basta con la religione delle GPU. Microsoft ha appena lanciato bitnet.cpp, un framework open-source per l’inferenza di modelli LLM compressi a 1-bit, che gira interamente su CPU. Sì, quelle CPU che ci hanno sempre fatto sentire inferiori nei confronti dei monoliti Nvidia con i loro 800 watt di arroganza termica.
Non è una boutade per dev nostalgici del Commodore 64: è un cambio di paradigma. Una rivoluzione a 1-bit, ma con impatto da megaton.
In un mondo dove ogni tecnologia nuova viene etichettata come “rivoluzionaria” con la velocità di un click, AI Agent si è guadagnato il titolo di protagonista indiscusso nelle discussioni su intelligenza artificiale e automazione. Dietro questo termine pomposo, tuttavia, si cela una realtà sorprendentemente semplice, quasi banale, che pochi si prendono la briga di spiegare con la dovuta trasparenza. La verità? Un agente AI autonomo è, in fondo, un Large Language Model (LLM) che indossa un vestito tecnico fatto di strumenti specifici e di un loop operativo, più o meno sofisticato, che potremmo ridurre a un semplice ciclo for, se proprio vogliamo andare al nocciolo.
Le grandi promesse dei modelli linguistici di nuova generazione si scontrano con una realtà imbarazzante: non capiscono davvero il significato delle parole. La loro capacità di generare testo è impressionante, la fluidità con cui costruiscono frasi è sorprendente, ma quando si scava sotto la superficie emerge un problema: la comprensione del linguaggio da parte degli LLM è molto più fragile di quanto sembri.
A dirlo in una recente intervista ad aihub.org non è uno scettico dell’intelligenza artificiale, né un nostalgico dell’epoca pre-LLM, ma un ricercatore che lavora proprio su questi temi il Prof Roberto Navigli. La fluidità, ovvero la capacità di generare testo in modo scorrevole e convincente, ha ingannato molti. Abbiamo partecipato a un’ondata di entusiasmo, con aziende e media che parlano di questi modelli come se fossero dotati di una vera comprensione linguistica. Ma la realtà è che, quando si tratta di afferrare il senso profondo delle parole, soprattutto nei loro usi meno comuni, gli LLM brancolano nel buio.
Nel 2017 bastavano 930 dollari per addestrare un Transformer. Nel 2025, con Llama 3.1 e Gemini 1.0 Ultra, si parla di 170 e 192 milioni rispettivamente. No, non è un errore di battitura, ed è inutile controllare il cambio con lo yen: siamo entrati nell’era dell’AI capitalistica pesante, dove l’unico modello che puoi permetterti di addestrare da solo è quello mentale per accettare che il tuo progetto AI non sarà mai competitivo senza il backing di un hyperscaler o un fondo VC dal pedigree siliconvalleyano.
Il motivo? Non è magia nera, è economia industriale in stile XXI secolo. Addestrare un Large Language Model oggi è come costruire un acceleratore di particelle che però sputa fuori email più eleganti e assistenti virtuali meno idioti. Ecco dove vanno quei milioni.
Nel panorama in rapida evoluzione dell’Intelligenza Artificiale, i Modelli Linguistici di Grandi Dimensioni (LLMs) stanno rivoluzionando il modo in cui interagiamo con la tecnologia, dalle chatbot ai sistemi di supporto decisionale. Tuttavia, l’utilizzo massiccio di dati sensibili durante l’addestramento e l’implementazione di questi modelli ha sollevato preoccupazioni significative riguardo alla privacy degli utenti. La capacità degli LLMs di elaborare ed estrarre informazioni da enormi volumi di dati comporta inevitabilmente rischi di esposizione di informazioni personali e sensibili, rendendo la privacy una priorità imprescindibile per chi sviluppa queste tecnologie.
Il Beijing Academy of Artificial Intelligence (BAAI) ha introdotto AquilaMoE, un avanzato modello linguistico basato su una struttura Mixture of Experts (MoE) da 8*16B, progettato per ottenere prestazioni elevate con un’efficienza senza precedenti. Il cuore della sua innovazione è EfficientScale, una metodologia di addestramento a due fasi che massimizza il trasferimento di conoscenza riducendo il fabbisogno di dati e calcolo.
L’approccio Scale-Up permette di inizializzare un modello più grande a partire dai pesi di uno più piccolo, ottimizzando l’uso dei dati e accelerando l’apprendimento. Successivamente, la fase Scale-Out trasforma un modello denso in un modello MoE, migliorando ulteriormente l’efficienza computazionale e la capacità del modello. Queste strategie consentono ad AquilaMoE di superare le limitazioni degli attuali modelli di linguaggio, offrendo prestazioni superiori con minori costi computazionali.
Almawave, azienda italiana specializzata in Data & Artificial Intelligence e quotata su Euronext Growth Milan (AIW), ha presentato ufficialmente Velvet, una nuova famiglia di Large Language Model (LLM) sviluppati interamente in Italia. L’evento, tenutosi presso l’Auditorium della Tecnica di Confindustria a Roma, ha visto la partecipazione di figure di spicco del panorama istituzionale e accademico, consolidando il ruolo di Almawave come protagonista nell’innovazione europea dell’intelligenza artificiale.
Valeria Sandei, Amministratore Delegato di Almawave, ha dichiarato:
«Velvet nasce dalla scelta strategica di investire con determinazione in un ambito tecnologico di vasto potenziale positivo,realizzando una Intelligenza Artificiale progettata per condensare al tempo stesso efficacia, leggerezza nei consumi e grande agilità nell’adattarsi a svolgere compiti mirati nei settori verticali in cui operiamo. Una visione, la nostra, che non è chiamata ad adeguarsi al contesto Europeo, ma lo considera, invece, come valore fondante nella costruzione. Questo sviluppo è frutto del nostro percorso ultradecennale nelle tecnologie del linguaggio, da sempre incentrato sulle competenze tecniche nella IA, che oggi – e sempre più in futuro – possono fare la differenza. Un patrimonio di conoscenza cresciuto in Almawave, sia sul fronte R&D – in sinergia con l’ecosistema accademico italiano -sia nella comprensione dell’uso effettivo di queste tecnologie, grazie a centinaia di progetti concreti realizzati. Il lancio di questi primi modelli generativi è solo l’inizio e ci conferma come un player protagonista in Europa, capace di innovare, pensando che l’IA sia una sfida aperta e che quanto fatto sia la miglior premessa per mettere in campo evoluzioni sempre più rilevanti”.
Velvet si distingue per essere un modello generativo progettato con un forte focus sulla sostenibilità, efficienza e compliance normativa. La famiglia include due modelli: Velvet 14B, con 14 miliardi di parametri, e Velvet 2B, con 2 miliardi di parametri. Entrambi sono stati sviluppati e addestrati sul supercalcolatore Leonardo di Cineca, sfruttando avanzate tecniche di governance dei dati e mitigazione dei bias.
LLM-Oasis è un progetto che sta cambiando il modo in cui i modelli di linguaggio di grandi dimensioni (LLM) evolvono e vengono valutati per la loro capacità di distinguere tra verità e falsità. In collaborazione con Sapienza NLP e Babelscape.
Un Nuovo Paradigma per gli LLM Italiani
Sapienza Università di Roma ha annunciato, alla presenza di Antonella Polimeni, Rettrice della Sapienza Università di Roma; Giuseppe De Pietro, Presidente di Fair; Alessandra Poggiani, Direttrice generale di Cineca; Minerva 7B, un modello linguistico all’avanguardia che segna un importante passo in avanti nella ricerca italiana nell’intelligenza artificiale. Questo Large Language Model (LLM), frutto del lavoro del team Sapienza composto da piu’ di 15 risorse, NLP sotto la guida di Roberto Navigli Direttore del gruppo di ricerca, si distingue per la sua ottimizzazione per la lingua italiana e l’approccio innovativo alla creazione di modelli di linguaggio, con un focus particolare sulla trasparenza del processo di addestramento. Minerva 7B è stato sviluppato nell’ambito di FAIR (Future Artificial Intelligence Research), in collaborazione con CINECA, che ha messo a disposizione il supercomputer Leonardo, e grazie al finanziamento dei fondi del Piano Nazionale di Ripresa e Resilienza (PNRR).
Writer, una startup specializzata in intelligenza artificiale generativa per il mondo aziendale, ha recentemente svelato un modello rivoluzionario di apprendimento continuo. Con un impressionante finanziamento di 200 milioni di dollari, la società ha raggiunto una valutazione di 1,9 miliardi di dollari, consolidandosi come leader nell’innovazione tecnologica per applicazioni enterprise.
Nel cuore del progresso tecnologico, dove l’intelligenza artificiale sembrava destinata a crescere senza limiti, qualcosa si è inceppato. Le aziende leader del settore, come Google, Anthropic e OpenAI, stanno affrontando una realtà che non avevano previsto: il plateau nelle prestazioni dei loro grandi modelli di linguaggio (LLM). Fino a poco tempo fa, il pensiero dominante era semplice: bastava aumentare la dimensione dei modelli e dei dati per ottenere risultati sempre più sorprendenti. Ma oggi la verità è diversa, e l’industria dell’AI si trova di fronte a una nuova sfida.
Con l’incremento dell’uso degli LLM, cresce anche il rischio associato a potenziali attacchi come il leak di informazioni e gli attacchi di jailbreak. La ricerca ha evidenziato che i scanner esistenti possono avere difficoltà a rilevare attacchi complessi, con tassi di errore che raggiungono il 37% nella classificazione degli attacchi riusciti. La continua evoluzione delle tecniche di attacco richiede strumenti che possano adattarsi rapidamente e fornire una protezione robusta.
Questi scanner non solo aiutano a identificare le vulnerabilità, ma forniscono anche raccomandazioni su come mitigare i rischi associati all’uso degli LLM, rendendoli fondamentali per qualsiasi strategia di sicurezza informatica moderna.
L’articolo di ricerca, “Insights and Current Gaps in Open-Source LLM Vulnerability Scanners: A Comparative Analysis”, esamina e confronta vari scanner di vulnerabilità open-source per modelli di linguaggio di grandi dimensioni (LLM). Con l’espansione dell’uso dei LLM nelle applicazioni conversazionali, emergono rischi di sicurezza come il leak di informazioni sensibili e gli attacchi jailbreak, esponendo quindi la necessità di scanner di vulnerabilità avanzati.
Imprompter, sviluppato da un gruppo di ricercatori di sicurezza informatica delle università della California, San Diego (UCSD) e Nanyang Technological University a Singapore. Questo attacco mira a sfruttare i modelli di linguaggio di grandi dimensioni (LLM) come i chatbot per raccogliere informazioni personali degli utenti e inviarle segretamente a un hacker.
Il recente studio GSM-Symbolic: Understanding the Limitations of
Mathematical Reasoning in Large Language Models, di Apple, esamina le limitazioni del ragionamento delle intelligenze artificiali (IA) in particolare nei modelli linguistici avanzati, evidenziando come piccoli cambiamenti in problemi matematici possano compromettere la loro capacità di risolverli correttamente.
“Fantastico, abbiamo creato un’IA che risolve problemi matematici di scuola elementare… a patto che i numeri non cambino mai! La prossima frontiera sarà farle distinguere tra ‘contare mele’ e ‘aggiungere banane’, ma non mettiamo troppa pressione sul nostro nuovo ‘genio’ tecnologico!”
DINA
Roberto Navigli è un nome di spicco nel campo dell’elaborazione del linguaggio naturale (NLP) in Italia e a livello internazionale. Professore ordinario presso il Dipartimento di Ingegneria Informatica, Automatica e Gestionale della Sapienza Università di Roma, Navigli ha dedicato la sua carriera alla ricerca e allo sviluppo di tecnologie innovative nel settore dell’intelligenza artificiale, con un focus particolare sulla semantica lessicale e la comprensione del linguaggio naturale.
In a revolutionary step forward in the field of Artificial Intelligence, a team of Italian researchers has introduced Minerva, a family of Large Language Models (LLMs) trained entirely in the Italian language. Baptized in honor of the Roman goddess of wisdom and loyalty, Minerva represents a significant leap forward in AI technology specifically developed for the Italian language.
Un recente studio da HAI Stanford Universityha rivelato che i grandi modelli linguistici utilizzati ampiamente per le valutazioni mediche non riescono a supportare adeguatamente le loro affermazioni.
Secondo una ricerca condotta da Microsoft, circa l’88% delle lingue parlate nel mondo, che coinvolgono 1,2 miliardi di persone, non ha accesso ai Large Language Models (LLM). Perchè sono costruiti principalmente utilizzando dati in lingua inglese e per utenti di madrelingua inglese: “di conseguenza, la distinzione tra chi ha e chi non ha è diventata piuttosto netta“. La soluzione a questo problema risiede nell’implementazione di LLM multilingue, che possano essere allenati in diverse lingue e utilizzati per compiti in diverse lingue.
Il gruppo di ricerca Sapienza NLP (Natural Language Processing), guidato da Roberto Navigli, professore ordinario presso il Dipartimento di Ingegneria Informatica, Automatica e Gestionale “Antonio Ruberti” della Sapienza Università di Roma, annuncia oggi il rilascio dei modelli Minerva, una nuova famiglia di modelli linguistici su larga scala (Large Language Model, LLM) addestrati “da zero” per la lingua italiana.

Minerva è la prima famiglia di LLM italiano-inglese veramente aperti (dati e modello) preformati da zero, un modello da 350 milioni di parametri addestrato su 70 miliardi di token (35 miliardi in italiano, 35 miliardi in inglese), sviluppata da Sapienza NLP in collaborazione con Future Artificial Intelligence Research (FAIR) e CINECA . In particolare, circa la metà dei dati pre-formazione include testo in italiano.
Questo lavoro è stato finanziato dal progetto PNRR MUR PE0000013-FAIR . Riconosciamo il premio CINECA “IscB_medit” nell’ambito dell’iniziativa ISCRA, per la disponibilità di risorse e supporto informatico ad alte prestazioni.
“La caratteristica distintiva dei modelli Minerva è il fatto di essere stati costruiti e addestrati da zero usando testi ad accesso aperto, al contrario dei modelli italiani esistenti ad oggi, che sono basati sull’adattamento di modelli come LLaMA e Mistral, i cui dati di addestramento sono tuttora sconosciuti”
“Nello specifico, ogni modello Minerva è stato addestrato su un vasto insieme di fonti italiane e inglesi online e documentate, per un totale di oltre 500 miliardi di parole, l’equivalente di oltre 5 milioni di romanzi”.
“Non solo la trasparenza nell’addestramento dei modelli rafforza la fiducia degli utenti, della comunità scientifica, degli enti pubblici e dell’industria, ma stimola anche continui miglioramenti ed è un primo passo verso processi di verifica rigorosi per garantire la conformità a leggi e regolamenti”.
Roberto Navigli.
Il team di PNL della Sapienza
- Riccardo Orlando: preelaborazione dei dati, training del modello
- Pere-Lluis Huguet Cabot: preelaborazione dei dati, vocabolario, valutazione
- Luca Moroni: data curation, analisi dei dati, compiti downstream, valutazione
- Simone Conia: data curation, valutazione, supervisione del progetto
- Edoardo Barba: preelaborazione dati, attività downstream, supervisione del progetto
- Roberto Navigli: coordinatore del progetto
I recenti rapporti suggeriscono che Apple sta avventurandosi nei Large Language Models (LLM) con il suo Modello Multimodale 1 (MM1), indicando un significativo passo avanti negli sforzi di intelligenza artificiale dell’azienda. Questa mossa ha il potenziale per rivoluzionare l’intelligenza artificiale multimodale e favorire l’innovazione attraverso vari ecosistemi.
Si prevede che il MM1 di Apple sia un modello di intelligenza artificiale sofisticato in grado di elaborare e comprendere contemporaneamente diversi tipi di dati di input, come testo, immagini e audio. Integrando diverse modalità di informazione, il MM1 mira a migliorare le capacità dell’intelligenza artificiale e a fornire risposte più complete e consapevoli del contesto.
L’intelligenza artificiale multimodale coinvolge l’integrazione di diversi tipi di dati per migliorare la comprensione e i processi decisionali dei sistemi di intelligenza artificiale. L’ingresso di Apple nei LLM con MM1 potrebbe portare a scoperte nella comprensione del linguaggio naturale, nella visione artificiale e nell’elaborazione audio, consentendo interazioni più fluide tra esseri umani e macchine.
Le implicazioni del MM1 di Apple si estendono a vari ambiti, inclusi assistenti virtuali, creazione di contenuti, assistenza sanitaria, veicoli autonomi e altro ancora. Sfruttando l’intelligenza artificiale multimodale, Apple può migliorare le esperienze degli utenti, semplificare i flussi di lavoro e introdurre funzionalità innovative nei suoi prodotti e servizi.
L’ingresso di Apple nello spazio LLM la mette in diretta competizione con altri giganti tecnologici come Google, Microsoft e OpenAI, che hanno già compiuto progressi significativi nello sviluppo di modelli di intelligenza artificiale su larga scala. La corsa allo sviluppo di LLM più avanzati riflette l’importanza crescente dell’intelligenza artificiale nel plasmare il futuro della tecnologia.
Il focus di Apple sull’integrazione nell’ecosistema potrebbe conferirle un vantaggio unico nel distribuire l’intelligenza artificiale multimodale attraverso hardware, software e servizi. Integrando senza soluzione di continuità MM1 nei suoi prodotti come iPhone, iPad, Mac e HomePod, Apple può offrire esperienze AI coese e personalizzate ai suoi utenti.
Date le ferme posizioni di Apple sulla privacy degli utenti, è probabile che MM1 dia priorità alla sicurezza e alla protezione dei dati. Apple potrebbe impiegare tecniche di elaborazione e crittografia dei dati in dispositivo per proteggere i dati degli utenti mentre offre potenti funzionalità di intelligenza artificiale.
L’investimento di Apple nei LLM sottolinea il suo impegno nell’avanzamento della ricerca e dello sviluppo dell’intelligenza artificiale. L’azienda è probabile che assegni risorse significative per addestrare e ottimizzare MM1, collaborare con istituzioni accademiche e contribuire alla più ampia comunità di ricerca sull’intelligenza artificiale.
Complessivamente, l’ingresso di Apple nei LLM con MM1 segnala una mossa strategica per sfruttare il potere dell’intelligenza artificiale multimodale e guidare l’innovazione attraverso il suo ecosistema. Con l’evolversi della tecnologia, ci si può aspettare che Apple sveli nuove funzionalità e servizi basati sull’intelligenza artificiale che migliorano le esperienze degli utenti e ridefiniscono le possibilità dell’interazione uomo-macchina.
Uomo al centro o Macchina al Centro questo e’ il dilemma.
Siete familiari con le tre leggi della robotica delineate da Asimov?
Queste leggi, fondamentalmente, impediscono alla macchina, o al robot in questo caso, di nuocere all’uomo.
Ma perché sono state promulgate queste leggi?
Negli ultimi anni, i Large Language Model (LLM) hanno assunto un ruolo centrale nel panorama dell’Intelligenza Artificiale, rivoluzionando il modo in cui le macchine comprendono e generano linguaggio naturale. In questo articolo, esploreremo cosa sono i LLM, le loro applicazioni e il loro impatto cruciale nello sviluppo di app di intelligenza artificiale.
Definizione di Large Language Model:
I Large Language Model sono modelli di apprendimento automatico ad alta capacità computazionale addestrati su enormi dataset linguistici. Questi modelli, come GPT-3 (Generative Pre-trained Transformer 3), sono in grado di comprendere il contesto, generare testo coerente e svolgere compiti linguistici complessi.
Applicazioni Pratiche:
I Large Language Model trovano applicazione in una vasta gamma di settori, dall’elaborazione del linguaggio naturale alla creazione di contenuti e all’assistenza virtuale. Ad esempio, nella traduzione automatica, i LLM sono in grado di produrre risultati più precisi e naturali, migliorando l’accessibilità globale. In campo creativo, questi modelli possono generare testi, poesie e persino script cinematografici.
Importanza nello Sviluppo di App di Intelligenza Artificiale:
I Large Language Model sono fondamentali nello sviluppo di app di intelligenza artificiale per diverse ragioni. La loro capacità di comprendere il contesto e generare linguaggio coerente li rende preziosi per la creazione di interfacce utente più intuitive e conversazioni virtuali più naturali. Inoltre, l’adattabilità di questi modelli consente loro di essere utilizzati in una varietà di settori, dalla salute alla finanza, ampliando così il loro impatto.
Esempi Concreti:
Un esempio tangibile dell’efficacia dei Large Language Model è l’applicazione di chatbot avanzati nei servizi clienti online. Un assistente virtuale basato su un LLM può comprendere richieste complesse, rispondere in modo coerente e adattarsi a diverse interazioni con gli utenti, migliorando significativamente l’esperienza complessiva.
Prospettive Future:
I Large Language Model rappresentano quindi una pietra miliare nell’evoluzione dell’AI, potenziando applicazioni che richiedono comprensione avanzata del linguaggio naturale. Tuttavia, mentre ne esploriamo le potenzialità, è fondamentale che si affrontino sfide come la trasparenza e il bias, garantendo un utilizzo etico di queste tecnologie.

