Meta sta finalizzando la configurazione di un enorme cluster di addestramento AI composto da oltre 100.000 GPU Nvidia H100, come riportato da The Information.
Questo cluster, che si prevede addestrerà il prossimo modello di linguaggio di grandi dimensioni Llama 4 di Meta, rappresenta un investimento significativo, con le GPU stimate a un valore di circa 2 miliardi di dollari.
In un recente interrogatorio davanti al Senato australiano, il senatore David Shoebridge ha interrogato la direttrice globale della privacy di Meta, Melinda Claybaugh, riguardo alle pratiche di raccolta dati dell’azienda. Shoebridge ha sottolineato che Meta ha deciso di raccogliere tutti i post pubblici da Facebook e Instagram risalenti al 2007, a meno che gli utenti non abbiano esplicitamente impostato i loro post come privati. Claybaugh ha confermato questa affermazione, dichiarando: “Corretto” quando è stata incalzata su questo tema.
Meta si sta posizionando come leader nel dominio open-source per due piattaforme tecnologiche fondamentali: AI Foundation Compute e Spatial Compute. Gli analisti di DA Davidson suggeriscono che queste aree richiedono una scala, una portata e un capitale senza precedenti, in contrasto con le precedenti innovazioni tecnologiche che erano spesso guidate da startup agili. In questo contesto, grandi attori come Alphabet, Apple, Amazon e Microsoft si concentrano su ecosistemi chiusi, mentre Meta sta strategicamente stabilendo la propria predominanza nel panorama open-source.
Meta Platforms informerà gli utenti in Brasile su come utilizzerà i loro dati personali per addestrare modelli di intelligenza artificiale generativa, in risposta a una richiesta dell’Autorità Nazionale per la Protezione dei Dati (ANPD) del Paese. (Reuters)
I modelli di intelligenza artificiale Llama di Meta (NASDAQ: META) stanno guadagnando slancio in un’ampia gamma di aziende, mentre il colosso dei social media rimane saldo nella sua strategia open source. I download del modello Llama hanno quasi raggiunto i 350 milioni da quando è stato rilasciato l’anno scorso e il volume dei token tra i fornitori di servizi cloud è più che raddoppiato da quando è stato rilasciato Llama 3.1 ad aprile.
Secondo quanto riportato, Meta Platforms sta valutando un fattore di forma di medie dimensioni per gli occhiali per mixed-reality, cercando il giusto equilibrio tra prodotto e mercato per i visori futuristici.
Il CEO di Meta, Mark Zuckerberg, ha dichiarato che le pressioni esercitate dai funzionari dell’amministrazione Biden affinché l’azienda censurasse contenuti riguardanti il COVID-19 sono state inadeguate e ha espresso rammarico per non aver risposto in modo più deciso a tali richieste.
In una lettera indirizzata al deputato Jim Jordan, presidente della Commissione Giustizia della Camera, Zuckerberg ha rivelato che nel 2021 alti funzionari, inclusa la Casa Bianca, hanno insistito per mesi affinché venissero rimossi contenuti, anche satirici, legati alla pandemia, mostrando frustrazione quando Meta non ha acconsentito.
Molti utenti si chiedono perché Zuckerberg abbia scelto di rivelare queste pressioni solo ora, a distanza di anni dagli eventi. Alcuni suggeriscono che potrebbe essere una strategia per distogliere l’attenzione da altre critiche rivolte a Meta o per posizionarsi come un difensore della libertà di espressione. Tutti super eroi questa settimana?
È quasi comico come due dei più influenti CEO del mondo tech si trovino a dover implorare per un po’ di chiarezza normativa, mentre il loro settore è in continua evoluzione e prosperità. Dopo tutto, chi avrebbe mai pensato che le leggi potessero essere un ostacolo all’innovazione?
È come se stessero dicendo: “Per favore, lasciateci usare i dati degli utenti senza il loro consenso, così possiamo costruire il futuro!” Ma, naturalmente, non è solo una questione di comodità; si tratta di mantenere l’Europa competitiva in un’era in cui l’IA potrebbe trasformare radicalmente l’economia globale. Eppure, mentre i CEO di Meta e Spotify si lamentano della frammentazione normativa, l’Europa sta cercando di proteggere i suoi cittadini da abusi e violazioni della privacy.
Forse, invece di criticare le regole, potrebbero considerare di adattarsi a un contesto che cerca di bilanciare innovazione e responsabilità. In definitiva, se l’Europa sta perdendo il treno dell’IA, potrebbe essere perché i big della tecnologia non sono disposti a rispettare le fermate necessarie per garantire che tutti siano a bordo.
Meta Platforms sta intensificando la sua attenzione sull’intelligenza artificiale (IA) mentre il CEO Mark Zuckerberg mira a stabilire l’azienda come leader nel settore. Questo cambiamento avviene mentre Meta cerca di passare dall’attrarre principalmente inserzionisti su piattaforme come Facebook e Instagram al marketing efficace del suo software di IA per grandi aziende.
Meta Platforms ha chiuso CrowdTangle, uno strumento usato da ricercatori, organizzazioni di controllo e giornalisti per monitorare i contenuti sui social media e individuare la disinformazione.
Agosto, il Co-founder in vacanza, cambiamo l’appuntamento al Château Pichon Baron e Château Pichon Longueville Lalande. Costituivano insieme in origine un’unica grande tenuta vitivinicola, situata nella regione di Bordeaux, nel territorio dell’AOC di Pauillac e ci prendiamo 2 calici di vino, 78% Cabernet Sauvignon, 22% Merlot.
Recentemente, sono emerse preoccupazioni sul fatto che le Big Tech spendano troppo in capacità di IA, con entrate che non giustificano tali spese.
Tuttavia, i commenti dei principali team di gestione mostrano una somiglianza: la domanda supera la capacità e preferiscono rischiare di costruire troppo piuttosto che troppo poco. Il consenso dei CEO delle Big Tech su questo tema potrebbe essere una coincidenza o riflettere intuizioni importanti: il rischio principale dell’IA è per chi non la adotta abbastanza presto.
È interessante che i CEO delle Big Tech condividano questa visione secondo cui il rischio principale per un portafoglio nei prossimi 3-5 anni è non cogliere la tendenza dell’IA in tempo.
Meta, leader nel settore tecnologico, ha recentemente annunciato l’apertura delle candidature per il programma Llama 3.1 Impact Grants, un’iniziativa ambiziosa volta a supportare gli utilizzi più innovativi dell’intelligenza artificiale open source a beneficio della società.
Meta si sta preparando per un aumento significativo della potenza di calcolo per addestrare il suo prossimo modello linguistico, Llama 4. Secondo The Register, il modello richiederà circa 160.000 GPU, dieci volte le risorse necessarie per Llama 3.
La strategia di intelligenza artificiale open source di Meta è fondamentale per la sua crescita a lungo termine, promuovendo lo sviluppo collaborativo dell’IA e la leadership occidentale nella tecnologia dell’IA. Le implicazioni finanziarie di questo approccio sono significative, migliorando la reputazione, il valore del marchio e il potere operativo piuttosto che i profitti immediati, con il potenziale di sviluppare un’IA globale all’avanguardia.
Il CEO di Nvidia Jensen Huang ha annunciato che i data center di Meta AI contengono circa 600.000 GPU H100 di Nvidia, durante un’intervista al SIGGRAPH 2024 di Denver.
Meta ha recentemente lanciato il suo AI Studio, un nuovo strumento progettato per consentire ai creatori di costruire chatbot personalizzati.
Questo strumento è stato reso disponibile a tutti i creatori negli Stati Uniti e rappresenta un passo significativo nella visione di Meta per l’intelligenza artificiale.
Durante la conferenza SIGGRAPH 2024, il CEO di Meta, Mark Zuckerberg, ha illustrato le potenzialità di questo studio, enfatizzando l’importanza di avere chatbot personalizzati piuttosto che un’unica entità AI generica.
Il colosso della tecnologia ha affermato che con AI Studio chiunque può creare personaggi AI sul sito web ai.meta o nell’app Instagram.
Meta ha recentemente presentato la seconda generazione del suo modello di segmentazione degli oggetti, il Meta Segment Anything Model 2 (SAM 2) (provate il demo nel link). Questo avanzato modello di intelligenza artificiale rappresenta un significativo passo avanti nella capacità di identificare e isolare gli oggetti all’interno di immagini e video.
SIGGRAPH 2024 si svolgera’ dal 30 luglio al 1 agosto 2024 presso il Colorado Convention Center di Denver. Questa conferenza è considerata la più importante esposizione su computer grafica e tecniche interattive, celebrando 50 anni di innovazione nel settore. Durante l’evento, i partecipanti esploreranno i progressi in vari ambiti, tra cui arte digitale, animazione, effetti visivi, realtà mista e intelligenza artificiale.
Meta Platforms ha ritirato il suo assistente di intelligenza artificiale generativa dal Brasile dopo che l’Autorità nazionale per la protezione dei dati ha ordinato all’azienda di interrompere l’addestramento dei suoi modelli di intelligenza artificiale con i dati degli utenti.
Meta, la società madre di Facebook, ha annunciato che non rilascerà i suoi modelli di intelligenza artificiale più avanzati in Europa a causa delle incertezze normative nella regione. Questa decisione ha suscitato polemiche e preoccupazioni tra esperti e autorità europee.
Meta Platforms, la società madre di Facebook e Instagram, è stata accusata dalle autorità antitrust dell’Unione Europea di violare il Digital Markets Act (DMA). Secondo fonti come Reuters, AP e NBC News, le accuse riguardano il modello pubblicitario “paga o acconsenti” di Meta, che costringe gli utenti a consentire il tracciamento dei dati per un servizio gratuito con pubblicità o a pagare per un’esperienza senza pubblicità.
Apple ha rifiutato mesi fa di integrare il chatbot AI Llama di Meta negli iPhone, secondo Bloomberg. Le aziende hanno parlato brevemente a marzo, ma Apple ha deciso di non andare avanti, ritenendo le pratiche di privacy di Meta insufficienti.
Apple ha preferito ChatGPT di OpenAI e ha annunciato l’integrazione del chatbot all’inizio di questo mese. Apple prevede di collaborare con Google per integrare Gemini nei suoi prodotti, sfruttando la loro collaborazione per il browser Safari.
Apple sta anche negoziando con la startup AI Anthropic per una possibile partnership. Nonostante Apple abbia presentato la sua tecnologia AI, Apple Intelligence, questa non è allo stesso livello delle offerte concorrenti, quindi l’azienda cerca partner. Si crede inoltre che gli utenti desiderino più opzioni di chatbot AI. Il Wall Street Journal ha riportato che Apple e Meta hanno discusso di una partnership AI per integrare il modello di intelligenza artificiale generativa di Facebook in Apple Intelligence.
Il gruppo NOYB ha presentato reclami in 11 nazioni europee contro Meta Platforms, sostenendo che utilizzerà dati personali per addestrare modelli di intelligenza artificiale senza il consenso degli utenti.
Meta Platforms prevede di permettere alle aziende di utilizzare chatbot di intelligenza artificiale gratuiti su WhatsApp, secondo un rapporto di giovedì del Wall Street Journal. I chatbot per le relazioni con i clienti sono parte della strategia della società madre di Facebook per trasformare le app di messaggistica in “unità aziendali vitali”.
Uno studio legale che rappresenta le famiglie delle vittime della sparatoria in una scuola di Uvalde, in Texas, nel maggio 2022, ha intentato cause legali per omicidio colposo contro la società madre di Instagram Meta Platforms , l’editore di videogiochi di proprietà di Microsoft Activision e Daniel Defense – il produttore dell’arma usata nell’incidente di due anni fa.
Le due cause legali sono state intentate per conto di famiglie e individui rappresentati da Koskoff, Koskoff & Bieder PC e Guerra LLP. I casi sostengono che le tre parti hanno lavorato insieme per vendere armi ad adolescenti come l’assassino di Uvalde.
Le autorità di regolamentazione dell’UE hanno annunciato giovedì un’indagine su Meta, la società madre di Facebook e Instagram, per presunte violazioni del Digital Services Act riguardanti la protezione dei minori.
L’articolo ‘Imagine Flash: Accelerating Emu Diffusion Models with Backward Distillation‘ discute la ricerca GenAI che supporta le ultime funzionalità di generazione di immagini in Meta AI, oltre al rilascio di Meta Llama 3.
Questa ricerca si concentra sull’accelerazione dei modelli di diffusione Emu attraverso una tecnica chiamata Backward Distillation. La Backward Distillation mira a mitigare le discrepanze tra addestramento e inferenza calibrando il modello studente sulla sua stessa traiettoria inversa. Questo approccio è fondamentale per consentire la generazione di campioni ad alta fedeltà e diversificati utilizzando un numero minimo di passaggi, tipicamente compreso tra uno e tre.
L’articolo introduce anche la Shifted Reconstruction Loss, che adatta dinamicamente il trasferimento di conoscenza in base al passo temporale corrente, e la Noise Correction, una tecnica di inferenza che migliora la qualità del campione affrontando le singolarità nella previsione del rumore.
Attraverso esperimenti approfonditi, lo studio dimostra che il loro metodo supera i concorrenti esistenti sia in metriche quantitative che in valutazioni umane, raggiungendo prestazioni paragonabili al modello insegnante con soli tre passaggi di denoising, facilitando così una generazione efficiente di alta qualità.
Sintesi :
I modelli di diffusione rappresentano un robusto framework generativo, tuttavia implicano un processo inferenziale dispendioso. Le tecniche di accelerazione correnti spesso degradano la qualità delle immagini o risultano inefficaci in scenari complessi, specie quando si limitano a pochi step di elaborazione.
Nel presente studio, META introduce un innovativo framework di distillazione ideato per la produzione di campioni vari e di alta qualità in soli uno a tre step. La metodologia si articola in tre componenti fondamentali: (i) Distillazione inversa, che riduce il divario tra fase di addestramento e inferenza attraverso la calibrazione dello studente sulla propria traiettoria inversa; (ii) Perdita di ricostruzione adattiva, che modula il trasferimento di conoscenza in funzione del tempo di passaggio specifico; e (iii) Correzione adattiva del rumore, una strategia inferenziale che raffina la qualità dei campioni intervenendo sulle anomalie nella previsione del rumore.
Mediante una serie di esperimenti approfonditi, META ha verificato che il metodo eccelle rispetto ai rivali in termini di metriche quantitative e giudizi qualitativi forniti da valutatori umani. In modo significativo, il nostro approccio raggiunge livelli di performance similari al modello originale con soli tre step di denoising, promuovendo una generazione di immagini di alta qualità e ad alta efficienza.
Martedì la Commissione europea ha dichiarato che sta indagando su Meta Platforms per una potenziale violazione del Digital Services Act sulla base del fatto che non è riuscita a liberare Facebook e Instagram da “pubblicità ingannevoli e disinformazione”.
La CE ritiene che Meta non rispetti gli obblighi DSA “relativi alla diffusione di pubblicità ingannevoli, campagne di disinformazione e comportamenti non autentici coordinati nell’UE”.
L’indagine si concentrerà anche sui contenuti politici e sulla mancanza di disponibilità di uno strumento di monitoraggio in tempo reale “efficace” di terze parti in vista delle imminenti elezioni del Parlamento europeo e di altre elezioni nel blocco.
“Se non possiamo essere sicuri di poterci fidare dei contenuti che vediamo online, c’è il rischio di finire per non credere a nulla”, ha affermato in una nota la vicepresidente esecutiva della Commissione europea Margrethe Vestager .
“La pubblicità ingannevole rappresenta un rischio per il nostro dibattito online e, in ultima analisi, per i nostri diritti sia come consumatori che come cittadini. Sospettiamo che la moderazione di Meta sia insufficiente, che manchi di trasparenza nella pubblicità e nelle procedure di moderazione dei contenuti. Quindi oggi abbiamo aperto un procedimento contro Meta per valutare la loro conformità con la legge sui servizi digitali.”
La Commissione ha incaricato Meta di “adottare rapidamente tutte le azioni necessarie per garantire un efficace controllo pubblico in tempo reale del suo servizio, fornendo un accesso adeguato a ricercatori, giornalisti e funzionari elettorali agli strumenti di monitoraggio in tempo reale dei contenuti ospitati sui suoi servizi”.
L’azienda guidata da Mark Zuckerberg è inoltre invitata a rispondere entro cinque giorni lavorativi alle richieste di informazioni su come risolvere i problemi.
La direttiva fa parte del Digital Services Act, che è stato pubblicato nell’ottobre 2022 e ha concesso alle aziende tempo fino a gennaio 2024 per adeguarsi.
Il Digital Services Act ha costretto aziende come Meta, X (precedentemente nota come Twitter) e Google a dire alle autorità di regolamentazione esattamente cosa stanno facendo per combattere la disinformazione online e liberare rapidamente le loro piattaforme da contenuti illegali, come l’incitamento a terrorismo e abusi sessuali sui minori.
La notizia dell’indagine è stata riportata da Rivista.AI all’inizio di questa settimana, con particolare attenzione alle campagne di disinformazione provenienti dalla Russia e da altri paesi.
Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.
Meta Platforms( enon solo) è al centro di un’indagine condotta dalla Commissione Europea in merito alle modalità con cui le sue piattaforme, in particolare Facebook e Instagram, affrontano le campagne di disinformazione orchestrate dalla Russia e da altre nazioni, come riportato dal Financial Times.
La comunità europea ritiene che l’azienda non faccia abbastanza per fermare la pubblicità politica che potrebbe potenzialmente minare il processo elettorale, ha detto il media, citando due persone a conoscenza della questione.
I funzionari del continente sono preoccupati che gli strumenti di Meta non siano abbastanza facili da usare per gli utenti per segnalare contenuti illegali, ha aggiunto il media.
Si prevede che un’indagine formale arriverà questa settimana, forse già oggi.
La direttiva fa parte del Digital Services Act, pubblicato nell’ottobre 2022, che ha dato alle aziende fino a gennaio 2024 per adeguarsi.
Il Digital Services Act ha costretto le aziende come Meta, X (precedentemente nota come Twitter) e Google a dire ai regolatori esattamente cosa stanno facendo per combattere la disinformazione online e liberare rapidamente le loro piattaforme da contenuti illegali, come l’istigazione al terrorismo e lo sfruttamento sessuale dei minori.
SIn caso di violazione, la Commissione può imporre multe fino al 10 per cento del fatturato mondiale dell’azienda, che arrivano fino al 20 per cento in caso di violazione reiterata.
Meta Platforms ha scosso il mondo degli investitori con le sue previsioni per il prossimo trimestre, che sono risultate più deboli del previsto. Inoltre, ha annunciato che si troverà in una fase di investimenti per un periodo prolungato a causa dell’accelerazione dei salari nell’intelligenza artificiale.
“Nel complesso, considero i risultati che i nostri team hanno ottenuto qui come un’altra pietra miliare fondamentale nel dimostrare che abbiamo il talento, i dati e la capacità di scalare l’infrastruttura per costruire modelli e servizi di intelligenza artificiale leader a livello mondiale”, ha affermato Zuckerberg. “E questo mi porta a credere che dovremmo investire molto di più nei prossimi anni per costruire modelli ancora più avanzati e servizi di intelligenza artificiale su scala più ampia al mondo.”
Mark Zuckerberg.
Nonostante le azioni siano crollate di circa il 19% a seguito di queste notizie, gli analisti di Wall Street hanno difeso la società guidata da Mark Zuckerberg.
“Storicamente, investire per creare queste nuove esperienze su larga scala nelle nostre app è stato un ottimo investimento a lungo termine per noi e per gli investitori che sono rimasti con noi e anche qui i segnali iniziali sono piuttosto positivi”.
Zuckerberg
Un po’ come un Messia seguitemi e sarete ricompensati.
Ha aggiunto che la costruzione di un’intelligenza artificiale leader sarà un’impresa più grande rispetto alle altre esperienze che hanno aggiunto alle loro app e che probabilmente richiederà diversi anni.
“Realisticamente, anche spostando molte delle nostre risorse esistenti per concentrarci sull’intelligenza artificiale, la nostra dotazione di investimenti aumenterà comunque in modo significativo prima di ottenere entrate significative da alcuni di questi nuovi prodotti”,
Zuckerberg
Meta ha annunciato che ora prevede spese per l’intero anno comprese tra 94 e 99 miliardi di dollari a causa di “maggiori costi infrastrutturali e legali”.
(Proprio ieri, Meta ottiene il parere sfavorevole dell’avvocato generale nel caso relativo ai dati sull’orientamento sessuale nell’UE)
Le spese in conto capitale per l’intero anno saranno comprese tra 35 e 40 miliardi, rispetto a un precedente range compreso tra 30 e 37 miliardi,
“mentre continuiamo ad accelerare i nostri investimenti infrastrutturali per supportare la nostra tabella di marcia sull’intelligenza artificiale”.
Zuckerberg
Meta genera il 98% delle sue entrate dalla pubblicità digitale. Ma quando Zuckerberg parlava di pubblicità, guardava al futuro e ai modi in cui l’azienda avrebbe potuto potenzialmente trasformare i suoi attuali investimenti in dollari pubblicitari.
“Esistono diversi modi per creare un business enorme qui, tra cui il ridimensionamento della messaggistica aziendale, l’introduzione di annunci o contenuti a pagamento nelle interazioni dell’IA”.
Zuckerberg
DATA MONETIZATION. Detta cosi’ sembrerebbe che non ha molto interesse a sviluppare GENAI, ma piuttosto come sempre per META a raccogliere dati dell’utente per vendere Pubblicita’, quello che gli Analisti chiamano (l’AI) un business collateral(e). Come le TV private dove spesso i programmi sono collaterali alla pubblicita’.
“Nonostante tutti gli audaci piani di intelligenza artificiale di Meta, non può permettersi di distogliere lo sguardo dal nucleo del business: le sue attività pubblicitarie principali”, ha detto mercoledì in una nota Sophie Lund-Yates , analista di Hargreaves Lansdown. “Ciò non significa ignorare l’intelligenza artificiale, ma significa che la spesa deve essere mirata e in linea con una chiara visione strategica”.
Speriamo che ci sia spazio per il rispetto delle regole e dell’etica, non come e successo in passato, aggiungiamo noi.
Vale la pena sottolineare che Meta ha notato la volatilità delle azioni durante tali fasi di investimento nel playbook del prodotto, infatti ha aggiunto:
“dove stiamo investendo nell’ampliamento di un nuovo prodotto, non lo stiamo ancora monetizzando. Lo abbiamo visto con Reels, storie, man mano che il feed di notizie passa ai dispositivi mobili e altro ancora, e mi aspetto anche di vedere un ciclo di investimenti pluriennale prima di adattare completamente le API aziendali AI e altro ancora ai servizi redditizi che mi aspetto.”
Zuckerberg
Passando agli sforzi ben pubblicizzati di Meta per potenziare il metaverso, Zuckerberg ha affermato che è interessante il modo in cui il tema si sovrappone ora all’intelligenza artificiale.
Nel frattempo, l’unità Reality Labs di Meta , che ospita l’hardware e il software dell’azienda per lo sviluppo del nascente metaverso, continua a dissanguare denaro.
Reality Labs ha registrato vendite per 440 milioni di dollari nel primo trimestre e perdite per 3,85 miliardi di dollari. Le perdite cumulative della divisione dalla fine del 2020 hanno superato i 45 miliardi di dollari.
Zuckerberg oltre di Llama3 ha anche parlato degli occhiali AR di Meta, che ha definito “il dispositivo ideale per un assistente AI perché puoi far loro vedere ciò che vedi e sentire ciò che senti”.
“Questo è più chiaro quando si guardano gli occhiali”, “Sai, pensavo che gli occhiali [per la realtà aumentata] non sarebbero stati davvero un prodotto mainstream finché non avessimo avuto display olografici completi, e penso ancora che sarà fantastico e sarà uno stato maturo a lungo termine per il prodotto. Ma ora sembra abbastanza chiaro che esista un mercato significativo anche per gli occhiali AI alla moda senza display.”
Zuckerberg
Per chi volesse approfondire di seguito la trascrizione.
Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali. L’articolo riporta esclusivamente le opinioni della redazione che non ha alcun rapporto economico con le aziende citate.
Oggi è stato integrato su più piattaforme e rilasciato in più mercati globali l’assistente di intelligenza artificiale di Meta Platforms , Meta AI, basato su Meta Llama 3.
Hanno utilizzato molti più dati e Zuckerberg vuole mettere il modello all’interno di Whatsapp, Instagram e Facebook, siete pronti?
Meta AI, rivale di ChatGPT di OpenAI, può ora essere utilizzato su tutte le app di Meta, tra cui Facebook, Instagram, WhatsApp e Messenger.
È possibile accedervi anche da un sito Web autonomo: Meta AI .
Questa versione spiega l’azienda presenta modelli linguistici pre-addestrati e ottimizzati per seguire istruzioni con 8B e 70B parametri, in grado di supportare un’ampia gamma di applicazioni d’uso.
⏺ Training Data: Trained on a massive 15 trillion token dataset (7x larger than Llama 2). Over 5% of data consists of non-English text covering 30+ languages
⏺ Broad Platform Support: Available on @AWS, @Databricks, @Google Cloud platforms and more.
⏺ Advanced AI Capabilities: Includes improved reasoning, longer context windows, and better overall AI performance
⏺ Safety and Responsibility Features: Features tools like Llama Guard 2 and Code Shield to ensure safe use.
⏺ Industry-Leading Performance: Sets new benchmarks in performance compared to previous models.
⏺ Future Enhancements Planned: Upcoming models with up to 400B parameters and new capabilities like multimodality.
⏺ Meta AI Integration: Powers Meta’s AI assistant for enhanced user experiences across various platforms.
Questa nuova generazione di Llama secondo Meta dimostra prestazioni superiori su un’ampia gamma di benchmark standard di settore e offre nuove funzionalità, tra cui un ragionamento migliorato. L’azienda ritiene che questi siano i migliori modelli open source della loro categoria.
Meta AI in inglese viene rilasciato anche in più di una dozzina di paesi al di fuori degli Stati Uniti, tra cui Australia, Canada, Ghana, Giamaica, Malawi, Nuova Zelanda, Nigeria, Pakistan, Singapore, Sud Africa, Uganda, Zambia e Zimbabwe.
L’aggiornamento a Meta AI ha anche migliorato le sue capacità di generazione di immagini.
“Stiamo velocizzando la generazione di immagini, in modo da poter creare immagini dal testo in tempo reale utilizzando la funzione Imagine di Meta AI”,
ha affermato Meta in un comunicato stampa.
“Stiamo iniziando a implementarlo oggi in versione beta su WhatsApp e sull’esperienza web Meta AI negli Stati Uniti.”
I modelli Llama 3 saranno presto disponibili su AWS , Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM e Snowflake e con il supporto di piattaforme hardware offerto da AMD , AWS, Dell , Intel , NVIDIA e Qualcomm , ha affermato Meta .
“Llama 3 utilizza un’architettura trasformatore esclusivamente decoder e un nuovo tokenizzatore che fornisce prestazioni migliorate del modello con dimensioni di 128k”, ha affermato la portavoce di AWS Emma Quong.
“Inoltre, Meta ha migliorato le procedure post-formazione che hanno sostanzialmente ridotto i tassi di falsi rifiuti, migliorato l’allineamento e aumentato la diversità nelle risposte dei modelli.”
“Nei prossimi mesi, prevediamo di introdurre nuove funzionalità, finestre di contesto più lunghe, dimensioni di modelli aggiuntivi e prestazioni migliorate, e condivideremo il documento di ricerca di Llama 3”,
ha aggiunto Meta.
Meta ha lanciato il suo modello linguistico di grandi dimensioni Llama 2 nel luglio 2023.
Alcune delle sue misure di sicurezza erano considerate “troppo sicure” in quanto voleva evitare alcune delle insidie incontrate da Geminidi Google.
Questa nuova versione include nuovi strumenti di protezione e sicurezza con Llama Guard 2, Code Shield e CyberSec Eval 2.
I modelli linguistici di grandi dimensioni come GPT e Llama vengono addestrati con una perdita di previsione del token successivo. In questo lavoro, suggeriamo che l’addestramento di modelli linguistici per prevedere più token futuri contemporaneamente si traduca in una maggiore efficienza del campione. Più specificamente, in ciascuna posizione nel corpus di addestramento, chiediamo al modello di prevedere i seguenti n token utilizzando n teste di output indipendenti, operando su un tronco del modello condiviso. Considerando la previsione multi-token come un’attività di formazione ausiliaria, misuriamo le capacità a valle migliorate senza costi aggiuntivi in termini di tempo di formazione sia per i modelli di codice che per quelli in linguaggio naturale. Il metodo è sempre più utile per modelli di dimensioni maggiori e mantiene il suo fascino durante l’addestramento per più epoche. I guadagni sono particolarmente pronunciati sui benchmark generativi come la codifica, dove i nostri modelli superano costantemente le solide linee di base di diversi punti percentuali. I nostri modelli con parametri 13B risolvono il 12% in più di problemi su HumanEval e il 17% in più su MBPP rispetto a modelli next-token comparabili. Esperimenti su piccoli compiti algoritmici dimostrano che la previsione multi-token è favorevole allo sviluppo di teste di induzione e capacità di ragionamento algoritmico. Come ulteriore vantaggio, i modelli addestrati con la previsione a 4 token sono fino a 3 volte più veloci nell’inferenza, anche con batch di grandi dimensioni.
Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Questo è forse uno dei grafici più importanti sull’Intelligenza Artificiale per il 2024. È stato costruito dallo straordinario team di ricercatori di CathieDWood‘S @ARKInvest. Possiamo vedere che l’ascesa dei modelli locali open source è sulla buona strada per superare i massicci (e costosi) modelli chiusi basati sul cloud.
L’ascesa dei modelli locali open source che superano i massicci e costosi modelli chiusi basati sul cloud è affascinante. Questo cambiamento potrebbe democratizzare l’Intelligenza Artificiale e consentire un’innovazione più diffusa, poiché gli attori più piccoli ottengono l’accesso a strumenti potenti senza la necessità di ingenti investimenti
Meta ha compiuto un passo significativo nel mondo dell”i’Intelligenza Artificiale open source con progetti come Llama 3, dimostrando un impegno verso l’innovazione e affrontando le sfide associate a tali iniziative all’avanguardia e su larga scala.
Tuttavia, ci sono notevoli costi legati allo sviluppo di queste tecnologie, specialmente per addestrare modelli linguistici complessi come Llama 3, che richiedono risorse computazionali ed energetiche considerevoli.
Perché Meta si sta avventurando nell’Intelligenza Artificiale open source?
Una ragione chiave potrebbe essere la strategia di “mercificare il proprio complemento”.
Questo concetto, identificato da Joel Spolsky, implica rendere i prodotti e i servizi complementari al proprio core business economici e ampiamente disponibili, al fine di aumentare la domanda per il prodotto principale e catturarne il valore. Storicamente, questa strategia ha funzionato bene nel settore tecnologico, come dimostrato da casi come IBM con il PC originale e Microsoft con MS-DOS.
Meta si è impegnata in questa strategia anche attraverso l’Intelligenza Artificiale generativa, che consente agli utenti di creare rapidamente nuovi contenuti, dall’immagine al testo ai video.
Facendo sì che la creazione di contenuti sia economica e diffusa, Meta può aumentare l’coinvolgimento degli utenti sulle proprie piattaforme, generando così maggiori entrate pubblicitarie.
Il rilascio di tecnologie AI come open source attira i migliori talenti nel campo, promuove l’innovazione e migliora i prodotti di Meta.
Questa strategia è sostenuta dall’idea che l’accesso alla tecnologia AI di base non comprometta il core business di Meta nel social networking e nella pubblicità digitale.
I modelli di Intelligenza Artificiale aperti ampliano l’universo dei contenuti disponibili senza minacciare direttamente le piattaforme di Meta per gli inserzionisti o gli utenti.
Meta mira a sfruttare l’Intelligenza Artificiale open source per aumentare l’coinvolgimento degli utenti, migliorare i suoi prodotti (fine Tuning) e servizi e aumentare i profitti, senza compromettere il suo core business.
Yann LeCun :
Meta sta implementando una strategia innovativa che va oltre i tradizionali modelli di business basati sulla pubblicità (ADV) e sui pagamenti per servizi. Questa strategia prevede la distribuzione gratuita di un modello a milioni di persone e sviluppatori. L’obiettivo è stimolare la creazione di soluzioni che possano essere utili per i clienti di Meta.
Gli sviluppatori, avendo accesso al modello, possono creare e personalizzare le loro soluzioni, che possono variare da applicazioni a servizi. Queste soluzioni, una volta create, possono essere acquisite da Meta, creando così un ciclo di innovazione e crescita.
In sostanza, Meta sta cercando di costruire rapidamente una comunità di produttori che creano modelli specifici con l’intenzione di acquisirli successivamente. Questo processo include la verifica della piattaforma alla fonte, il controllo di ciò che viene creato e la selezione di ciò che può essere integrato nella sua piattaforma. Questa strategia consente a Meta di rimanere all’avanguardia nell’innovazione, garantendo al contempo che le soluzioni più utili e pertinenti siano rese disponibili ai suoi clienti.
“La scommessa è che Meta ha già una base utenti e customer base. Quello che offriamo sarà utile a loro e c’è un modo per ricavare revenue da questi servizi. Per noi non ha un impatto se forniamo il modello base in open source per consentire ad altri di costruire applicazioni. Se queste applicazioni sono utili ai nostri clienti e noi possiamo comprarle da loro, può essere che migliorino la piattaforma“, il pensiero dell’azienda.
Meta Platforms ha dichiarato lunedì che inizierà a concedere in licenza il sistema operativo per le sue cuffie Quest ad altri produttori di dispositivi, posizionandosi saldamente come un’alternativa più aperta a Vision Pro di Apple.
In un video pubblicato sull’account Instagram del capo di Meta.
Mark Zuckerberg ha notato la differenza tra il modello chiuso di Apple per gli smartphone e il modello aperto per i PC.
La piattaforma di social media ha affermato che produttori di hardware come Asus e Lenovo realizzeranno dispositivi che eseguono il sistema operativo Meta Horizon. L’azienda sta anche lavorando su un visore Quest incentrato sui giochi a tiratura limitata con Xbox di Microsoft .
Republic of Gamers di Asus svilupperà cuffie da gioco e Lenovo costruirà dispositivi di realtà mista per la produttività, l’apprendimento e l’intrattenimento. Zuckerberg ha aggiunto che potrebbero volerci alcuni anni prima del lancio dei dispositivi.
Meta spingerà anche per ulteriori modi per scoprire app store alternativi su Horizon OS. Renderà più prominente il suo negozio sperimentale App Lab e inviterà persino Google di Alphabet a portare il suo Play Store su Horizon OS.
I visori per realtà virtuale e realtà mista hanno finora riscontrato solo un successo limitato, soprattutto da parte della comunità dei videogiochi. Apple è entrata nel mercato a febbraio con il lancio delle sue cuffie Vision Pro da 3.499 dollari.
Anche Microsoft anche se senza successo, una volta ha tentato di proporre Windows come sistema operativo per visori VR attraverso la sua iniziativa Windows Mixed Reality.
Solo, si fa per dire, 4 anni fa, Jared Kaplan, fisico teorico della Johns Hopkins University, ha pubblicato un articolo rivoluzionario sull’intelligenza: Scaling Laws for Neural Language Models.
La conclusione è stata chiara: più dati c’erano per addestrare un grande modello linguistico migliore sarebbe stato il suo rendimento, accurato e con più informazioni.
“Tutti sono rimasti molto sorpresi dal fatto che queste tendenze – queste leggi di scala come le chiamiamo noi – fossero fondamentalmente precise quanto quelle che si vedono in astronomia o fisica”
Kaplan
I ricercatori utilizzano da tempo grandi database pubblici di informazioni digitali per sviluppare l’Intelligenza Artificiale, tra cui Wikipedia e Common Crawl, un database di oltre 250 miliardi di pagine web raccolte a partire dal 2007. I ricercatori spesso “ripuliscono” i dati rimuovendo discorsi di incitamento all’odio e altri testi indesiderati prima di utilizzarli per addestrare modelli di intelligenza artificiale.
Nel 2020, i set di dati erano minuscoli rispetto agli standard odierni. All’epoca una banca dati contenente 30.000 fotografie dal sito fotografico Flickr era considerata una risorsa vitale.
Dopo l’articolo del Dr. Kaplan, quella quantità di dati non era più sufficiente. Si è parlato di “rendere le cose davvero grandi”, ha affermato Brandon Duderstadt, Nomic AD.
Quando OpenAI ha lanciato GPT-3 nel novembre 2020, ha segnato un traguardo significativo nell’addestramento dei modelli di intelligenza artificiale. GPT-3 è stato addestrato su una quantità di dati senza precedenti, circa 300 miliardi di “token”, che sono sostanzialmente parole o pezzi di parole.
Questa vasta quantità di dati ha permesso a GPT-3 di generare testi con una precisione sorprendente, producendo post di blog, poesie e persino i propri programmi informatici.
Tuttavia, nel 2022, DeepMind, un laboratorio di Intelligenza Artificiale di proprietà di Google, ha spinto ulteriormente in avanti i limiti.
Ha condotto esperimenti su 400 modelli di Intelligenza Artificiale, variando la quantità di dati di addestramento e altri parametri. I risultati hanno mostrato che i modelli più performanti utilizzavano ancora più dati di quelli previsti dal Dr. Kaplan nel suo articolo. Un modello in particolare, noto come Chinchilla, è stato addestrato su 1,4 trilioni di token.
Ma il progresso non si è fermato lì. L’anno scorso, ricercatori cinesi hanno presentato un modello di intelligenza artificiale chiamato Skywork, addestrato su 3,2 trilioni di token provenienti da testi sia in inglese che in cinese.
Google ha risposto presentando un sistema di Intelligenza Artificiale, PaLM 2, che ha superato i 3,6 trilioni di token.
Questi sviluppi evidenziano la rapida evoluzione del campo dell’Intelligenza Artificiale e l’importanza dei dati nell’addestramento di modelli sempre più potenti. Con ogni nuovo modello e ogni trilione di token aggiuntivo, ci avviciniamo sempre di più a modelli di Intelligenza Artificiale che possono comprendere e generare il linguaggio con una precisione e una naturalezza sempre maggiori.
Tuttavia, con questi progressi arrivano anche nuove sfide e responsabilità, poiché dobbiamo garantire che queste potenti tecnologie siano utilizzate in modo etico e responsabile.
Poi nel 2023 è arrivato questo discorso sul Synthetic Data e sulle chellenges: “Si esauriranno”. Sam Altman, Ceo di OpenAI aveva un piano per far fronte all’incombente carenza di dati.
In una email a The Verge, la portavoce di OpenAI, Lindsay Held, ha dichiarato che l’azienda utilizza “numerose fonti, compresi i dati disponibili pubblicamente e le partnership per i dati non pubblici” e che sta cercando di generare i propri dati sintetici.
Nel mese di maggio, lo stesso Altman, ha riconosciuto che le aziende di Intelligenza Artificiale avrebbero sfruttato tutti i dati disponibili su Internet.
Altman ha avuto un’esperienza diretta di questo fenomeno. All’interno di OpenAI, i ricercatori hanno raccolto dati per anni, li hanno puliti e li hanno inseriti in un vasto pool di testo per addestrare i modelli linguistici dell’azienda. Hanno estratto il repository di codice GitHub, svuotato i database delle mosse degli scacchi e attingono ai dati che descrivono i test delle scuole superiori e i compiti a casa dal sito web Quizlet.
Tuttavia, entro la fine del 2021, queste risorse erano esaurite, come confermato da otto persone a conoscenza della situazione dell’azienda, che non erano autorizzate a parlare pubblicamente.
Cosa sono i dati sintetici: i dati sintetici sono dati generati artificialmente, piuttosto che dati raccolti da eventi del mondo reale. Sono spesso utilizzati per l’addestramento dei modelli di Intelligenza Artificiale (IA) quando i dati reali non sono disponibili o sono insufficienti. Sam Altman, ex CEO di OpenAI, ha lavorato su modelli generativi che producono dati sintetici. Questi modelli, come GPT-4, utilizzano un gran numero di parametri per definire come possono essere prodotti dati simili a quelli forniti durante la fase di apprendimento. Questi parametri sono “regole generali” per la creazione di nuovi dati che il modello acquisisce dalle informazioni di addestramento fornite in precedenza. In un modello generativo basato su reti neurali, i parametri vengono ottimizzati per migliorare la capacità del modello di generare dati sintetici coerenti con quelli di addestramento. Ad esempio, si ritiene che il modello GPT-4 di OpenAI sia stato composto utilizzando qualcosa come 1.000 miliardi di parametri.
WIKI
Il CEO di YouTube, ha detto cose simili sulla possibilità che OpenAI abbia usato YouTube per addestrare il suo modello di generazione di video Sora.
Non sorprende che in entrambi i casi si tratti di azioni che hanno a che fare con la nebulosa area grigia della legge sul copyright dell’AI.
Da un lato OpenAI, alla continua ricerca di dati per un training di qualità, avrebbe sviluppato il suo modello di trascrizione audio Whisper per superare il problema,trascrivendo oltre un milione di ore di video di YouTube per addestrare GPT-4.
Secondo il New York Times, l’azienda sapeva che si trattava di un’operazione discutibile dal punto di vista legale (il presidente di OpenAI Greg Brockman era personalmente coinvolto nella raccolta dei video utilizzati), ma riteneva che si trattasse di un uso corretto(il cosidetto “fair use” tanto declamato dalle aziende di AI).
Tuttavia, Altman ha dichiarato che la corsa ai modelli generativi di dimensioni sempre più grandi sarebbe già conclusa. Ha suggerito che gli attuali modelli potranno evolvere in altri modi, non puntando più sulla “grandezza” e lasciando intendere che GPT-4 potrebbe essere l’ultimo e definitivo avanzamento nella strategia di OpenAI per ciò che riguarda il numero di parametri utilizzati in fase di addestramento.
Nel frattempo Google :
Matt Bryant, rappresentante comunicazione di Google, ha dichiarato che l’azienda non era a conoscenza delle attività di OpenAI e ha proibito lo “scraping o il download non autorizzato di contenuti da YouTube”. Google interviene quando esiste una chiara base legale o tecnica per farlo.
Le politiche di Google permettono l’utilizzo dei dati degli utenti di YouTube per sviluppare nuove funzionalità per la piattaforma video. Tuttavia, non era evidente se Google potesse utilizzare i dati di YouTube per creare un servizio commerciale al di fuori della piattaforma video, come un chatbot.
“La questione se i dati possano essere utilizzati per un nuovo servizio commerciale è soggetta a interpretazione e potrebbe essere fonte di controversie”.
Avv .Geoffrey Lottenberg, studio legale Berger Singerman
Verso la fine del 2022, dopo che OpenAI aveva lanciato ChatGPT, dando il via a una corsa nel settore per recuperare il ritardo, i ricercatori e gli ingegneri di Google hanno discusso su come sfruttare i dati di altri utenti per sviluppare prodotti di intelligenza artificiale. Tuttavia, le restrizioni sulla privacy dell’azienda limitano il modo in cui potrebbero utilizzare i dati, secondo persone a conoscenza delle pratiche di Google.
Secondo le ricostruzioni, a giugno, il dipartimento legale di Google ha chiesto al team per la privacy di redigere un testo per ampliare gli scopi per i quali l’azienda potrebbe utilizzare i dati dei consumatori (secondo due membri del team per la privacy e un messaggio interno visualizzato dal Times) ed è stato comunicato ai dipendenti che Google desiderava utilizzare i contenuti pubblicamente disponibili in Google Docs, Google Sheets e app correlate per una serie di prodotti AI. I dipendenti hanno affermato di non sapere se l’azienda avesse precedentemente addestrato l’intelligenza artificiale su tali dati.
In quel periodo, la politica sulla privacy di Google stabiliva che l’azienda potesse utilizzare le informazioni pubblicamente disponibili solo per “aiutare a formare i modelli linguistici di Google e creare funzionalità come Google Translate”.
Il team per la privacy ha redatto nuovi termini in modo che Google potesse utilizzare i dati per i suoi “modelli di Intelligenza Artificiale e creare prodotti e funzionalità come Google Translate, Bard e funzionalità di Intelligenza Artificiale del cloud”, che rappresentava una gamma più ampia di tecnologie di intelligenza artificiale.
“Qual è l’obiettivo finale qui?” ha chiesto un membro del team per la privacy in un messaggio interno. “Quanto sarà estesa?”
Al team è stato specificamente detto di pubblicare i nuovi termini nel fine settimana del 4 luglio, quando le persone sono generalmente concentrate sulle vacanze, secondo i dipendenti. La politica rivista è stata lanciata il 1° luglio, all’inizio del lungo fine settimana (NdR,il 4 luglio negli Usa è festa nazionale).
E Meta?Mark Zuckerberg aveva lo stesso problema, non aveva abbastanza dati, avevano utilizzato tutto come detto a un dirigente da Ahmad Al-Dahle, vicepresidente dell’AI generativa di Meta quindi non poteva eguagliare ChatGPT a meno che non fosse riuscito ad ottenere più dati.
Meta ha usato, fra gli altri materiali, due raccolte di libri, il Gutenberg Project, che contiene opere nel pubblico dominio, e la sezione Books3. Ma la maggior parte sono opere “piratate” e per questo alcuini avviato una class action contro Meta e ciò era evidente sino dall’inizio come dimostra il documento di seguito.
Nei mesi di marzo e aprile 2023, alcuni leader dello sviluppo aziendale, ingegneri e avvocati dell’azienda si sono incontrati quasi quotidianamente per affrontare il problema.
Alcuni hanno discusso del pagamento di 10 dollari a libro per i diritti di licenza completi sui nuovi titoli. Hanno discusso dell’acquisto di Simon & Schuster,di cui fanno parte anche Penguin Random House, HarperCollins, Hachette e Macmillan. Fra gli autori di Simon & Schuster ci sono Stephen King, Colleen Hoover e Bob Woodward.
Hanno anche parlato di come avevano riassunto libri, saggi e altri lavori da Internet senza permesso anche per via del precedente scandalo sulla condivisione dei dati dei suoi utenti all’epoca di Cambridge Analytica.
Un avvocato ha avvertito di preoccupazioni “etiche” riguardo alla sottrazione della proprietà intellettuale agli artisti, ma è stato accolto nel silenzio, secondo un audio registrato e condiviso con il NYT di cui ha dato conto il quotidiano britannico The Guardian. Meta era stata anche accusata dal BEUC unione consumatori europei con una multa da 1.2 miliardi di euro.
Zuckerberg, per tranquillizare gli investitori, ha affermato in una recente call (Earnings call Transcript 2023 di seguito) che i miliardi di video e foto condivisi pubblicamente su Facebook e Instagram sono “superiori al set di dati Common Crawl”.
I dirigenti di Meta hanno affermato che OpenAI sembrava aver utilizzato materiale protetto da copyright senza autorizzazione. Secondo le registrazioni, Meta impiegherebbe troppo tempo per negoziare le licenze con editori, artisti, musicisti e l’industria dell’informazione.
“L’unica cosa che ci impedisce di essere bravi quanto ChatGPT è letteralmente solo il volume dei dati”,
Nick Grudin, vP partnership globale e dei contenuti.
Sembra che OpenAI stia prendendo materiale protetto da copyright e Meta potrebbe seguire questo “precedente di mercato”, ha aggiunto, citando una decisione del tribunale del 2015 che coinvolgeva la Authors Guild contro Google .
In quel caso, a Google è stato consentito di scansionare, digitalizzare e catalogare libri in un database online dopo aver sostenuto di aver riprodotto solo frammenti delle opere online e di aver trasformato gli originali, sempre in base alla dottrina del fair use.
La saga continua.
Come abbiamo scritto in un precedente post, la FTC americana può riaprire il caso sulla privacy di Meta nonostante la multa di 5 miliardi di dollari, stabilisce il tribunale, anche se Meta – che possiede WhatsApp, Instagram e Facebook – ha risposto che la FTC non può “riscrivere unilateralmente” i termini dell’accordo precedente, che un giudice statunitense ha approvato nel 2020.
L’FTC ha replicato che l’accordo, che stabilisce nuovi requisiti di conformità e supervisione, non era destinato a risolvere “tutte le richieste di risarcimento in perpetuo”.
Indipendentemente dal punto di vista e da ciò che sarà deciso nei tribunali, l’importanza di conoscere il contenuto dei dataset è oggi più rilevante che mai. Si tratta senza dubbio di un problema di natura politica.
Cos’è esattamente la Meta AI? È un assistente conversazionale in grado di rispondere a domande di testo e generare immagini fotorealistiche da istruzioni di testo. È disponibile in versione beta su WhatsApp, Messenger e Instagram e sarà presto disponibile sugli occhiali intelligenti Ray-Ban Meta e Quest 3. Meta AI è alimentato da tecnologie generative come Llama 2 ed Emu, che sono in grado di creare testo e immagini da grandi dimensioni. set di dati.
Meta sta portando avanti i suoi sforzi per rendere i suoi prodotti generativi basati sull’intelligenza artificiale disponibili a più utenti. Oltre a testare il chatbot Meta AI con utenti in paesi come l’India su WhatsApp ,
l’azienda sta anche sperimentando l’inserimento di Meta AI nella barra di ricerca di Instagram sia per chattare con l’intelligenza artificiale che per scoprire contenuti.
La query di ricerca nella barra di ricerca ti porta a una conversazione in DM con Meta AI, dove puoi porre domande o utilizzare uno dei suggerimenti precaricati. Il design della schermata di richiesta ha spinto il CEO di Perplexity AI, Aravind Srinivas, a sottolineare che l’interfaccia utilizza un design simile alla schermata di ricerca della startup.
YannLeCun è considerato uno dei padri dell’Intelligenza artificiale, noto per i suoi contributi nei settori dell’apprendimento automatico, della robotica, del deep learning e delle neuroscienze computazionali.
È professore alla New York University e Chief AI Scientist di Meta e proprio per questo, quando parla di Intelligenza Artificiale è bene prestare attenzione alle sue parole.
Nick Clegg, presidente degli affari globali di Meta Platforms , ha confermato che l’azienda tecnologica rilascerà la prossima versione del suo modello di linguaggio di grandi dimensioni, Llama 3, nel “prossimo mese”.
“Entro il prossimo mese, anzi meno, speriamo di iniziare a distribuire la nostra nuova suite di modelli di base di prossima generazione, Llama 3”, ha detto Clegg durante un evento a Londra, secondo TechCrunch.
Meta fa un passo ulteriore verso l’accessibilità dell’IA, rendendo LLaMA 3 open source. Questa decisione mira a democratizzare l’intelligenza artificiale, permettendo a sviluppatori, ricercatori e appassionati di tutto il mondo di sfruttare questa potente tecnologia.
Gli ingegneri di Meta hanno annunciato un investimento importante sul futuro dell’intelligenza artificiale, con la presentazione di due cluster composti da 24.576 GPU NVIDIA H100.
Meta prevede di distribuire 350.000 H100 entro l’anno, creando un’infrastruttura massiccia per supportare le crescenti richieste di calcolo avanzato.
Rispetto alle versioni precedenti di Llama offrirà un’ampia gamma di dimensioni del Modello . L’intento è di rendere facile per gli sviluppatori di terze parti riqualificarsi, mettere a punto e costruire sul modello base.
Llama 3 avra’ la capacità di offrire risposte contestualizzate, evitando le rigidità e le restrizioni eccessive che hanno caratterizzato altri modelli. Meta intende infatti promuovere un approccio più equilibrato e umano, fornendo contesto piuttosto che eludere o censurare le domande degli utenti.
Tuttavia, avrà ancora dei paletti. legati alla legge sulla sicurezza dell’IA, inclusa la nuova legge sull’intelligenza artificiale dell’Unione Europea.
“Ci saranno una serie di modelli diversi con diverse capacità, diverse versatilità [rilasciate] nel corso di quest’anno, a partire davvero molto presto.”
Meta ha lanciato Llama 2 nel luglio 2023 e Code Llama, che può utilizzare prompt di testo per generare e discutere codice, il mese successivo.
L’azienda guidata da Mark Zuckerberg vuole che il nuovo modello di linguaggio di grandi dimensioni affronti domande “contenziose” dopo che le salvaguardie che ha rilasciato per Llama sono state considerate “troppo sicure” dagli esecutivi dell’azienda e da alcuni dei ricercatori del modello.
“Prevediamo di iniziare a etichettare i contenuti generati da IA a partire da maggio 2024 e smetteremo di rimuovere i contenuti esclusivamente sulla base della nostra politica sui video manipolati a luglio”, ha dichiarato Meta in un post sul blog. “Questa tempistica dà alle persone il tempo di comprendere il processo di auto-rivelazione prima che smettiamo di rimuovere la piccola sottoinsieme di media manipolati.”
La politica ora si applica a immagini, video o audio che sono stati “creati o alterati digitalmente”.
In precedenza, Meta rimuoveva i video che erano stati modificati o cambiati secondo la sua “politica sui media manipolati”.
“Siamo d’accordo con la raccomandazione del Consiglio di Supervisione che fornire trasparenza e contesto aggiuntivo è ora il modo migliore per affrontare i media manipolati e evitare il rischio di limitare inutilmente la libertà di parola, quindi manterremo questo contenuto sulle nostre piattaforme in modo da poter aggiungere etichette e contesto”, ha aggiunto Meta nel post sul blog.
Il cambiamento della politica arriva dopo che il suo Consiglio di Supervisione indipendente ha detto a febbraio che la sua politica sui media manipolati era “incoerente”.
Aggiungendo ulteriori informazioni, Meta ha annunciato che inizierà a etichettare un’ampia gamma di contenuti video, audio e immagini come “Made with AI” quando rileva indicatori di immagini AI standard del settore o quando le persone rivelano che stanno caricando contenuti generati da IA.
Questo cambiamento è stato influenzato dalle raccomandazioni del Consiglio di Supervisione e da un processo di revisione delle politiche che includeva sondaggi di opinione pubblica e consultazioni con accademici e organizzazioni della società civile.
Una corte d’appello statunitense venerdì ha respinto la richiesta di Meta Platforms di sospendere la Federal Trade Commission (FTC) dal riaprire un caso sulla sua unità Facebook mentre l’azienda persegue una causa legale contro l’agenzia.
La Corte d’Appello del Distretto di Columbia ha affermato che Meta ha sollevato cinque sfide costituzionali nella sua mozione, ma il tribunale ha ritenuto che nessuna di esse avesse una “probabilità di successo alla luce dei precedenti vincolanti e del registro insolito a nostra disposizione”.
“Metanon ha dimostrato il suo onere gravoso di mostrare il diritto a un’ingiunzione in attesa di appello”, ha affermato il tribunale nel suo ordine.
Meta Platforms e la FTC non hanno immediatamente risposto alle richieste di commento da parte di Seeking Alpha.
La FTC lo scorso anno ha annunciato modifiche proposte alla sua ordinanza sulla privacy del 2020 con Meta Facebook, nell’ambito della quale l’agenzia intende rafforzare un regolamento esistente con l’azienda che emetterebbe un divieto generale di trarre profitto dai dati raccolti da utenti di età inferiore ai 18 anni.
La FTC aveva anche affermato che Meta non aveva pienamente adempiuto all’ordine precedente. L’agenzia ha affermato che Facebook aveva ingannato i genitori sulla loro capacità di controllare i contatti nell’app Messenger Kids e aveva falsamente rappresentato l’accesso ai dati privati degli utenti che aveva concesso ad alcuni sviluppatori.
In base all’ordine sulla privacy del 2020, Meta aveva pagato una multa di 5 miliardi di dollari e aveva accettato una serie di salvaguardie. Meta a novembre dello scorso anno ha intentato una causa contro la FTC in una sfida costituzionale generale contro la capacità dell’agenzia di essere sia un organo investigativo che uno giudiziario.