Meta Platforms( enon solo) è al centro di un’indagine condotta dalla Commissione Europea in merito alle modalità con cui le sue piattaforme, in particolare Facebook e Instagram, affrontano le campagne di disinformazione orchestrate dalla Russia e da altre nazioni, come riportato dal Financial Times.
La comunità europea ritiene che l’azienda non faccia abbastanza per fermare la pubblicità politica che potrebbe potenzialmente minare il processo elettorale, ha detto il media, citando due persone a conoscenza della questione.
I funzionari del continente sono preoccupati che gli strumenti di Meta non siano abbastanza facili da usare per gli utenti per segnalare contenuti illegali, ha aggiunto il media.
Si prevede che un’indagine formale arriverà questa settimana, forse già oggi.
La direttiva fa parte del Digital Services Act, pubblicato nell’ottobre 2022, che ha dato alle aziende fino a gennaio 2024 per adeguarsi.
Il Digital Services Act ha costretto le aziende come Meta, X (precedentemente nota come Twitter) e Google a dire ai regolatori esattamente cosa stanno facendo per combattere la disinformazione online e liberare rapidamente le loro piattaforme da contenuti illegali, come l’istigazione al terrorismo e lo sfruttamento sessuale dei minori.
SIn caso di violazione, la Commissione può imporre multe fino al 10 per cento del fatturato mondiale dell’azienda, che arrivano fino al 20 per cento in caso di violazione reiterata.
Meta Platforms ha scosso il mondo degli investitori con le sue previsioni per il prossimo trimestre, che sono risultate più deboli del previsto. Inoltre, ha annunciato che si troverà in una fase di investimenti per un periodo prolungato a causa dell’accelerazione dei salari nell’intelligenza artificiale.
“Nel complesso, considero i risultati che i nostri team hanno ottenuto qui come un’altra pietra miliare fondamentale nel dimostrare che abbiamo il talento, i dati e la capacità di scalare l’infrastruttura per costruire modelli e servizi di intelligenza artificiale leader a livello mondiale”, ha affermato Zuckerberg. “E questo mi porta a credere che dovremmo investire molto di più nei prossimi anni per costruire modelli ancora più avanzati e servizi di intelligenza artificiale su scala più ampia al mondo.”
Mark Zuckerberg.
Nonostante le azioni siano crollate di circa il 19% a seguito di queste notizie, gli analisti di Wall Street hanno difeso la società guidata da Mark Zuckerberg.
“Storicamente, investire per creare queste nuove esperienze su larga scala nelle nostre app è stato un ottimo investimento a lungo termine per noi e per gli investitori che sono rimasti con noi e anche qui i segnali iniziali sono piuttosto positivi”.
Zuckerberg
Un po’ come un Messia seguitemi e sarete ricompensati.
Ha aggiunto che la costruzione di un’intelligenza artificiale leader sarà un’impresa più grande rispetto alle altre esperienze che hanno aggiunto alle loro app e che probabilmente richiederà diversi anni.
“Realisticamente, anche spostando molte delle nostre risorse esistenti per concentrarci sull’intelligenza artificiale, la nostra dotazione di investimenti aumenterà comunque in modo significativo prima di ottenere entrate significative da alcuni di questi nuovi prodotti”,
Zuckerberg
Meta ha annunciato che ora prevede spese per l’intero anno comprese tra 94 e 99 miliardi di dollari a causa di “maggiori costi infrastrutturali e legali”.
(Proprio ieri, Meta ottiene il parere sfavorevole dell’avvocato generale nel caso relativo ai dati sull’orientamento sessuale nell’UE)
Le spese in conto capitale per l’intero anno saranno comprese tra 35 e 40 miliardi, rispetto a un precedente range compreso tra 30 e 37 miliardi,
“mentre continuiamo ad accelerare i nostri investimenti infrastrutturali per supportare la nostra tabella di marcia sull’intelligenza artificiale”.
Zuckerberg
Meta genera il 98% delle sue entrate dalla pubblicità digitale. Ma quando Zuckerberg parlava di pubblicità, guardava al futuro e ai modi in cui l’azienda avrebbe potuto potenzialmente trasformare i suoi attuali investimenti in dollari pubblicitari.
“Esistono diversi modi per creare un business enorme qui, tra cui il ridimensionamento della messaggistica aziendale, l’introduzione di annunci o contenuti a pagamento nelle interazioni dell’IA”.
Zuckerberg
DATA MONETIZATION. Detta cosi’ sembrerebbe che non ha molto interesse a sviluppare GENAI, ma piuttosto come sempre per META a raccogliere dati dell’utente per vendere Pubblicita’, quello che gli Analisti chiamano (l’AI) un business collateral(e). Come le TV private dove spesso i programmi sono collaterali alla pubblicita’.
“Nonostante tutti gli audaci piani di intelligenza artificiale di Meta, non può permettersi di distogliere lo sguardo dal nucleo del business: le sue attività pubblicitarie principali”, ha detto mercoledì in una nota Sophie Lund-Yates , analista di Hargreaves Lansdown. “Ciò non significa ignorare l’intelligenza artificiale, ma significa che la spesa deve essere mirata e in linea con una chiara visione strategica”.
Speriamo che ci sia spazio per il rispetto delle regole e dell’etica, non come e successo in passato, aggiungiamo noi.
Vale la pena sottolineare che Meta ha notato la volatilità delle azioni durante tali fasi di investimento nel playbook del prodotto, infatti ha aggiunto:
“dove stiamo investendo nell’ampliamento di un nuovo prodotto, non lo stiamo ancora monetizzando. Lo abbiamo visto con Reels, storie, man mano che il feed di notizie passa ai dispositivi mobili e altro ancora, e mi aspetto anche di vedere un ciclo di investimenti pluriennale prima di adattare completamente le API aziendali AI e altro ancora ai servizi redditizi che mi aspetto.”
Zuckerberg
Passando agli sforzi ben pubblicizzati di Meta per potenziare il metaverso, Zuckerberg ha affermato che è interessante il modo in cui il tema si sovrappone ora all’intelligenza artificiale.
Nel frattempo, l’unità Reality Labs di Meta , che ospita l’hardware e il software dell’azienda per lo sviluppo del nascente metaverso, continua a dissanguare denaro.
Reality Labs ha registrato vendite per 440 milioni di dollari nel primo trimestre e perdite per 3,85 miliardi di dollari. Le perdite cumulative della divisione dalla fine del 2020 hanno superato i 45 miliardi di dollari.
Zuckerberg oltre di Llama3 ha anche parlato degli occhiali AR di Meta, che ha definito “il dispositivo ideale per un assistente AI perché puoi far loro vedere ciò che vedi e sentire ciò che senti”.
“Questo è più chiaro quando si guardano gli occhiali”, “Sai, pensavo che gli occhiali [per la realtà aumentata] non sarebbero stati davvero un prodotto mainstream finché non avessimo avuto display olografici completi, e penso ancora che sarà fantastico e sarà uno stato maturo a lungo termine per il prodotto. Ma ora sembra abbastanza chiaro che esista un mercato significativo anche per gli occhiali AI alla moda senza display.”
Zuckerberg
Per chi volesse approfondire di seguito la trascrizione.
Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali. L’articolo riporta esclusivamente le opinioni della redazione che non ha alcun rapporto economico con le aziende citate.
Oggi è stato integrato su più piattaforme e rilasciato in più mercati globali l’assistente di intelligenza artificiale di Meta Platforms , Meta AI, basato su Meta Llama 3.
Hanno utilizzato molti più dati e Zuckerberg vuole mettere il modello all’interno di Whatsapp, Instagram e Facebook, siete pronti?
Meta AI, rivale di ChatGPT di OpenAI, può ora essere utilizzato su tutte le app di Meta, tra cui Facebook, Instagram, WhatsApp e Messenger.
È possibile accedervi anche da un sito Web autonomo: Meta AI .
Questa versione spiega l’azienda presenta modelli linguistici pre-addestrati e ottimizzati per seguire istruzioni con 8B e 70B parametri, in grado di supportare un’ampia gamma di applicazioni d’uso.
⏺ Training Data: Trained on a massive 15 trillion token dataset (7x larger than Llama 2). Over 5% of data consists of non-English text covering 30+ languages
⏺ Broad Platform Support: Available on @AWS, @Databricks, @Google Cloud platforms and more.
⏺ Advanced AI Capabilities: Includes improved reasoning, longer context windows, and better overall AI performance
⏺ Safety and Responsibility Features: Features tools like Llama Guard 2 and Code Shield to ensure safe use.
⏺ Industry-Leading Performance: Sets new benchmarks in performance compared to previous models.
⏺ Future Enhancements Planned: Upcoming models with up to 400B parameters and new capabilities like multimodality.
⏺ Meta AI Integration: Powers Meta’s AI assistant for enhanced user experiences across various platforms.
Questa nuova generazione di Llama secondo Meta dimostra prestazioni superiori su un’ampia gamma di benchmark standard di settore e offre nuove funzionalità, tra cui un ragionamento migliorato. L’azienda ritiene che questi siano i migliori modelli open source della loro categoria.
Meta AI in inglese viene rilasciato anche in più di una dozzina di paesi al di fuori degli Stati Uniti, tra cui Australia, Canada, Ghana, Giamaica, Malawi, Nuova Zelanda, Nigeria, Pakistan, Singapore, Sud Africa, Uganda, Zambia e Zimbabwe.
L’aggiornamento a Meta AI ha anche migliorato le sue capacità di generazione di immagini.
“Stiamo velocizzando la generazione di immagini, in modo da poter creare immagini dal testo in tempo reale utilizzando la funzione Imagine di Meta AI”,
ha affermato Meta in un comunicato stampa.
“Stiamo iniziando a implementarlo oggi in versione beta su WhatsApp e sull’esperienza web Meta AI negli Stati Uniti.”
I modelli Llama 3 saranno presto disponibili su AWS , Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM e Snowflake e con il supporto di piattaforme hardware offerto da AMD , AWS, Dell , Intel , NVIDIA e Qualcomm , ha affermato Meta .
“Llama 3 utilizza un’architettura trasformatore esclusivamente decoder e un nuovo tokenizzatore che fornisce prestazioni migliorate del modello con dimensioni di 128k”, ha affermato la portavoce di AWS Emma Quong.
“Inoltre, Meta ha migliorato le procedure post-formazione che hanno sostanzialmente ridotto i tassi di falsi rifiuti, migliorato l’allineamento e aumentato la diversità nelle risposte dei modelli.”
“Nei prossimi mesi, prevediamo di introdurre nuove funzionalità, finestre di contesto più lunghe, dimensioni di modelli aggiuntivi e prestazioni migliorate, e condivideremo il documento di ricerca di Llama 3”,
ha aggiunto Meta.
Meta ha lanciato il suo modello linguistico di grandi dimensioni Llama 2 nel luglio 2023.
Alcune delle sue misure di sicurezza erano considerate “troppo sicure” in quanto voleva evitare alcune delle insidie incontrate da Geminidi Google.
Questa nuova versione include nuovi strumenti di protezione e sicurezza con Llama Guard 2, Code Shield e CyberSec Eval 2.
I modelli linguistici di grandi dimensioni come GPT e Llama vengono addestrati con una perdita di previsione del token successivo. In questo lavoro, suggeriamo che l’addestramento di modelli linguistici per prevedere più token futuri contemporaneamente si traduca in una maggiore efficienza del campione. Più specificamente, in ciascuna posizione nel corpus di addestramento, chiediamo al modello di prevedere i seguenti n token utilizzando n teste di output indipendenti, operando su un tronco del modello condiviso. Considerando la previsione multi-token come un’attività di formazione ausiliaria, misuriamo le capacità a valle migliorate senza costi aggiuntivi in termini di tempo di formazione sia per i modelli di codice che per quelli in linguaggio naturale. Il metodo è sempre più utile per modelli di dimensioni maggiori e mantiene il suo fascino durante l’addestramento per più epoche. I guadagni sono particolarmente pronunciati sui benchmark generativi come la codifica, dove i nostri modelli superano costantemente le solide linee di base di diversi punti percentuali. I nostri modelli con parametri 13B risolvono il 12% in più di problemi su HumanEval e il 17% in più su MBPP rispetto a modelli next-token comparabili. Esperimenti su piccoli compiti algoritmici dimostrano che la previsione multi-token è favorevole allo sviluppo di teste di induzione e capacità di ragionamento algoritmico. Come ulteriore vantaggio, i modelli addestrati con la previsione a 4 token sono fino a 3 volte più veloci nell’inferenza, anche con batch di grandi dimensioni.
Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Questo è forse uno dei grafici più importanti sull’Intelligenza Artificiale per il 2024. È stato costruito dallo straordinario team di ricercatori di CathieDWood‘S @ARKInvest. Possiamo vedere che l’ascesa dei modelli locali open source è sulla buona strada per superare i massicci (e costosi) modelli chiusi basati sul cloud.
L’ascesa dei modelli locali open source che superano i massicci e costosi modelli chiusi basati sul cloud è affascinante. Questo cambiamento potrebbe democratizzare l’Intelligenza Artificiale e consentire un’innovazione più diffusa, poiché gli attori più piccoli ottengono l’accesso a strumenti potenti senza la necessità di ingenti investimenti
Meta ha compiuto un passo significativo nel mondo dell”i’Intelligenza Artificiale open source con progetti come Llama 3, dimostrando un impegno verso l’innovazione e affrontando le sfide associate a tali iniziative all’avanguardia e su larga scala.
Tuttavia, ci sono notevoli costi legati allo sviluppo di queste tecnologie, specialmente per addestrare modelli linguistici complessi come Llama 3, che richiedono risorse computazionali ed energetiche considerevoli.
Perché Meta si sta avventurando nell’Intelligenza Artificiale open source?
Una ragione chiave potrebbe essere la strategia di “mercificare il proprio complemento”.
Questo concetto, identificato da Joel Spolsky, implica rendere i prodotti e i servizi complementari al proprio core business economici e ampiamente disponibili, al fine di aumentare la domanda per il prodotto principale e catturarne il valore. Storicamente, questa strategia ha funzionato bene nel settore tecnologico, come dimostrato da casi come IBM con il PC originale e Microsoft con MS-DOS.
Meta si è impegnata in questa strategia anche attraverso l’Intelligenza Artificiale generativa, che consente agli utenti di creare rapidamente nuovi contenuti, dall’immagine al testo ai video.
Facendo sì che la creazione di contenuti sia economica e diffusa, Meta può aumentare l’coinvolgimento degli utenti sulle proprie piattaforme, generando così maggiori entrate pubblicitarie.
Il rilascio di tecnologie AI come open source attira i migliori talenti nel campo, promuove l’innovazione e migliora i prodotti di Meta.
Questa strategia è sostenuta dall’idea che l’accesso alla tecnologia AI di base non comprometta il core business di Meta nel social networking e nella pubblicità digitale.
I modelli di Intelligenza Artificiale aperti ampliano l’universo dei contenuti disponibili senza minacciare direttamente le piattaforme di Meta per gli inserzionisti o gli utenti.
Meta mira a sfruttare l’Intelligenza Artificiale open source per aumentare l’coinvolgimento degli utenti, migliorare i suoi prodotti (fine Tuning) e servizi e aumentare i profitti, senza compromettere il suo core business.
Yann LeCun :
Meta sta implementando una strategia innovativa che va oltre i tradizionali modelli di business basati sulla pubblicità (ADV) e sui pagamenti per servizi. Questa strategia prevede la distribuzione gratuita di un modello a milioni di persone e sviluppatori. L’obiettivo è stimolare la creazione di soluzioni che possano essere utili per i clienti di Meta.
Gli sviluppatori, avendo accesso al modello, possono creare e personalizzare le loro soluzioni, che possono variare da applicazioni a servizi. Queste soluzioni, una volta create, possono essere acquisite da Meta, creando così un ciclo di innovazione e crescita.
In sostanza, Meta sta cercando di costruire rapidamente una comunità di produttori che creano modelli specifici con l’intenzione di acquisirli successivamente. Questo processo include la verifica della piattaforma alla fonte, il controllo di ciò che viene creato e la selezione di ciò che può essere integrato nella sua piattaforma. Questa strategia consente a Meta di rimanere all’avanguardia nell’innovazione, garantendo al contempo che le soluzioni più utili e pertinenti siano rese disponibili ai suoi clienti.
“La scommessa è che Meta ha già una base utenti e customer base. Quello che offriamo sarà utile a loro e c’è un modo per ricavare revenue da questi servizi. Per noi non ha un impatto se forniamo il modello base in open source per consentire ad altri di costruire applicazioni. Se queste applicazioni sono utili ai nostri clienti e noi possiamo comprarle da loro, può essere che migliorino la piattaforma“, il pensiero dell’azienda.
Meta Platforms ha dichiarato lunedì che inizierà a concedere in licenza il sistema operativo per le sue cuffie Quest ad altri produttori di dispositivi, posizionandosi saldamente come un’alternativa più aperta a Vision Pro di Apple.
In un video pubblicato sull’account Instagram del capo di Meta.
Mark Zuckerberg ha notato la differenza tra il modello chiuso di Apple per gli smartphone e il modello aperto per i PC.
La piattaforma di social media ha affermato che produttori di hardware come Asus e Lenovo realizzeranno dispositivi che eseguono il sistema operativo Meta Horizon. L’azienda sta anche lavorando su un visore Quest incentrato sui giochi a tiratura limitata con Xbox di Microsoft .
Republic of Gamers di Asus svilupperà cuffie da gioco e Lenovo costruirà dispositivi di realtà mista per la produttività, l’apprendimento e l’intrattenimento. Zuckerberg ha aggiunto che potrebbero volerci alcuni anni prima del lancio dei dispositivi.
Meta spingerà anche per ulteriori modi per scoprire app store alternativi su Horizon OS. Renderà più prominente il suo negozio sperimentale App Lab e inviterà persino Google di Alphabet a portare il suo Play Store su Horizon OS.
I visori per realtà virtuale e realtà mista hanno finora riscontrato solo un successo limitato, soprattutto da parte della comunità dei videogiochi. Apple è entrata nel mercato a febbraio con il lancio delle sue cuffie Vision Pro da 3.499 dollari.
Anche Microsoft anche se senza successo, una volta ha tentato di proporre Windows come sistema operativo per visori VR attraverso la sua iniziativa Windows Mixed Reality.
Solo, si fa per dire, 4 anni fa, Jared Kaplan, fisico teorico della Johns Hopkins University, ha pubblicato un articolo rivoluzionario sull’intelligenza: Scaling Laws for Neural Language Models.
La conclusione è stata chiara: più dati c’erano per addestrare un grande modello linguistico migliore sarebbe stato il suo rendimento, accurato e con più informazioni.
“Tutti sono rimasti molto sorpresi dal fatto che queste tendenze – queste leggi di scala come le chiamiamo noi – fossero fondamentalmente precise quanto quelle che si vedono in astronomia o fisica”
Kaplan
I ricercatori utilizzano da tempo grandi database pubblici di informazioni digitali per sviluppare l’Intelligenza Artificiale, tra cui Wikipedia e Common Crawl, un database di oltre 250 miliardi di pagine web raccolte a partire dal 2007. I ricercatori spesso “ripuliscono” i dati rimuovendo discorsi di incitamento all’odio e altri testi indesiderati prima di utilizzarli per addestrare modelli di intelligenza artificiale.
Nel 2020, i set di dati erano minuscoli rispetto agli standard odierni. All’epoca una banca dati contenente 30.000 fotografie dal sito fotografico Flickr era considerata una risorsa vitale.
Dopo l’articolo del Dr. Kaplan, quella quantità di dati non era più sufficiente. Si è parlato di “rendere le cose davvero grandi”, ha affermato Brandon Duderstadt, Nomic AD.
Quando OpenAI ha lanciato GPT-3 nel novembre 2020, ha segnato un traguardo significativo nell’addestramento dei modelli di intelligenza artificiale. GPT-3 è stato addestrato su una quantità di dati senza precedenti, circa 300 miliardi di “token”, che sono sostanzialmente parole o pezzi di parole.
Questa vasta quantità di dati ha permesso a GPT-3 di generare testi con una precisione sorprendente, producendo post di blog, poesie e persino i propri programmi informatici.
Tuttavia, nel 2022, DeepMind, un laboratorio di Intelligenza Artificiale di proprietà di Google, ha spinto ulteriormente in avanti i limiti.
Ha condotto esperimenti su 400 modelli di Intelligenza Artificiale, variando la quantità di dati di addestramento e altri parametri. I risultati hanno mostrato che i modelli più performanti utilizzavano ancora più dati di quelli previsti dal Dr. Kaplan nel suo articolo. Un modello in particolare, noto come Chinchilla, è stato addestrato su 1,4 trilioni di token.
Ma il progresso non si è fermato lì. L’anno scorso, ricercatori cinesi hanno presentato un modello di intelligenza artificiale chiamato Skywork, addestrato su 3,2 trilioni di token provenienti da testi sia in inglese che in cinese.
Google ha risposto presentando un sistema di Intelligenza Artificiale, PaLM 2, che ha superato i 3,6 trilioni di token.
Questi sviluppi evidenziano la rapida evoluzione del campo dell’Intelligenza Artificiale e l’importanza dei dati nell’addestramento di modelli sempre più potenti. Con ogni nuovo modello e ogni trilione di token aggiuntivo, ci avviciniamo sempre di più a modelli di Intelligenza Artificiale che possono comprendere e generare il linguaggio con una precisione e una naturalezza sempre maggiori.
Tuttavia, con questi progressi arrivano anche nuove sfide e responsabilità, poiché dobbiamo garantire che queste potenti tecnologie siano utilizzate in modo etico e responsabile.
Poi nel 2023 è arrivato questo discorso sul Synthetic Data e sulle chellenges: “Si esauriranno”. Sam Altman, Ceo di OpenAI aveva un piano per far fronte all’incombente carenza di dati.
In una email a The Verge, la portavoce di OpenAI, Lindsay Held, ha dichiarato che l’azienda utilizza “numerose fonti, compresi i dati disponibili pubblicamente e le partnership per i dati non pubblici” e che sta cercando di generare i propri dati sintetici.
Nel mese di maggio, lo stesso Altman, ha riconosciuto che le aziende di Intelligenza Artificiale avrebbero sfruttato tutti i dati disponibili su Internet.
Altman ha avuto un’esperienza diretta di questo fenomeno. All’interno di OpenAI, i ricercatori hanno raccolto dati per anni, li hanno puliti e li hanno inseriti in un vasto pool di testo per addestrare i modelli linguistici dell’azienda. Hanno estratto il repository di codice GitHub, svuotato i database delle mosse degli scacchi e attingono ai dati che descrivono i test delle scuole superiori e i compiti a casa dal sito web Quizlet.
Tuttavia, entro la fine del 2021, queste risorse erano esaurite, come confermato da otto persone a conoscenza della situazione dell’azienda, che non erano autorizzate a parlare pubblicamente.
Cosa sono i dati sintetici: i dati sintetici sono dati generati artificialmente, piuttosto che dati raccolti da eventi del mondo reale. Sono spesso utilizzati per l’addestramento dei modelli di Intelligenza Artificiale (IA) quando i dati reali non sono disponibili o sono insufficienti. Sam Altman, ex CEO di OpenAI, ha lavorato su modelli generativi che producono dati sintetici. Questi modelli, come GPT-4, utilizzano un gran numero di parametri per definire come possono essere prodotti dati simili a quelli forniti durante la fase di apprendimento. Questi parametri sono “regole generali” per la creazione di nuovi dati che il modello acquisisce dalle informazioni di addestramento fornite in precedenza. In un modello generativo basato su reti neurali, i parametri vengono ottimizzati per migliorare la capacità del modello di generare dati sintetici coerenti con quelli di addestramento. Ad esempio, si ritiene che il modello GPT-4 di OpenAI sia stato composto utilizzando qualcosa come 1.000 miliardi di parametri.
WIKI
Il CEO di YouTube, ha detto cose simili sulla possibilità che OpenAI abbia usato YouTube per addestrare il suo modello di generazione di video Sora.
Non sorprende che in entrambi i casi si tratti di azioni che hanno a che fare con la nebulosa area grigia della legge sul copyright dell’AI.
Da un lato OpenAI, alla continua ricerca di dati per un training di qualità, avrebbe sviluppato il suo modello di trascrizione audio Whisper per superare il problema,trascrivendo oltre un milione di ore di video di YouTube per addestrare GPT-4.
Secondo il New York Times, l’azienda sapeva che si trattava di un’operazione discutibile dal punto di vista legale (il presidente di OpenAI Greg Brockman era personalmente coinvolto nella raccolta dei video utilizzati), ma riteneva che si trattasse di un uso corretto(il cosidetto “fair use” tanto declamato dalle aziende di AI).
Tuttavia, Altman ha dichiarato che la corsa ai modelli generativi di dimensioni sempre più grandi sarebbe già conclusa. Ha suggerito che gli attuali modelli potranno evolvere in altri modi, non puntando più sulla “grandezza” e lasciando intendere che GPT-4 potrebbe essere l’ultimo e definitivo avanzamento nella strategia di OpenAI per ciò che riguarda il numero di parametri utilizzati in fase di addestramento.
Nel frattempo Google :
Matt Bryant, rappresentante comunicazione di Google, ha dichiarato che l’azienda non era a conoscenza delle attività di OpenAI e ha proibito lo “scraping o il download non autorizzato di contenuti da YouTube”. Google interviene quando esiste una chiara base legale o tecnica per farlo.
Le politiche di Google permettono l’utilizzo dei dati degli utenti di YouTube per sviluppare nuove funzionalità per la piattaforma video. Tuttavia, non era evidente se Google potesse utilizzare i dati di YouTube per creare un servizio commerciale al di fuori della piattaforma video, come un chatbot.
“La questione se i dati possano essere utilizzati per un nuovo servizio commerciale è soggetta a interpretazione e potrebbe essere fonte di controversie”.
Avv .Geoffrey Lottenberg, studio legale Berger Singerman
Verso la fine del 2022, dopo che OpenAI aveva lanciato ChatGPT, dando il via a una corsa nel settore per recuperare il ritardo, i ricercatori e gli ingegneri di Google hanno discusso su come sfruttare i dati di altri utenti per sviluppare prodotti di intelligenza artificiale. Tuttavia, le restrizioni sulla privacy dell’azienda limitano il modo in cui potrebbero utilizzare i dati, secondo persone a conoscenza delle pratiche di Google.
Secondo le ricostruzioni, a giugno, il dipartimento legale di Google ha chiesto al team per la privacy di redigere un testo per ampliare gli scopi per i quali l’azienda potrebbe utilizzare i dati dei consumatori (secondo due membri del team per la privacy e un messaggio interno visualizzato dal Times) ed è stato comunicato ai dipendenti che Google desiderava utilizzare i contenuti pubblicamente disponibili in Google Docs, Google Sheets e app correlate per una serie di prodotti AI. I dipendenti hanno affermato di non sapere se l’azienda avesse precedentemente addestrato l’intelligenza artificiale su tali dati.
In quel periodo, la politica sulla privacy di Google stabiliva che l’azienda potesse utilizzare le informazioni pubblicamente disponibili solo per “aiutare a formare i modelli linguistici di Google e creare funzionalità come Google Translate”.
Il team per la privacy ha redatto nuovi termini in modo che Google potesse utilizzare i dati per i suoi “modelli di Intelligenza Artificiale e creare prodotti e funzionalità come Google Translate, Bard e funzionalità di Intelligenza Artificiale del cloud”, che rappresentava una gamma più ampia di tecnologie di intelligenza artificiale.
“Qual è l’obiettivo finale qui?” ha chiesto un membro del team per la privacy in un messaggio interno. “Quanto sarà estesa?”
Al team è stato specificamente detto di pubblicare i nuovi termini nel fine settimana del 4 luglio, quando le persone sono generalmente concentrate sulle vacanze, secondo i dipendenti. La politica rivista è stata lanciata il 1° luglio, all’inizio del lungo fine settimana (NdR,il 4 luglio negli Usa è festa nazionale).
E Meta?Mark Zuckerberg aveva lo stesso problema, non aveva abbastanza dati, avevano utilizzato tutto come detto a un dirigente da Ahmad Al-Dahle, vicepresidente dell’AI generativa di Meta quindi non poteva eguagliare ChatGPT a meno che non fosse riuscito ad ottenere più dati.
Meta ha usato, fra gli altri materiali, due raccolte di libri, il Gutenberg Project, che contiene opere nel pubblico dominio, e la sezione Books3. Ma la maggior parte sono opere “piratate” e per questo alcuini avviato una class action contro Meta e ciò era evidente sino dall’inizio come dimostra il documento di seguito.
Nei mesi di marzo e aprile 2023, alcuni leader dello sviluppo aziendale, ingegneri e avvocati dell’azienda si sono incontrati quasi quotidianamente per affrontare il problema.
Alcuni hanno discusso del pagamento di 10 dollari a libro per i diritti di licenza completi sui nuovi titoli. Hanno discusso dell’acquisto di Simon & Schuster,di cui fanno parte anche Penguin Random House, HarperCollins, Hachette e Macmillan. Fra gli autori di Simon & Schuster ci sono Stephen King, Colleen Hoover e Bob Woodward.
Hanno anche parlato di come avevano riassunto libri, saggi e altri lavori da Internet senza permesso anche per via del precedente scandalo sulla condivisione dei dati dei suoi utenti all’epoca di Cambridge Analytica.
Un avvocato ha avvertito di preoccupazioni “etiche” riguardo alla sottrazione della proprietà intellettuale agli artisti, ma è stato accolto nel silenzio, secondo un audio registrato e condiviso con il NYT di cui ha dato conto il quotidiano britannico The Guardian. Meta era stata anche accusata dal BEUC unione consumatori europei con una multa da 1.2 miliardi di euro.
Zuckerberg, per tranquillizare gli investitori, ha affermato in una recente call (Earnings call Transcript 2023 di seguito) che i miliardi di video e foto condivisi pubblicamente su Facebook e Instagram sono “superiori al set di dati Common Crawl”.
I dirigenti di Meta hanno affermato che OpenAI sembrava aver utilizzato materiale protetto da copyright senza autorizzazione. Secondo le registrazioni, Meta impiegherebbe troppo tempo per negoziare le licenze con editori, artisti, musicisti e l’industria dell’informazione.
“L’unica cosa che ci impedisce di essere bravi quanto ChatGPT è letteralmente solo il volume dei dati”,
Nick Grudin, vP partnership globale e dei contenuti.
Sembra che OpenAI stia prendendo materiale protetto da copyright e Meta potrebbe seguire questo “precedente di mercato”, ha aggiunto, citando una decisione del tribunale del 2015 che coinvolgeva la Authors Guild contro Google .
In quel caso, a Google è stato consentito di scansionare, digitalizzare e catalogare libri in un database online dopo aver sostenuto di aver riprodotto solo frammenti delle opere online e di aver trasformato gli originali, sempre in base alla dottrina del fair use.
La saga continua.
Come abbiamo scritto in un precedente post, la FTC americana può riaprire il caso sulla privacy di Meta nonostante la multa di 5 miliardi di dollari, stabilisce il tribunale, anche se Meta – che possiede WhatsApp, Instagram e Facebook – ha risposto che la FTC non può “riscrivere unilateralmente” i termini dell’accordo precedente, che un giudice statunitense ha approvato nel 2020.
L’FTC ha replicato che l’accordo, che stabilisce nuovi requisiti di conformità e supervisione, non era destinato a risolvere “tutte le richieste di risarcimento in perpetuo”.
Indipendentemente dal punto di vista e da ciò che sarà deciso nei tribunali, l’importanza di conoscere il contenuto dei dataset è oggi più rilevante che mai. Si tratta senza dubbio di un problema di natura politica.
Cos’è esattamente la Meta AI? È un assistente conversazionale in grado di rispondere a domande di testo e generare immagini fotorealistiche da istruzioni di testo. È disponibile in versione beta su WhatsApp, Messenger e Instagram e sarà presto disponibile sugli occhiali intelligenti Ray-Ban Meta e Quest 3. Meta AI è alimentato da tecnologie generative come Llama 2 ed Emu, che sono in grado di creare testo e immagini da grandi dimensioni. set di dati.
Meta sta portando avanti i suoi sforzi per rendere i suoi prodotti generativi basati sull’intelligenza artificiale disponibili a più utenti. Oltre a testare il chatbot Meta AI con utenti in paesi come l’India su WhatsApp ,
l’azienda sta anche sperimentando l’inserimento di Meta AI nella barra di ricerca di Instagram sia per chattare con l’intelligenza artificiale che per scoprire contenuti.
La query di ricerca nella barra di ricerca ti porta a una conversazione in DM con Meta AI, dove puoi porre domande o utilizzare uno dei suggerimenti precaricati. Il design della schermata di richiesta ha spinto il CEO di Perplexity AI, Aravind Srinivas, a sottolineare che l’interfaccia utilizza un design simile alla schermata di ricerca della startup.
YannLeCun è considerato uno dei padri dell’Intelligenza artificiale, noto per i suoi contributi nei settori dell’apprendimento automatico, della robotica, del deep learning e delle neuroscienze computazionali.
È professore alla New York University e Chief AI Scientist di Meta e proprio per questo, quando parla di Intelligenza Artificiale è bene prestare attenzione alle sue parole.
Nick Clegg, presidente degli affari globali di Meta Platforms , ha confermato che l’azienda tecnologica rilascerà la prossima versione del suo modello di linguaggio di grandi dimensioni, Llama 3, nel “prossimo mese”.
“Entro il prossimo mese, anzi meno, speriamo di iniziare a distribuire la nostra nuova suite di modelli di base di prossima generazione, Llama 3”, ha detto Clegg durante un evento a Londra, secondo TechCrunch.
Meta fa un passo ulteriore verso l’accessibilità dell’IA, rendendo LLaMA 3 open source. Questa decisione mira a democratizzare l’intelligenza artificiale, permettendo a sviluppatori, ricercatori e appassionati di tutto il mondo di sfruttare questa potente tecnologia.
Gli ingegneri di Meta hanno annunciato un investimento importante sul futuro dell’intelligenza artificiale, con la presentazione di due cluster composti da 24.576 GPU NVIDIA H100.
Meta prevede di distribuire 350.000 H100 entro l’anno, creando un’infrastruttura massiccia per supportare le crescenti richieste di calcolo avanzato.
Rispetto alle versioni precedenti di Llama offrirà un’ampia gamma di dimensioni del Modello . L’intento è di rendere facile per gli sviluppatori di terze parti riqualificarsi, mettere a punto e costruire sul modello base.
Llama 3 avra’ la capacità di offrire risposte contestualizzate, evitando le rigidità e le restrizioni eccessive che hanno caratterizzato altri modelli. Meta intende infatti promuovere un approccio più equilibrato e umano, fornendo contesto piuttosto che eludere o censurare le domande degli utenti.
Tuttavia, avrà ancora dei paletti. legati alla legge sulla sicurezza dell’IA, inclusa la nuova legge sull’intelligenza artificiale dell’Unione Europea.
“Ci saranno una serie di modelli diversi con diverse capacità, diverse versatilità [rilasciate] nel corso di quest’anno, a partire davvero molto presto.”
Meta ha lanciato Llama 2 nel luglio 2023 e Code Llama, che può utilizzare prompt di testo per generare e discutere codice, il mese successivo.
L’azienda guidata da Mark Zuckerberg vuole che il nuovo modello di linguaggio di grandi dimensioni affronti domande “contenziose” dopo che le salvaguardie che ha rilasciato per Llama sono state considerate “troppo sicure” dagli esecutivi dell’azienda e da alcuni dei ricercatori del modello.
“Prevediamo di iniziare a etichettare i contenuti generati da IA a partire da maggio 2024 e smetteremo di rimuovere i contenuti esclusivamente sulla base della nostra politica sui video manipolati a luglio”, ha dichiarato Meta in un post sul blog. “Questa tempistica dà alle persone il tempo di comprendere il processo di auto-rivelazione prima che smettiamo di rimuovere la piccola sottoinsieme di media manipolati.”
La politica ora si applica a immagini, video o audio che sono stati “creati o alterati digitalmente”.
In precedenza, Meta rimuoveva i video che erano stati modificati o cambiati secondo la sua “politica sui media manipolati”.
“Siamo d’accordo con la raccomandazione del Consiglio di Supervisione che fornire trasparenza e contesto aggiuntivo è ora il modo migliore per affrontare i media manipolati e evitare il rischio di limitare inutilmente la libertà di parola, quindi manterremo questo contenuto sulle nostre piattaforme in modo da poter aggiungere etichette e contesto”, ha aggiunto Meta nel post sul blog.
Il cambiamento della politica arriva dopo che il suo Consiglio di Supervisione indipendente ha detto a febbraio che la sua politica sui media manipolati era “incoerente”.
Aggiungendo ulteriori informazioni, Meta ha annunciato che inizierà a etichettare un’ampia gamma di contenuti video, audio e immagini come “Made with AI” quando rileva indicatori di immagini AI standard del settore o quando le persone rivelano che stanno caricando contenuti generati da IA.
Questo cambiamento è stato influenzato dalle raccomandazioni del Consiglio di Supervisione e da un processo di revisione delle politiche che includeva sondaggi di opinione pubblica e consultazioni con accademici e organizzazioni della società civile.
Una corte d’appello statunitense venerdì ha respinto la richiesta di Meta Platforms di sospendere la Federal Trade Commission (FTC) dal riaprire un caso sulla sua unità Facebook mentre l’azienda persegue una causa legale contro l’agenzia.
La Corte d’Appello del Distretto di Columbia ha affermato che Meta ha sollevato cinque sfide costituzionali nella sua mozione, ma il tribunale ha ritenuto che nessuna di esse avesse una “probabilità di successo alla luce dei precedenti vincolanti e del registro insolito a nostra disposizione”.
“Metanon ha dimostrato il suo onere gravoso di mostrare il diritto a un’ingiunzione in attesa di appello”, ha affermato il tribunale nel suo ordine.
Meta Platforms e la FTC non hanno immediatamente risposto alle richieste di commento da parte di Seeking Alpha.
La FTC lo scorso anno ha annunciato modifiche proposte alla sua ordinanza sulla privacy del 2020 con Meta Facebook, nell’ambito della quale l’agenzia intende rafforzare un regolamento esistente con l’azienda che emetterebbe un divieto generale di trarre profitto dai dati raccolti da utenti di età inferiore ai 18 anni.
La FTC aveva anche affermato che Meta non aveva pienamente adempiuto all’ordine precedente. L’agenzia ha affermato che Facebook aveva ingannato i genitori sulla loro capacità di controllare i contatti nell’app Messenger Kids e aveva falsamente rappresentato l’accesso ai dati privati degli utenti che aveva concesso ad alcuni sviluppatori.
In base all’ordine sulla privacy del 2020, Meta aveva pagato una multa di 5 miliardi di dollari e aveva accettato una serie di salvaguardie. Meta a novembre dello scorso anno ha intentato una causa contro la FTC in una sfida costituzionale generale contro la capacità dell’agenzia di essere sia un organo investigativo che uno giudiziario.
L’intelligenza artificiale sta diventando più di un semplice argomento di discussione per le Big Tech e le reazioni alla presentazione degli ultimi dati trimestrali hanno evidenziato le crescenti aspettative sul tema da parte degli investitori che hanno puntato sulla diffusa integrazione della tecnologia AI nei settori aziendali, alimentando il rally del mercato azionario che ha spinto le azioni di queste società a livelli record e contribuendo, per la maggior parte, all’incremento del 24% registrato dall’indice S&P 500 lo scorso anno.
Microsoft e Alphabet sono state le prime a presentare i propri dati lo scorso martedì e anche a scoprire che quando si tratta di intelligenza artificiale analisti e investitori hanno grandi aspettative. Infatti, nonostante risultati finanziari particolarmente buoni per entrambe le aziende, le azioni sono scivolate nelle contrattazioni dell’after market dopo la pubblicazione dei risultati.
Per quanto riguarda Microsoft, Wall Street si aspettava una maggiore chiarezza su quanto l’intelligenza artificiale può effettivamente contribuire alle performance finanziarie in futuro, considerato che l’azienda è stata finora in prima linea grazie agli accordi con OpenAI.
Nel caso di Google invece, oltre alla debolezza del suo business principale, quello della pubblicità, quello che ha sollevato preoccupazioni è stata l’incisività delle attività dell’azienda nel campo dell’intelligenza artificiale e il rischio che possa rimanere indietro rispetto a Microsoft.
Stessa sorte toccata giovedì ad Apple che nonostante le buone performance finanziarie ha registrato un calo delle azioni principalmente per i timori legati al rallentamento delle vendite in Cina, il suo mercato principale, ma anche per le poche indicazioni su come l’azienda si stia muovendo nel campo dell’intelligenza artificiale generativa, atteso che, le cuffie Vision Pro appena lanciate gli analisti non prevedono possano portare entrate significative per diversi anni.
Le azioni di Meta e Amazon invece hanno registrato entrambe un forte rialzo nelle negoziazioni post chiusura. Meta, oltre ai buoni risultati e ad aver lanciato il suo primo dividendo, ha fornito una prospettiva chiara sui progressi del suo programma di sviluppo dell’intelligenza artificiale affermando che quest’anno sarà la più grande area di investimento dell’azienda, facendo ritenere agli analisti che la tecnologia AI di Meta sarà in grado da fare da driver per la crescita della spesa pubblicitaria sulle sue piattaforme.
Gli utili di Amazon hanno superato le stime, facendo salire le quotazioni delle azioni negli scambi dopo la chiusura del mercato perché le nuove funzionalità di intelligenza artificiale generativa nelle sue attività di cloud ed e-commerce hanno stimolato una crescita robusta durante il periodo critico delle festività.
Amazon prevede che quest’anno le sue spese in conto capitale aumenteranno per supportare la crescita di AWS, compresi ulteriori investimenti nell’intelligenza artificiale generativa e in modelli linguistici di grandi dimensioni, tenuto conto che per rafforzare il proprio business nel cloud e in risposta all’investimento di 10 miliardi di dollari di Microsoft in OpenAI, l’azienda guidata da Jeff Bezos sta a sua volta investendo fino a 4 miliardi di dollari nel produttore di chatbot Anthropic.
C’è da ritenere quindi che nei prossimi appuntamenti con i dati trimestrali delle big tech gli occhi di investitori e analisti saranno puntati sulla ricerca dei segnali che gli investimenti multimiliardari effettuati nello sviluppo dell’intelligenza artificiale si stiano effettivamente traducendo in guadagni finanziari.
Sotto esame saranno soprattutto quelle realtà costrette ad inseguire per cogliere maggiori opportunità di crescita nel settore dell’intelligenza artificiale ed è prevedibile che l’ondata di investimenti registrata nel 2023 sarà seguita dall’integrazione della tecnologia in più applicazioni, che potrebbero cambiare in modo significativo il panorama dei prodotti di intelligenza artificiale di successo.
Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Siamo a fine novembre 2022. OpenAI ha appena lanciato ChatGPT, dando il via a quella che si sarebbe poi trasformata in una vera e propria mania per l’Intelligenza Artificiale. Le startup che si occupano del settore raccolgono miliardi di dollari.
Le aziende con business collegati come Nvidia Corp. – che produce i chip che alimentano ChatGPT – veleggiano in borsa raggiungendo quotazioni sempre più alte. Microsoft, che sotto la guida di Satya Nadella ha investito in OpenAI riceve il plauso degli analisti. Tik Tok cresce ogni giorno di più in termini di popolarità.