Apple ha rifiutato mesi fa di integrare il chatbot AI Llama di Meta negli iPhone, secondo Bloomberg. Le aziende hanno parlato brevemente a marzo, ma Apple ha deciso di non andare avanti, ritenendo le pratiche di privacy di Meta insufficienti.
Apple ha preferito ChatGPT di OpenAI e ha annunciato l’integrazione del chatbot all’inizio di questo mese. Apple prevede di collaborare con Google per integrare Gemini nei suoi prodotti, sfruttando la loro collaborazione per il browser Safari.
Apple sta anche negoziando con la startup AI Anthropic per una possibile partnership. Nonostante Apple abbia presentato la sua tecnologia AI, Apple Intelligence, questa non è allo stesso livello delle offerte concorrenti, quindi l’azienda cerca partner. Si crede inoltre che gli utenti desiderino più opzioni di chatbot AI. Il Wall Street Journal ha riportato che Apple e Meta hanno discusso di una partnership AI per integrare il modello di intelligenza artificiale generativa di Facebook in Apple Intelligence.
L’intelligenza artificiale è un tema caldo per gli investimenti, con aziende come Nvidia che ne traggono enormi benefici. Tuttavia, molte altre aziende tecnologiche non hanno visto lo stesso successo finanziario. OpenAI, ad esempio, genera solo 3 miliardi di dollari all’anno, che è poco rispetto alle centinaia di miliardi di altre grandi aziende tecnologiche come Apple. Per ora, solo aziende come Nvidia e Super Micro Computer, che vendono attrezzature per lo sviluppo dell’intelligenza artificiale, vedono grandi ricavi e profitti.
Apple ha annunciato venerdì che sta ritardando il rilascio di molte delle sue funzionalità di intelligenza artificiale nell’Unione Europea a causa del Digital Markets Act, secondo un rapporto di Bloomberg. Apple ora prevede di bloccare quest’anno il rilascio di Apple Intelligence, iPhone Mirroring e SharePlay Screen Sharing da parte degli utenti nell’UE.
Morgan Stanley ha previsto una crescita moderata del fatturato di Cloudflare tra il 2025 e il 2027, grazie all’aumento dell’uso dell’intelligenza artificiale nei dispositivi Apple.
Lunedì, durante lil suo WWDC Apple ha annunciato l’accordo con OpenAI e il proprio sistema di intelligenza artificiale, Apple Intelligence. NO Cash in advance. Apple non sta pagando OpenAI per integrare ChatGPT nei suoi dispositivi, secondo fonti di Bloomberg. I dettagli finanziari dell’accordo non sono stati resi noti.
Gli analisti di Bank of America e Morgan Stanley affermano che l’accordo ChatGPT di Apple non escluderà Google come pensavano
“A nostro avviso, i casi d’uso presentati da Apple non sembrano presentare una minaccia di disintermediazione per la ricerca su Internet su larga scala o la ricerca tramite query commerciale”, ha scritto il Managing Director Brian Nowak in una nota per gli investitori. “
Mercoledì Apple ha superato Microsoft come azienda quotata in borsa con il maggior valore al mondo, dopo che il produttore di iPhone è balzato in prima linea nella corsa all’intelligenza artificiale.
Le azioni di Apple sono aumentate del 3,8% a 214,95 dollari, per una valutazione di 3,30 trilioni di dollari. La valutazione di Microsoft si è attestata a 3,26 trilioni di dollari, scendendo al di sotto di quella di Apple per la prima volta da gennaio.
Martedì, Apple ha catturato l’attenzione di Wall Street grazie al discorso di ieri, descritto come un “momento cruciale” per l’intelligenza artificiale.
Apple ha avviato la conferenza degli sviluppatori con un discorso importante, introducendo aggiornamenti basati sull’intelligenza artificiale per i suoi sistemi operativi.
Apple terrà la sua conferenza annuale per sviluppatori la prossima settimana. Questo evento segnerà l’inizio di un “ciclo di crescita guidato dall’intelligenza artificiale” per l’azienda.
Crediamo che la WDC24 sia l’evento più significativo per Apple degli ultimi dieci anni, poiché la pressione per introdurre tecnologie di intelligenza artificiale generativa è alta e Tim Cook e il suo team faranno la storia per Cupertino lunedì prossimo.
La nuova tecnologia AI nell’ecosistema Apple offrirà grandi opportunità di guadagno sia nei servizi che nell’hardware, come l’iPhone.
Ci si aspetta che Apple annunci una collaborazione con la startup OpenAI per integrare i loro modelli linguistici avanzati nei dispositivi Apple.
Potrebbero anche presentare modelli linguistici sicuri basati sul cloud usando i propri processori, con sviluppatori che creano app per i consumatori basate sulla nuova tecnologia AI di Apple.
La prossima versione di iOS avrà diverse funzioni AI, ma il lancio di Apple nei prossimi mesi potrebbe essere ancora più rilevante.
La prossima versione dell’iPhone, prevista per settembre, potrebbe includere funzioni AI “esclusive” che potrebbero segnare un nuovo ciclo di crescita previsto per il 2025.
Apple svelerà aggiornamenti ai suoi sistemi operativi, inclusa una nuova versione di Siri, che avrà nuove funzionalità e l’integrazione nelle app, segnando l’ingresso di Apple nella corsa all’intelligenza artificiale. Altri annunci importanti includono una partnership con OpenAI per eseguire comandi di intelligenza artificiale generativa direttamente sull’iPhone.
Apple introdurrà anche funzionalità di intelligenza artificiale generativa, come risposte automatiche in Mail e Messaggi, una versione aggiornata di Xcode e Emoji create dall’IA.
Safari potrebbe ottenere una funzionalità di riepilogo per siti Web, articoli, messaggi, e-mail e notifiche.
Queste funzionalità potrebbero aumentare il valore delle azioni di Apple e, con un servizio di abbonamento AI, aggiungere miliardi di dollari in entrate annuali.
Apple apporterà anche altre modifiche ai suoi sistemi operativi, come una nuova app Password e miglioramenti ad app esistenti.
Anche se non si prevede la presentazione di nuovo hardware, Apple introdurrà aggiornamenti software abilitati all’intelligenza artificiale per catalizzare gli aggiornamenti dell’iPhone più tardi quest’anno, favorendo la crescita annuale.
Nel tentativo di migliorare la privacy degli utenti, Apple utilizzerà probabilmente una tecnica chiamata “confidential computing“. Questo metodo impedirà ai dipendenti di accedere ai dati elaborati dai chip interni dell’azienda, mantenendo le informazioni private anche durante l’elaborazione, secondo The Information.
Apple sta lavorando per presentare una nuova strategia di intelligenza artificiale (IA) durante il suo Worldwide Developers Conference (WWDC) di questo mese. La compagnia si concentra su strumenti che gli utenti possono utilizzare nella vita quotidiana, piuttosto che su funzionalità più avanzate come quelle offerte da Microsoft, Alphabet e OpenAI. Questo approccio è basato su un progetto chiamato Greymatter, che integrerà strumenti di IA in applicazioni come Safari, Photos e Notes.
All’I/O 2023 Google ha lanciato Project Gameface , un “mouse” da gioco open source a mani libere che consente alle persone di controllare il cursore di un computer utilizzando il movimento della testa e i gesti facciali. Le persone possono alzare le sopracciglia per fare clic e trascinare o aprire la bocca per spostare il cursore, rendendo il gioco più accessibile.
il Videocita la collaborazione con Incluzza, società indiana che supporta persone con disabilità, insieme stanno studiando come il progetto possa essere esteso a contesti educativi e lavorativi.
Apple potrebbe essere vicina a un accordo con un’importante azienda tecnologica per portare l’intelligenza artificiale basata su cloud su iPhone, ma gli aspetti economici di un potenziale accordo sono ancora sotto esame, ha dichiarato Bank of America.
Wedbush prevede una partnership “fatta e patta” tra Apple e OpenAI, che porterà a un’integrazione significativa dell’intelligenza artificiale (IA) nell’iPhone 16.
Secondo indiscrezioni, Apple e OpenAI, sostenuta da Microsoft, stanno finalizzando un accordo per integrare le funzionalità di ChatGPT nel prossimo sistema operativo di Apple, iOS 18. Questa partnership arriva dopo le voci di marzo riguardo a un possibile accordo tra Apple e Google per l’integrazione del modello Gemini di Alphabet nell’iPhone.
Apple e OpenAI sono in trattativa avanzata per integrare l’innovativa tecnologia di quest’ultima nell’ultimo iPhone, mentre la compagnia di Cupertino mira a potenziare i propri dispositivi con nuove capacità di intelligenza artificiale, secondo quanto riportato da Bloomberg News, che cita fonti a conoscenza della situazione.
Neuralink, l’innovativa azienda di neurotecnologia guidata da Elon Musk, ha recentemente divulgato che il proprio sistema di interfaccia cervello-computer (BCI) ha presentato malfunzionamenti alcune settimane dopo l’impianto in Noland Arbaugh, un giovane di 29 anni coinvolto in un grave incidente.
All’inizio dell’anno, nell’ambito dello studio PRIME autorizzato dalla FDA, Arbaugh ha ricevuto il dispositivo sperimentale, progettato per consentire a persone con disturbi neurologici di manovrare dispositivi elettronici mediante il pensiero.
Tuttavia, mercoledì la compagnia ha comunicato che alcuni elettrodi dell’impianto di Arbaugh sono usciti dalla loro posizione originaria poche settimane dopo l’operazione.
Questo problema ha causato un calo nel bit rate per secondo, una metrica fondamentale per valutare la performance della BCI secondo gli standard di Neuralink. La società ha poi adottato misure correttive, incluse ottimizzazioni dell’algoritmo di registrazione, che hanno portato a un netto e costante miglioramento della metrica, ora superiori ai risultati iniziali ottenuti da Arbaugh.
In futuro intendiamo estendere le funzionalità del Link al mondo fisico per consentire il controllo di bracci robotici, sedie a rotelle e altre tecnologie che potrebbero aiutare ad aumentare l’indipendenza delle persone che vivono con la tetraplegia.
Elon Musk, noto per essere alla guida di Tesla e SpaceX, ha espresso il suo entusiasmo per i progressi di Arbaugh lo scorso marzo, in seguito alla pubblicazione sui progressi fatti dal paziente, paralizzato dalla spalle in giù dopo un incidente nel 2016, che ha sperimentato per la prima volta il dispositivo attraverso la piattaforma X.
Apple intende implementare funzionalità avanzate di intelligenza artificiale sui server interni, sfruttando i chip di alta gamma come quelli presenti nei computer Mac, secondo quanto riportato da Bloomberg.
Questi chip saranno impiegati per gestire le funzioni più sofisticate di intelligenza artificiale che l’azienda prevede di introdurre sui propri dispositivi entro quest’anno, come indicato da fonti vicine alla situazione. Il progetto di trasferire l’elaborazione sui chip proprietari nei server è stato concepito tre anni fa e ha subito un’accelerazione in seguito all’impatto generato dal chatbot ChatGPT di OpenAI nel dicembre 2022.
Il Wall Street Journal aveva precedentemente evidenziato gli sforzi di Apple nella produzione di chip per server.
E’ l’ora dello spettacolo. La seconda più grande azienda statunitense per capitalizzazione di mercato ha tenuto un “diverso tipo di evento Apple” il che è un tempismo alquanto insolito dato che è solo un mese prima dell’annuale Worldwide Developers Conference (WWDC) di Apple .
Apple ha svelato i suoi ultimi iPad potenziando l’intelligenza artificiale, presentando i nuovi iPad Air, iPad Pro e altro ancora.
“Questo è il giorno più importante per l’iPad dalla sua introduzione”,
Tim Cook
iPad Aria
Apple ha svelato l’ultimo iPad Air, introdotto da John Ternus. Il dispositivo si presenta in due dimensioni: un’innovativa versione da 13 pollici e il classico modello da 11 pollici.
Entrambi vantano display all’avanguardia e un sistema di fotocamere orizzontali completamente rinnovato. Disponibili in quattro eleganti colorazioni – blu, Starlight, viola e grigio siderale – questi tablet sono equipaggiati con i potenti chip M2 di Apple. Il nuovo iPad Air si distingue per una velocità superiore del 50% rispetto al suo predecessore e triplica le prestazioni, ha evidenziato Ternus.
L’accento è stato posto anche sulle funzionalità di intelligenza artificiale, che elevano le capacità di apprendimento automatico del dispositivo.
La gamma di iPad Air parte da una capacità di 128 GB e può raggiungere 1 TB di spazio di archiviazione. Il prezzo del modello da 11 pollici inizia da $599, mentre quello da 13 pollici parte da $799. I preordini sono aperti da oggi e i dispositivi saranno disponibili a partire dalla prossima settimana.
iPadPro
John Ternus ha svelato il rinnovato iPad Pro, ora disponibile nelle versioni da 11 e 13 pollici. Questi modelli, ancora più esili dei loro predecessori, si pongono al vertice della gamma Apple per sottigliezza, superando persino l’iPad Nano. Il loro peso è rispettivamente di 0,98 e 1,28 libbre.
Il nuovo iPad Pro si distingue per il suo innovativo schermo OLED Tandem, che esalta la resa cromatica e la definizione dei pixel. Inoltre, i dispositivi includono avanzati sistemi fotografici e capacità di scansione potenziate dall’intelligenza artificiale.
Un’altra novità è il vetro con nanostruttura, che minimizza i riflessi, e l’integrazione dell’ultimo processore di Apple, il chip M4 da 3 nanometri, mai prima d’ora presente su un iPad Pro.
Il chip M4 vanta una CPU robusta con quattro core ad alte prestazioni e sei core ad alta efficienza. Si aggiunge una GPU a 10 core che introduce il ray tracing nell’esperienza iPad, migliorando notevolmente i giochi.
Il motore neurale a 16 core dell’M4, in grado di eseguire 38 trilioni di operazioni al secondo, rappresenta un’ulteriore testimonianza dell’impegno di Apple nell’ambito dell’intelligenza artificiale.
L’iPad Pro da 11 pollici è disponibile a partire da $ 999 per il modello da 256 GB, mentre la versione da 13 pollici inizia da $ 1.299. Al pari dell’iPad Air, è possibile preordinare l’iPad Pro da oggi, con disponibilita’ in negozio prevista per la settimana successiva.
Gli Accessori
Apple ha recentemente svelato una nuova Magic Keyboard, disponibile in due varianti di colore e dimensione, dotata di un trackpad ingrandito per un controllo ancora più preciso. La versione da 11 pollici è in vendita a 299 dollari, mentre il modello più ampio da 13 pollici è proposto a 349 dollari. In aggiunta, è stata presentata una versione avanzata della stilografica digitale, la Apple Pencil Pro, offerta al prezzo di 129 dollari. Quest’ultima è compatibile non solo con l’iPad Pro, ma anche con il nuovissimo iPad Air. Nel frattempo, l’azienda di Cupertino ha ridotto il costo del suo iPad di decima generazione, fissando il prezzo base a 349 dollari. Infine, Apple ha introdotto le versioni aggiornate delle sue app professionali di editing per iPad Pro, Final Cut Pro e Logic Pro, ampliando così le possibilità creative per gli utenti.
$$$
La recente chiamata agli utili evidenzia un periodo di debolezza per il settore iPad di Apple, con una riduzione del 17% dei ricavi, scesi a 5,56 miliardi di dollari nell’ultimo trimestre. Malgrado le sfide incontrate dall’iPad, Apple mantiene la propria leadership nel mercato globale dei tablet. In aggiunta, l’iPad è sotto osservazione a seguito dell’inclusione di iPadOS nell’ambito del Digital Markets Act da parte dell’Unione Europea. Apple ha ora un termine di sei mesi per garantire la conformità dei suoi prodotti con le normative del DMA.
Apple Inc. ha annunciato uno storico riacquisto di azioni proprie per 110 miliardi di dollari, il più grande mai effettuato negli Stati Uniti fino ad oggi.
Ciò avviene dopo che la società ha annunciato un rapporto sugli utili migliore del previsto e una migliore domanda e performance in Cina.
Apple ha registrato un calo del 4% delle sue entrate in un contesto di crescita moderata nelle sue categorie hardware, in particolare nella categoria iPhone. Tuttavia, il calo della base dei ricavi, è stato compensato con un importo record di ricavi creati nella categoria Servizi, che ha ulteriormente contribuito a diversificare i flussi di entrate di Apple.
Apple ha registrato ricavi totali nel primo trimestre pari a 90,7 miliardi di dollari, il che implica un calo dei ricavi del 4% su base annua. Il declino è stato il segmento iPhone, con i ricavi diminuire di quasi l’11% su base annua e raggiungere i 46,0 miliardi di dollari. IDC ha recentemente previsto che le spedizioni di dispositivi potrebbero essere fissate per una crescita del 2,0% nell’anno fiscale 2024, il che potrebbe essere un catalizzatore positivo per il business hardware in difficoltà di Apple.
Apple ha generato ricavi per servizi per 23,9 miliardi di dollari nel secondo trimestre fiscale, con una crescita del 14% su base annua. I servizi sono una componente importante dei ricavi di Apple. I servizi consolidano tutte le attività all’interno di Apple che non sono legate all’hardware, come Apple TV+, Apple Music, Apple Arcade e iCloud. Nell’anno fiscale 2023, il business dei servizi Apple ha rappresentato il 22% dei ricavi. Nel FQ2’24, questa percentuale è salita al 25%.
Questa notizia si è diffusa tra i titoli tecnologici, in vista del rapporto sull’occupazione statunitense, che è risultato inferiore alle attese. Gli Stati Uniti hanno aggiunto 175.000 posti di lavoro ad aprile. Il consenso è stimato a 240.000.
Il fondo per il settore tecnologico selezionato è cresciuto dell’1,44% rispetto a ieri e di circa il 2,38% da inizio anno.
Anche l’indice S&P 500 oggi è cresciuto di meno dell’1% e il Nasdaq 100 è cresciuto dell’1,27%. Entrambi hanno chiuso in rialzo per la prima volta in tre sessioni di negoziazione.
Non solo Google, nel futuro dell’iPhone potrebbe esserci anche ChatGpt. Secondo le ultime indiscrezioni di Bloomberg, rappresentanti di Apple avrebbero incontrato le controparti di OpenAI, l’azienda che sviluppa ChatGpt, per capire in che modo integrare il famoso chatbot all’interno di iOS 18, il sistema operativo per iPhone che verrà lanciato in autunno e, in anteprima, alla conferenza per sviluppatori Wwdc 2024 di giugno.
Bllomberg spiega che questa mossa non chiude le porte alla possibilità di collaborazione tra Apple e Google per portare a bordo del melafonino Gemini, l’IA di Big G. Quest’ultimo verrebbe inserito nelle funzionalità di ricerca web dello smartphone, mentre ChatGpt, o parte di esso, sarebbe il motore alla base del nuovo Siri, ossia una versione aggiornata dell’assistente digitale che Apple ha reso disponibile per la prima volta nel 2011, con iOS 5.
Ad oggi, ChatGpt è presente come app indipendente da scaricare sui dispositivi della Mela. Ad ogni modo, per Bloomberg le partnership con OpenAI e Google sposterebbero più in là lo sviluppo di un’intelligenza artificiale totalmente a marchio Apple, con il colosso che comincerebbe intanto ad abituare gli utenti iPhone alle funzionalità di IA, da internalizzare in un secondo momento. Intanto, l’azienda di Cupertino ha rimosso dal suo negozio di app, l’App Store, alcuni software utilizzati per generare immagini con l’IA, perché capaci di creare anche contenuti di nudo.
Ad attirare l’attenzione di Apple è stato un report di 404media, che ha individuato un certo numero di app che, tramite i social, sponsorizzavano la possibilità di sfruttare l’intelligenza artificiale generativa per realizzare foto di donne svestite. “Segno – scrive 404media – che le aziende tech stanno diventando più veloci nell’intraprendere azioni contro gli usi illeciti della tecnologia IA”.
Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.
Apple è stata criticata per essere arrivata in ritardo alla festa nel rivelare le sue ultime innovazioni nel campo dell’intelligenza artificiale, ma il produttore di iPhone ha segretamente costruito un dream team di esperti di intelligenza artificiale, secondo un’analisi del Financial Times.
Secondo il rapporto del FT , Apple ha costruito questo team, in parte, attirando ingegneri di intelligenza artificiale da rivali come Google , Amazon e Microsoft .
Apple ha aggiunto almeno 36 specialisti di intelligenza artificiale da Google dal 2018, quando ha assunto John Giannandrea come massimo dirigente dell’intelligenza artificiale. Ha inoltre coinvolto almeno 10 ex esperti di intelligenza artificiale di Amazon, insieme ad almeno altri otto ciascuno di Microsoft e Netflix. Ha guadagnato professionisti dell’intelligenza artificiale anche da Meta , Uber , Intel e ByteDance.
Kevin Lynch, (ex CTO di Adobe)
Paul Deneve, (ex CEO di Yves Saint Laurent CEO)
Jay Blahnik, (ex dirigente Nike)
Ben Shaffer, (ex dirigente Nike)
Roy Raymann, (ex dirigente Philips)
Karl Heiselman, (ex CEO di Wolff Olins)
Angela Ahrendts (ex CEO di Burberry)
Patrick Pruniaux, (ex Vice Presidente Vendite di TAG Heuer)
Jimmy Iovine, (fondatore di Beats e Interscope Records)
Dr. Dre, (fondatore Beats e magnate nel mondo della musicamusica)
Ian Rogers, (ex amministratore delegato Beats)
Musa Tariq (ex dirigente marketing di Nike e Burberry)
Marc Newson, (ex industrial designer di Legendary)
Jacob Jordan, (ex VP Louis Vuitton )
Chester Chipperfield, (ex VP Burberry e Design Interactive)
Johann Jungwirth, (ex amministratore delegato della divisione R & D di BMW)
Zane Lowe, (ex Radio 1 DJ)
Sebbene la maggior parte del team AI di Apple lavori negli uffici in California e Seattle, l’azienda ha anche un laboratorio di ricerca a Zurigo, aggiunge il rapporto.
Apple è rimasta per lo più muta su quali offerte di intelligenza artificiale l’azienda ha in serbo per i consumatori, mentre rivali come Microsoft, Google e Amazon hanno fatto annunci regolari su nuovi grandi modelli linguistici e casi d’uso dell’intelligenza artificiale.
La maggior parte degli analisti ritiene che Apple aspetterà almeno fino alla Conferenza mondiale sullo sviluppo dell’azienda di giugno per annunciare eventuali importanti rivelazioni sull’intelligenza artificiale. Altri hanno ipotizzato che l’azienda potrebbe aspettare fino a settembre, quando rivelerà il suo ultimo iPhone, per entrare nei dettagli.
Indipendentemente dai tempi, gli analisti si aspettano che Apple riveli un iPhone che da solo ha la capacità di alimentare un LLM.
Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.
Apple ha rimosso una categoria di app di intelligenza artificiale che promettevano di creare “immagini di nudo non consensuali”, ha riferito 404 Media.
Inizialmente le app utilizzavano Instagram di Meta per promuoversi, con la promessa di immagini sessualmente esplicite gratuite. Gli annunci hanno poi portato gli utenti sull’App Store, ha affermato il notiziario .
Un portavoce di Meta ha affermato che la società “non consente annunci che contengono contenuti per adulti e quando identifichiamo annunci in violazione lavoriamo rapidamente per rimuoverli”.
La rimozione di queste app è l’ultima battaglia tra le aziende tecnologiche e l’attenzione indesiderata dell’intelligenza artificiale.
Un dipendente di Microsoft che lavora sull’intelligenza artificiale ha dichiarato a marzo che il generatore di immagini Copilot Designer dell’azienda stava creando immagini violente e sessuali e che la società non stava intraprendendo le azioni appropriate.
Microsoft alla fine ha bloccato le istruzioni utilizzate per creare le immagini grafiche.
Google ha temporaneamente sospeso le immagini generate dall’intelligenza artificiale dal suo strumento Gemini a febbraio, dopo che alcune risposte di testo e immagini generate dal modello hanno mostrato carenze nella precisione della gara.
L’amministratore delegato Sundar Pichai ha promesso di risolvere il problema, definendo i risultati “completamente inaccettabili” in una nota interna.
La questione delle immagini deepfake ha attirato l’attenzione nazionale all’inizio di quest’anno dopo che la rete di social media X ha bloccato le ricerche di Taylor Swift dopo che immagini esplicite di lei generate dall’intelligenza artificiale erano state diffuse in tutto il sito.
La Casa Bianca si è detta allarmata dalla diffusione delle foto fraudolente e ha invitato il Congresso a intraprendere un’azione legislativa.
iOS 18 includerà una raccolta di nuove funzionalità di intelligenza artificiale e la versione odierna di OpenELM è solo l’ultimo pezzo del lavoro dietro le quinte di Apple in preparazione.
Non siamo lontani dal primo sguardo ufficiale a iOS 18 alla WWDC 2024 del 10 giugno, Si prevede che l’imminente nuova importante versione di iOS includerà aggiornamenti dell’intelligenza artificiale , tra cui l’elaborazione sul dispositivo, una versione rinnovata di Siri, l’integrazione intelligente con Messaggi, Apple Music, iWork e altro ancora.
L’ultima innovazione nel campo dell’intelligenza artificiale di Apple, OpenELM, è un modello linguistico open source che supera significativamente i modelli precedenti come OLMo essendo più preciso del 2,36% e utilizzando solo la metà dei token di pre-addestramento.
Questo modello all’avanguardia, sviluppato utilizzando testi provenienti da diverse fonti pubbliche, incorpora tecniche avanzate come il ridimensionamento a livello di livello e RMSNorm per migliorare le prestazioni e l’efficienza.
Grazie alla sua disponibilità open source, OpenELM fornisce un accesso senza precedenti ai suoi processi di formazione e ai benchmark delle prestazioni, incoraggiando l’innovazione diffusa e la collaborazione nella comunità di ricerca sull’intelligenza artificiale.
Meta Platforms ha dichiarato lunedì che inizierà a concedere in licenza il sistema operativo per le sue cuffie Quest ad altri produttori di dispositivi, posizionandosi saldamente come un’alternativa più aperta a Vision Pro di Apple.
In un video pubblicato sull’account Instagram del capo di Meta.
Mark Zuckerberg ha notato la differenza tra il modello chiuso di Apple per gli smartphone e il modello aperto per i PC.
La piattaforma di social media ha affermato che produttori di hardware come Asus e Lenovo realizzeranno dispositivi che eseguono il sistema operativo Meta Horizon. L’azienda sta anche lavorando su un visore Quest incentrato sui giochi a tiratura limitata con Xbox di Microsoft .
Republic of Gamers di Asus svilupperà cuffie da gioco e Lenovo costruirà dispositivi di realtà mista per la produttività, l’apprendimento e l’intrattenimento. Zuckerberg ha aggiunto che potrebbero volerci alcuni anni prima del lancio dei dispositivi.
Meta spingerà anche per ulteriori modi per scoprire app store alternativi su Horizon OS. Renderà più prominente il suo negozio sperimentale App Lab e inviterà persino Google di Alphabet a portare il suo Play Store su Horizon OS.
I visori per realtà virtuale e realtà mista hanno finora riscontrato solo un successo limitato, soprattutto da parte della comunità dei videogiochi. Apple è entrata nel mercato a febbraio con il lancio delle sue cuffie Vision Pro da 3.499 dollari.
Anche Microsoft anche se senza successo, una volta ha tentato di proporre Windows come sistema operativo per visori VR attraverso la sua iniziativa Windows Mixed Reality.
Apple ha acquisito la startup francese di intelligenza artificiale Datakalab fondata sette anni fa dai fratelli Xavier e Lucas Fischer, ha affermato il quotidiano francese Challenges.
Datakalab è un laboratorio specializzato in neuromarketing, fondato nel 2016 da Anne-Marie Gaultier, ex direttore marketing delle Galeries Lafayette, insieme ad altri partner.
Utilizzando tecnologie come braccialetti connessi e codifica facciale, Datakalab analizza le emozioni dei consumatori per comprendere meglio il comportamento dei clienti.
Collabora con aziende per ottimizzare strategie di marketing, modificando ad esempio trailer cinematografici per aumentare l’impatto emotivo. I suoi studi hanno rivelato anche dettagli sul comportamento dei clienti nei negozi, come la percezione del tempo di attesa alla cassa in base alle dimensioni del negozio.
Apple potrebbe sfruttare questa tecnologia in diversi modi:
Migliorare l’assistente digitale Siri, rendendolo più empatico e utile comprendendo le emozioni degli utenti.
Espandere le funzionalità sanitarie su dispositivi come Apple Watch e iPhone per monitorare l’umore degli utenti nel tempo, offrendo supporto per la salute mentale.
Potenziare le videochiamate attraverso app come FaceTime, consentendo agli utenti di esprimere le loro emozioni in modo più chiaro e aggiungendo personalità alle interazioni.
Rivoluzionare la pubblicità creando annunci basati sulle emozioni degli utenti, offrendo annunci mirati che tengono conto dello stato emotivo dell’utente in quel momento.
Secondo la sua pagina LinkedIn , Datakalab si descrive come un “nuovo modo per comprimere le reti neurali della visione artificiale”. Aveva tra gli 11 ed i 50 dipendenti.
Apple concentrerà la prossima versione della sua famiglia di chip M sull’Intelligenza Artificiale nel tentativo di aumentare le vendite di Mac, ha riferito Bloomberg.
I chip M4 saranno costruiti sullo stesso processo a 3 nanometri dei chip M3, ma il fornitore TSMC utilizzerà probabilmente una versione migliorata del processo a 3 nm per aumentare le prestazioni e l’efficienza energetica. Apple prevede inoltre di aggiungere un neural engine molto migliorato con un numero maggiore di core per le attività di Intelligenza Artificiale.
La prossima versione dei chip della serie M, conosciuta come M4, sarà disponibile in tre varietà, ha riferito il Bloomberg. L’M4 è già in fase di produzione e verrà eventualmente installato su ogni Mac, con annunci che arriveranno già quest’anno.
Il chip M1 è il primo processore per personal computer realizzato utilizzando la rivoluzionaria tecnologia di elaborazione a 5 nanometri e integra ben 16 miliardi di transistor, il numero più elevato mai racchiuso da Apple in un chip
Nell’ambito del rinnovamento, Apple fornirà ai nuovi iMac, al MacBook Pro da 14 pollici di fascia bassa, al MacBook Pro di fascia alta e ai Mac Mini i nuovi chip M4. Altri Mac M4 potrebbero arrivare nel 2025, inclusi i nuovi MacBook Air, Mac Studio e Mac Pro.
Apple, con sede a Cupertino, in California, ha presentato la versione precedente della serie M, la M3, in ottobre, insieme a nuove versioni di MacBook Pro e una versione aggiornata di iMac.
Apple ha aggiornato il MacBook Air con i chip M3 il mese scorso e ha evidenziato le capacità AI del nuovo notebook.
“E con un Neural Engine più veloce ed efficiente in M3, MacBook Air continua a essere il miglior laptop consumer al mondo per l’intelligenza artificiale“, ha affermato Apple nel comunicato.
La maggior parte dei nuovi iPhone e iPad hanno un Neural Engine , un processore speciale che rende i modelli di machine learning davvero veloci, ma non si sa pubblicamente come funzioni effettivamente questo processore.
L’Apple Neural Engine (o ANE) è un tipo di NPU , che sta per Neural Processing Unit. È come una GPU, ma invece di accelerare la grafica, una NPU accelera le operazioni della rete neurale come convoluzioni e moltiplicazioni di matrici.
L’ANE non è l’unica NPU disponibile: molte aziende oltre ad Apple stanno sviluppando i propri chip acceleratori AI. Oltre al Neural Engine, la NPU più famosa è la TPU (o Tensor Processing Unit) di Google.
È molto più veloce della CPU o della GPU! Ed è più efficiente dal punto di vista energetico .
Ad esempio, quando si esegue un modello su video in tempo reale, l’ANE non surriscalda il telefono e scarica la batteria molto meno rapidamente. Gli utenti lo apprezzeranno.
L’esecuzione dei tuoi modelli su ANE lascerà la GPU libera per eseguire attività grafiche e lascerà la CPU libera per eseguire il resto della tua app.
Considera questo: molte moderne architetture di rete neurale funzionano effettivamente più velocemente sulla CPU che sulla GPU (quando si utilizza Core ML). Questo perché gli iPhone hanno CPU davvero veloci! Inoltre, c’è sempre un certo sovraccarico nella pianificazione delle attività da eseguire sulla GPU, che potrebbe annullare qualsiasi aumento di velocità.
L’atteso aggiornamento arriva in un momento in cui le vendite dei Mac hanno avuto difficoltà. I ricavi dei Mac per il trimestre conclusosi a dicembre sono cresciuti solo dello 0,6% su base annua arrivando a 7,78 miliardi di dollari.
Tuttavia, le vendite potrebbero aver subito una svolta nel periodo più recente, poiché la società di ricerca IDC ha dichiarato che Apple ha spedito 4,8 milioni di unità durante il primo trimestre, in crescita del 14,6% su base annua. Alla fine del periodo deteneva l’8,1% del mercato globale dei PC, in aumento rispetto al 7,1% dello stesso periodo di un anno fa, ha aggiunto IDC.
Apple dovrebbe tenere la sua conferenza annuale degli sviluppatori a giugno, dove si prevede che il colosso della tecnologia si concentrerà su una serie di iniziative legate all’intelligenza artificiale.
Dopo la chiusura definitiva del progetto Apple Car, infatti, Apple è concentrata su nuovi progetti senza dimenticare che non sono ancora stati annunciati i dettagli dell’intelligenza artificiale made in Apple (ReALM) , che dovrebbe debuttare con iOS 18
Gli ingegneri di Apple , hanno esplorato un robot che può seguire le persone nelle loro case, ha riferito l’agenzia di stampa Bloomberg , citando persone a conoscenza della questione. Hanno anche lavorato su un dispositivo domestico che si posiziona sui tavoli e utilizza la robotica per muoversi.
Gli sforzi sono ancora nelle fasi iniziali e Apple potrebbe non rilasciare mai i prodotti, ha detto il rapporto. Apple ha abbandonato il lavoro sul suo progetto di veicolo elettrico a febbraio dopo aver speso presumibilmente $10B sul progetto nel corso di diversi anni.
Le aziende tecnologiche hanno cercato di penetrare il mercato della robotica in tempi recenti con successo misto. Amazon ha lanciato il suo robot Astro nel 2021, con il robot su invito da $1,600 mirato ad aiutare a prendersi cura degli anziani, la sicurezza domestica e un assistente virtuale.
Tuttavia, Amazon non ha fatto alcuna menzione di Astro al suo evento annuale dei dispositivi del 2023.
Tesla ha lavorato su un robot umanoide noto come robot Optimus, che l’amministratore delegato Elon Musk ha detto recentemente che potrebbe finire per essere il più grande business dell’azienda nel tempo.
Figure AI, una startup che ha raccolto $675M di finanziamenti dal co-fondatore di Amazon Jeff Bezos, Nvidia e altri, sta lavorando sul suo robot umanoide. Il robot di Figure AI, noto come
Figure 01, è un robot alimentato da intelligenza artificiale che si comporta come un umano e può essere utilizzato per svolgere compiti considerati pericolosi o inadatti per gli esseri umani. Inoltre, queste tecnologie potrebbero avere un impatto significativo sulla società, cambiando il modo in cui viviamo e lavoriamo.
Tuttavia, ci sono anche preoccupazioni etiche e di sicurezza che devono essere affrontate.
Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Il CEO Tim Cook ha dichiarato a febbraio durante un’assemblea degli azionisti online :
“Entro la fine dell’anno – ha detto Cook – non vedo l’ora di condividere con voi i modi in cui apriremo nuovi orizzonti nell’intelligenza artificiale generativa, un’altra tecnologia che crediamo possa ridefinire il futuro”.
“Apple – ha proseguito – ha preso atto dell’incredibile potenziale rivoluzionario dell’intelligenza artificiale generativa e sta investendo in modo significativo in questo settore”.
ReALM è la nuova intelligenza artificiale di Apple che, a differenza di molte altre AI, può comprendere un contesto, inclusi i suoi elementi ambigui, senza che questi debbano essere necessariamente indicati e specificati dall’interlocutore. Questo le permette di cogliere sottotesti in modo più dettagliato, consentendo interazioni più naturali con gli utenti.
La risoluzione di questo problema è una parte importante della comprensione del linguaggio naturale, poiché consente agli utenti di utilizzare pronomi e altri riferimenti indiretti senza generare confusione nella macchina. Nella creazione degli assistenti digitali, lo sviluppo della capacità di comprensione delle anafore, applicato a segnali verbali e informazioni visive, ha rappresentato storicamente una sfida significativa.
Il sistema ReALM di Apple cerca di risolvere questo problema convertendo il complesso processo di risoluzione dei riferimenti in un puro problema di modellazione del linguaggio. In tal modo, può comprendere riferimenti a elementi visivi visualizzati su uno schermo e integrare in automatico questa comprensione. Questo rappresenta un passo avanti significativo nel campo dell’intelligenza artificiale.
La “risoluzione delle anafore” è un concetto chiave nel campo dell’intelligenza artificiale e del linguaggio naturale. Le anafore sono espressioni linguistiche che fanno riferimento a un elemento o a un concetto precedentemente menzionato nel discorso. Ad esempio, in una frase come “Mario ha preso il suo cappello. Lo indossa sempre”, “lo” è un’anafora che si riferisce a “il suo cappello”.
La sfida della risoluzione delle anafore consiste nel permettere a un sistema di intelligenza artificiale di capire a cosa si riferiscono queste espressioni anaforiche nel contesto del discorso. Questo è fondamentale per la comprensione del linguaggio naturale, poiché consente agli utenti di utilizzare pronomi e altri riferimenti indiretti senza generare confusione nella macchina.
Nel caso di Apple e del suo sistema ReALM, l’obiettivo è quello di convertire il complesso processo di risoluzione dei riferimenti in un puro problema di modellazione del linguaggio. In questo modo, ReALM può comprendere riferimenti a elementi visivi visualizzati su uno schermo e integrare automaticamente questa comprensione. Questo rappresenta un passo avanti significativo nel campo dell’intelligenza artificiale e della comprensione del linguaggio naturale.
Il più recente documento di ricerca di Apple del 29 Marzo suggerisce che diventera’ un gigante tecnologico quando sarà il “vincitore dell’AI” una volta risolto il problema dell’implementazione su dispositivo che può abilitare un “superciclo” dell’iPhone, hanno detto gli analisti di Evercore ISI. ( nient’altro che una transazione di massa dai vecchi modelli di iPhone a quelli più recenti)
La ricerca, pubblicata lunedì, descrive il nuovo modello linguistico di Apple, noto come Reference Resolution As Language Modeling, o ReALM. I ricercatori hanno indicato che i modelli ReALM più piccoli presentavano prestazioni simili a quelle del GPT-4 di OpenAI, seppur con meno parametri. Ciò potrebbe consentire al nuovo modello di offrire l’AI al limite, o dispositivi come smartphone e PC, fornendo la stessa funzionalità dell’AI nei data center.
“L’innovazione chiave qui sembra essere intorno alla risoluzione dei riferimenti, che si riferisce a come l’AI (Multimodale) può comprendere i riferimenti ai dati visualizzati sullo schermo così come il contesto più conversazionale”, ha affermato l’analista di Evercore ISI Amit Daryanani. “
Apple semplifica il compito normalmente complesso della risoluzione dei riferimenti convertendo tutti i dati visualizzati sullo schermo in testo, che è molto più facile per un [grande modello linguistico] da analizzare rispetto alle immagini. Questa è la caratteristica chiave che consente ad Apple di offrire prestazioni elevate con un numero limitato di parametri.”
Offrendo strumenti di intelligenza artificiale su dispositivi consumer (e forse aumentando l’utilità di Siri), Apple potrebbe offrire agli sviluppatori una latenza inferiore, una migliore sicurezza e rendere più facile e meno costoso fare lavoro correlato all’AI, ha detto Daryanani.
“Pensiamo che la strategia di AI di Apple si concentrerà sull’incorporare l’inferenza su dispositivo per [grandi modelli linguistici] che alzeranno notevolmente l’esperienza utente non solo per l’iPhone ma anche per Mac/iPad”, ha spiegato Daryanani. “
Date la loro integrazione verticale e soprattutto il loro controllo sul proprio silicio, AAPL è meglio posizionata non solo per espandere il fossato che circonda l’ecosistema iOS ma anche potenzialmente guidare un ciclo di aggiornamento accelerato qualora l’implementazione finale venga considerata un cambiamento sufficientemente grande.”
Ha proseguito: “Il ciclo di aggiornamento probabilmente sarà guidato da aggiornamenti significativi all’hardware incluso un motore neurale o GPU potenzialmente migliorato. Inoltre, un aggiornamento sufficientemente significativo delle capacità potrebbe potenzialmente portare a un aumento nei [prezzi medi di vendita].”
Apple è pronta per dare il via alla sua conferenza annuale per sviluppatori il 10 giugno, dove molti si aspettano che la gigante tecnologica faccia una serie di annunci relativi all’AI.
Perchi volesse approfondire :
L’Intelligenza Artificiale (AI) multimodale si riferisce a sistemi di AI che possono processare, capire e/o generare output per più di un tipo di dati. Questo include la combinazione di diverse modalità di input e output, come immagini, testo, suono e video. L’obiettivo è migliorare la comprensione e le capacità di ragionamento dei sistemi di intelligenza artificiale.
Il documento di ricerca “MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training” discute la costruzione di modelli di linguaggio di grandi dimensioni multimodali efficienti (MLLMs). In particolare, studia l’importanza di vari componenti architettonici e scelte di dati. Attraverso ablazioni accurate e complete dell’encoder di immagini, del connettore linguaggio-visione e di varie scelte di dati di pre-addestramento, i ricercatori hanno identificato diverse lezioni di design cruciali.
Per esempio, dimostrano che per un pre-addestramento multimodale su larga scala, l’utilizzo di un mix attento di dati di didascalia di immagini, testo di immagini intercalate e dati solo di testo è fondamentale per ottenere risultati di riferimento pochi colpi allo stato dell’arte (SOTA state of the art), rispetto ad altri risultati di pre-addestramento pubblicati.
I modelli MM1, addestrati su dati visivi e linguistici, hanno dimostrato di eccellere in attività come la descrizione di immagini, la risposta a domande a partire da immagini e l’inferenza in linguaggio naturale. Grazie al pre-addestramento su larga scala, MM1 gode di proprietà interessanti come l’apprendimento migliorato nel contesto e il ragionamento multi-immagine, consentendo il prompting a catena di pensiero con pochi colpi.
Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!