Amazon Web Services, è in fase di negoziazione per un contratto da quasi mezzo miliardo di dollari per garantire a IBM l’accesso ai processori Nvidia su cloud per l’addestramento dell’intelligenza artificiale (AI). Questa operazione, valutata $475 milioni e distribuita su cinque anni, fornirebbe a IBM le capacità avanzate delle GPU Nvidia tramite i server EC2 di AWS, supportando la creazione di modelli AI sempre più complessi e performanti.
Tag: amazon
Amazon sta sviluppando un nuovo modello di smart glasses destinato ai suoi conducenti di consegne, con l’obiettivo di migliorare la precisione e velocizzare l’ultimo tratto di ogni consegna. Un progetto ambizioso, svelato da fonti di Reuters, che prevede una serie di innovazioni tese a rendere l’interazione del driver con il percorso più fluida e naturale, diminuendo i secondi persi a ogni consegna. Codename “Amelia”, questi occhiali intelligenti non saranno semplici dispositivi audio, come gli attuali Echo Frames, ma includeranno un display integrato per fornire istruzioni in tempo reale e altre funzionalità avanzate che puntano a rivoluzionare la logistica dell’ultimo miglio.
Amazon si prepara a fare un altro passo importante nel mondo dell’intelligenza artificiale: sta infatti considerando di aumentare notevolmente il proprio investimento in Anthropic, rivale di OpenAI, a condizione che quest’ultima utilizzi i chip sviluppati da Amazon, ospitati sui server di Amazon Web Services (AWS) per le sue operazioni di AI training. Questa mossa evidenzia la strategia di Amazon per posizionarsi al centro della competizione nel mercato dell’AI, proponendo un’offerta infrastrutturale differenziata e consolidando la propria influenza nel settore.
Alexa, l’assistente vocale di Amazon, celebra il suo decimo anniversario con un bilancio complesso: da un lato, successi indiscutibili, dall’altro sfide e critiche che ne minacciano il futuro. Dal 2014, Alexa ha raggiunto oltre 500 milioni di dispositivi in tutto il mondo, diventando un nome di spicco nel settore della domotica e dell’interazione vocale. Tuttavia, l’adozione diffusa è accompagnata da problematiche che aprono interrogativi sulla capacità di questa tecnologia di mantenersi competitiva.
Amazon, leader globale nei servizi cloud, sta negoziando un nuovo investimento multimiliardario in Anthropic, una delle principali startup rivali di OpenAI, in un accordo che potrebbe ridefinire i rapporti di forza nel settore dell’intelligenza artificiale. Durante le discussioni, Amazon ha richiesto che Anthropic utilizzi in gran parte i suoi server basati su chip AI sviluppati internamente. Tuttavia, Anthropic sembra preferire le unità Nvidia, leader di mercato per la potenza e la diffusione dei loro chip AI.
Amazon ha siglato un accordo con Databricks, concorrente di Snowflake, per consentire l’utilizzo dei chip AI Trainium di Amazon, come riportato dal Wall Street Journal.
Amazon-backed Anthropic è sulla buona strada per generare 1 miliardo di dollari di fatturato quest’anno, segnando una crescita straordinaria del 1.000% rispetto all’anno precedente. Questa proiezione è stata evidenziata in un recente rapporto di CNBC, che ha notato come l’azienda abbia rapidamente ampliato le sue operazioni e le sue offerte di prodotti, incluso il lancio di Claude Enterprise, una soluzione AI progettata per le aziende.
Amazon Web Services ha annunciato una nuova collaborazione con SLB , precedentemente conosciuta come Schlumberger, per portare le tecnologie chiave della piattaforma digitale Delfi di SLB ai clienti su AWS. Questa partnership segna un passo significativo nel settore dei servizi energetici, unendo l’expertise di SLB, il più grande fornitore di servizi petroliferi al mondo, con le soluzioni digitali avanzate offerte da AWS.
Amazon ha presentato giovedì diversi strumenti di intelligenza artificiale generativa per supportare le piccole imprese e i venditori di terze parti nella gestione dei loro account.
Per ridurre i costi di pubblicazione e accelerare la distribuzione degli audiolibri, Audible di Amazon inizierà a invitare un piccolo gruppo di narratori a creare repliche della propria voce utilizzando la tecnologia vocale generata dall’intelligenza artificiale.
Durante la beta, i partecipanti al programma creeranno gratuitamente una replica vocale che Audiobook Creation Exchange, o ACX, trasformerà in un modello per le narrazioni future. I narratori saranno quindi compensati per tutti gli audiolibri che utilizzano la loro voce generata dall’IA.
L’ iniziativa amplia un programma dell’anno scorso in cui Audible ha dato agli autori autopubblicati l’opzione di usare una voce virtuale per narrare i loro libri. Secondo Bloomberg, a maggio, più di 40.000 libri disponibili tramite Audible hanno fatto uso della tecnologia. ACX è di proprietà di Amazon ed è stata lanciata da Audible nel 2011.
I legami tra il Bezos Earth Fund e le organizzazioni che stabiliscono gli standard climatici aziendali, come l’SBTi, stanno sollevando preoccupazioni sulla potenziale influenza di Bezos nel definire tali norme, in particolare riguardo all’uso dei crediti di carbonio.
Amazon ha accettato di acquisire Perceive Corporation, lo sviluppatore del processore Ergo AI, dalla società tecnologica Xperi con sede a San Jose, California, per 80 milioni di dollari in contanti.Perceive, di cui Xperi detiene circa il 76% delle azioni, si concentra sulla fornitura di soluzioni di inferenza edge.
Pochi giorni dopo che l’agenzia antitrust britannica ha annunciato di esaminare la partnership tra Google e la startup di intelligenza artificiale Anthropic, sta facendo lo stesso con Amazon.
Amazon ha lanciato il suo assistente per lo shopping basato sull’intelligenza artificiale generativa, chiamato Rufus, per tutti i consumatori statunitensi che utilizzano l’app Amazon Shopping, come annunciato venerdì dalla società. Rufus supporta i clienti in ogni fase della loro esperienza di acquisto, grazie alla sua capacità di comprendere i dettagli dei prodotti e le recensioni dei clienti. È accessibile tramite l’icona Rufus nella parte inferiore della schermata dell’app Shopping.
La Francia è riuscita ad ottenere la cifra record di 15 miliardi di euro di investimenti nell’ambito del suo programma “Choose France”, l’iniziativa che punta a promuovere gli investimenti esteri nel Paese. Ad annunciarlo è stato lo stesso presidente Emmanuel Macron che ha sottolineato il successo dell’edizione 2024 dell’iniziativa che si è chiusa registrando ben 56 progetti di investimento, concentrati su Intelligenza Artificiale, ricerca, innovazione e decarbonizzazione.
Amazon sta puntando tutto sull’intelligenza artificiale generativa e sul cloud computing, con l’obiettivo di focalizzare la maggior parte delle spese in conto capitale future sullo sviluppo dell’intelligenza artificiale. Durante la dichiarazione degli utili dell’azienda successiva alla pubblicazione dei risultati del primo trimestre, il CEO Andy Jassy e il CFO Brian Olsavsky hanno dedicato molto tempo ai piani dell’azienda per l’intelligenza artificiale e all’aspettativa di aumentare “significativamente” la spesa per la tecnologia.
Per ulteriori informazioni sugli utili del primo trimestre , comprese le osservazioni del CEO Andy Jassy e del CFO Brian Olsavsky, consulta i punti salienti del comunicato stampa e la registrazione webcast completa .
Il business dell’intelligenza artificiale generativa rappresenta ora un “business con ricavi multimiliardari per Amazon”, secondo Olsavsky, mentre si prevede che AWS crescerà fino a 100 miliardi di dollari di entrate annualizzate. L’unità ha generato un profitto di 9,42 miliardi di dollari nel primo trimestre con un margine operativo del 37,6%.
Jassy ha sottolineato che l‘85% o più della spesa IT globale rimane on-premise, il che rappresenta una grande opportunità per l’azienda di espandersi ulteriormente nel settore del cloud computing. Inoltre, la maggior parte dell’intelligenza artificiale generativa verrà creata nei prossimi 10-20 anni da zero e sul cloud, il che rappresenta un’ulteriore opportunità per Amazon.
Per quanto riguarda le altre attività, Jassy ha osservato che i nuovi investimenti come negozi internazionali, offerte di attività logistiche di terze parti come l’acquisto con Prime, la spedizione di Amazon e l’adempimento multicanale continuano a mostrare una crescita promettente. La società ha anche affermato che stava lanciando un concetto di mercato Whole Foods più piccolo a Manhattan chiamato Whole Foods Market Daily Shop.
Il settore pubblicitario ha visto le vendite aumentare di un impressionante 24% anno su anno, grazie ai prodotti sponsorizzati e supportato da continui miglioramenti nella pertinenza e nelle capacità di misurazione per gli inserzionisti. Jassy ha affermato che l’azienda vede ancora significative opportunità future nei prodotti sponsorizzati, nonché in aree in cui ha appena iniziato, come Prime Video Ads. Anche se è presto per gli spot televisivi in streaming, Jassy è incoraggiato dalla risposta anticipata.
Esempi di come Amazon stia utilizzando l’intelligenza artificiale generativa includono l’uso di algoritmi di apprendimento automatico per migliorare la pertinenza delle raccomandazioni dei prodotti, l’ottimizzazione dei prezzi e la prevenzione delle frodi. Inoltre, l’azienda sta utilizzando l’intelligenza artificiale per migliorare l’efficienza delle sue operazioni logistiche, come l’ottimizzazione dei percorsi di consegna e la gestione dell’inventario.
Secondo un rapporto di MarketsandMarkets, il mercato dell’intelligenza artificiale generativa dovrebbe raggiungere i 117,6 miliardi di dollari entro il 2026, con un tasso di crescita annuale composto del 33,2% durante il periodo di previsione. Ciò dimostra l’enorme potenziale di questo settore e la ragione per cui Amazon sta investendo così tanto in esso.
Amazon ha dichiarato martedì che il suo chatbot di intelligenza artificiale generativa, Q, è ora completamente disponibile per gli sviluppatori.
Le azioni sono aumentate dello 0,4% nelle prime negoziazioni.
“Da quando abbiamo annunciato il servizio al re:Invent, siamo rimasti stupiti dagli incrementi di produttività riscontrati da sviluppatori e utenti aziendali”,
Swami Sivasubramanian
“Le prime indicazioni indicano che Amazon Q potrebbe aiutare i dipendenti dei nostri clienti a diventare più produttivi di oltre l’80% nel loro lavoro; e con le nuove funzionalità che prevediamo di introdurre in futuro, riteniamo che questo trend continuerà a crescere.”
Swami Sivasubramanian
Q è ora in grado di scrivere o correggere codice ed è in grado di fornire suggerimenti su più righe per il codice, ha affermato Amazon. L’azienda ha inoltre presentato Amazon Q Apps che consentirà ai dipendenti di creare app personalizzate basate sull’intelligenza artificiale a partire dai dati della propria azienda, utilizzando istruzioni di testo.
Presentato a novembre , Q è alimentato da modelli linguistici di grandi dimensioni e altri modelli di base, disponibili tramite Amazon Bedrock. È in concorrenza con altri strumenti di codifica AI, come GitHub Copilot di Microsoft.
La tecnologia è alimentata da modelli linguistici di grandi dimensioni e da altri modelli di base, disponibili tramite Amazon Bedrock.
Amazon Q fornisce agli agenti risposte e azioni consigliate basate sulle domande dei clienti in tempo reale per un’assistenza clienti più rapida e accurata, ha affermato la società in una nota.
Amazon alla fine addebiterà agli utenti aziendali $ 20 a persona al mese. Una versione con funzionalità per sviluppatori e operatori IT costerà $ 25 a persona al mese.
A scopo di confronto, sia Microsoft che Google addebitano $ 30 a persona al mese rispettivamente per Copilot per Microsoft 365 e Duet AI per Google Workspace.
Amazon Connect Contact Lens aiuta a identificare le parti essenziali delle conversazioni nei call center con riepiloghi generati dall’intelligenza artificiale che rilevano sentiment, tendenze e conformità alle policy.
Amazon Lex in Amazon Connect consente oggi agli amministratori dei contact center di creare nuovi chatbot e sistemi di risposta vocale interattivi utilizzando istruzioni in linguaggio naturale e di migliorare i sistemi esistenti generando risposte alle domande più frequenti.
Amazon Connect Customer Profiles consente agli agenti di fornire un servizio clienti più rapido e personalizzato e crea profili cliente unificati da diverse applicazioni e database Software-as-a-Service.
Amazon sta espandendo le sue capacità di intelligenza artificiale generativa mentre la corsa per sfruttare la tecnologia si infiamma.
Sfruttare i LLM e altri FM è un’impresa difficile che richiede competenze tecniche che scarseggiano e sono molto richieste, ha affermato Amazon.
“L’integrazione di questi modelli in nuove applicazioni di customer experience che funzionano con la suite esistente di strumenti di contact center di un’organizzazione richiede ulteriori competenze specifiche del settore”, ha affermato Amazon. “Amazon Connect elimina le sfide legate alla creazione e all’implementazione di modelli nei contact center consentendo ai leader aziendali non tecnici di creare un contact center cloud con funzionalità di intelligenza artificiale generativa in pochi minuti.”
AWS ha inoltre annunciato nuove funzionalità per rendere più rapido l’accesso e l’analisi dei dati su più origini dati e funzionalità per aumentare la comprensione da parte dei clienti delle proprie catene di fornitura per contribuire a migliorare l’accuratezza e la pianificazione.
Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.
L’intelligenza artificiale generativa (GenAI) è un campo affascinante caratterizzato da una vasta e variegata offerta di soluzioni fornite da una molteplicità di attori. Le imprese che si avventurano nell’implementazione della GenAI devono navigare attraverso un complesso ecosistema di fornitori, che comprende produttori di modelli di base, sviluppatori di piattaforme AI, specialisti nella gestione dei dati, fornitori di strumenti per la personalizzazione dei modelli e molti altri.
Ciò che sorprende è che, nonostante il dominio delle grandi aziende di cloud computing nel panorama IT degli ultimi dieci anni, il loro ruolo centrale nel settore della GenAI non è stato così marcato come inizialmente previsto. Almeno finora. Ma ci sono segnali che la situazione potrebbe cambiare. Google ha recentemente tenuto un impressionante evento Cloud Next in cui l’azienda ha presentato un’ampia gamma di funzionalità basate su GenAI.
Siamo ancora in una fase embrionale per quanto riguarda le implementazioni di GenAI, e molte organizzazioni stanno appena cominciando a delineare la propria strategia e il metodo di attuazione. È diventato evidente, tuttavia, che molte aziende stanno riconoscendo l’importanza di avere software e servizi GenAI integrati con le loro fonti di dati primarie.
Considerando l’abbondanza di dati ospitati nel cloud AWS, molte di queste organizzazioni vedranno con favore le nuove funzionalità migliorate offerte da AWS, poiché possono agevolare la creazione e l’ottimizzazione dei modelli GenAI, specialmente con tecnologie come RAG.
Per le aziende che dipendono pesantemente dai servizi di archiviazione dati di AWS per l’addestramento e l’affinamento dei propri modelli GenAI, l’introduzione di queste nuove funzionalità Bedrock potrebbe essere un incentivo significativo per rilanciare i loro progetti applicativi GenAI.
È probabile che assistiamo anche alla crescita delle implementazioni di piattaforme multi-GenAI. Come le imprese hanno imparato che l’adozione di più fornitori di cloud era vantaggiosa dal punto di vista economico, logistico e tecnico, è possibile che si adotti un approccio analogo per sfruttare le diverse piattaforme GenAI per soddisfare le esigenze di diverse tipologie di applicazioni. Sebbene la competizione sia ancora in corso, è evidente che tutti i principali fornitori di cloud computing stanno cercando di affermarsi come player rilevanti anche in questo settore.
La divisione AWS di Amazon sta svelando una serie di nuove funzionalità e miglioramenti per il suo servizio completamente gestito Bedrock GenAI.
Amazon Bedrock è un servizio completamente gestito che offre una scelta di modelli di fondazione (FM) ad alte prestazioni delle principali aziende di IA, come AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI e Amazon, tramite un’unica API, insieme ad un’ampia gamma di funzionalità necessarie per creare applicazioni di IA generativa, utilizzando l’IA in modo sicuro, riservato e responsabile
Nello specifico, Amazon sta aggiungendo la possibilità di importare modelli di fondazione personalizzati nel servizio e quindi consentire alle aziende di sfruttare le capacità di Bedrock attraverso tali modelli personalizzati.
Le aziende che hanno addestrato un modello open source come Llama o Mistral con i propri dati potenzialmente con lo strumento di sviluppo del modello SageMaker di Amazon possono ora integrare quel modello personalizzato insieme ai modelli standardizzati esistenti all’interno di Bedrock.
Come risultato possono utilizzare un’unica API per creare applicazioni che attingono ai loro modelli personalizzati e alle opzioni dei modelli Bedrock esistenti, tra cui le ultime novità di AI21 Labs, Anthropic, Cohere, Meta e Stability AI, nonché i modelli Titan di Amazon.
Amazon ha anche introdotto la versione 2 del suo modello Titan Text Embeddings, che è stato specificamente ottimizzato per le applicazioni RAG.
Uno degli altri vantaggi dell’importazione di modelli personalizzati in Bedrock è la capacità di sfruttare le funzioni RAG integrate del servizio. Ciò consente alle aziende di sfruttare questa nuova tecnologia sempre più popolare per continuare a perfezionare i propri modelli personalizzati con nuovi dati.
La società ha inoltre annunciato la disponibilità generale del suo modello Titan Image Generator.
Poiché è serverless, Bedrock ha funzionalità integrate per scalare senza problemi le prestazioni dei modelli anche tra le istanze AWS, consentendo alle aziende di gestire più facilmente le proprie richieste in tempo reale in base alla situazione.
Le organizzazioni che desiderano creare agenti basati sull’intelligenza artificiale in grado di eseguire attività in più fasi, Bedrock offre anche strumenti che consentono agli sviluppatori di crearli e alle aziende di attingere ai loro modelli personalizzati mentre lo fanno.
Gli agenti sono attualmente uno degli argomenti di discussione più caldi in GenAI, quindi questo tipo di funzionalità è destinato a interessare quelle organizzazioni che vogliono rimanere all’avanguardia. Oltre a queste funzionalità esistenti per Bedrock, Amazon ne ha annunciate altre due, entrambe estensibili ai modelli Bedrock esistenti e anche ai modelli importati personalizzati.
Il Guardrails per Amazon Bedrock aggiunge un ulteriore set di funzionalità di filtro per impedire la creazione e il rilascio di contenuti inappropriati e dannosi, nonché di informazioni personali e/o sensibili.
Praticamente tutti i modelli incorporano già un certo grado di filtraggio dei contenuti, ma i nuovi Guardrail forniscono un ulteriore livello di prevenzione personalizzabile per aiutare le aziende a proteggersi ulteriormente da questo tipo di problemi e garantire che i contenuti generati siano conformi alle linee guida del cliente.
Inoltre, lo strumento di valutazione dei modelli di Amazon all’interno di Bedrock è ora generalmente disponibile. Questo strumento aiuta le organizzazioni a trovare il miglior modello di base per la particolare attività che stanno cercando di realizzare o per l’applicazione che stanno cercando di scrivere.
Il valutatore confronta caratteristiche standard come l’accuratezza e la robustezza delle risposte di diversi modelli. Consente inoltre la personalizzazione di diversi criteri chiave.
Le aziende possono, ad esempio, caricare i propri dati o una serie di suggerimenti personalizzati sul valutatore e quindi generare un report che confronti il comportamento dei diversi modelli in base alle loro esigenze personalizzate.
Amazon offre anche un meccanismo per consentire agli esseri umani di valutare diversi output del modello per misurazioni soggettive come la voce del marchio, lo stile, ecc. Questa valutazione del modello è una capacità importante perché mentre molte aziende potrebbero inizialmente essere attratte da una piattaforma a modello aperto come Bedrock grazie alla gamma delle diverse scelte che offre, quelle stesse scelte possono rapidamente diventare confuse e travolgenti.
AWS ha ampliato il suo programma di crediti gratuiti per rendere più agevole l’utilizzo dei modelli di intelligenza artificiale da parte delle startup, dato l’elevato costo, mentre cerca di aumentare la quota di mercato dei suoi strumenti di intelligenza artificiale, noti come Bedrock.
I crediti saranno consentiti per coprire i costi dei modelli di altre aziende, tra cui Anthropic, Meta Platforms, Mistral AI e Cohere, ha dichiarato Howard Wright, vice presidente e responsabile globale delle startup presso AWS, a Reuters.
“Questo è un altro regalo che stiamo facendo all’ecosistema delle startup, in cambio di ciò che speriamo sia la scelta continua delle startup di AWS come loro prima scelta,” ha detto Wright all’agenzia di stampa.
AWS è il leader nel redditizio mercato dei fornitori di servizi cloud, con poco più del 50%, secondo HG Insights, seguito da Azure di Microsoft e Google Cloud Platform.
Il mese scorso, Amazon ha annunciato di aver effettuato un ulteriore investimento di $2.75 miliardi in Anthropic, portando il suo investimento totale nella startup di intelligenza artificiale a $4 miliardi. Anthropic è il creatore del chatbot Claude, che compete con il ChatGPT di OpenAI, sostenuto da Microsoft.
I crediti gratuiti dovrebbero aiutare ad aumentare i ricavi di Anthropic, ha dichiarato Wright a Reuters. “Questo fa parte della costruzione dell’ecosistema. Non ci scusiamo per questo.”
Amazon ha affermato di aver distribuito oltre $6 miliardi in crediti gratuiti alle startup negli ultimi 10 anni.
La versione più recente di Claude, Claude 3 Haiku, è diventata “disponibile generalmente” su Amazon Bedrock il mese scorso, ha dichiarato un portavoce di Amazon a Seeking Alpha.
La suite di strumenti di intelligenza artificiale Bedrock è stata presentata nell’aprile 2023. Inizialmente, hanno funzionato con Amazon Titan, il modello fondamentale dell’azienda, oltre a quelli creati da stability.ai, AI21Labs e Anthropic.
“Con l’esperienza serverless di Bedrock, puoi iniziare rapidamente, personalizzare privatamente i modelli fondamentali con i tuoi dati, e integrarli e distribuirli facilmente nelle tue applicazioni utilizzando gli strumenti e le capacità AWS che conosci (incluse integrazioni con le funzionalità di ML di Amazon SageMaker come Esperimenti per testare modelli diversi e Pipeline per gestire i tuoi FM su larga scala) senza dover gestire alcuna infrastruttura,” ha scritto Amazon Web Services in una dichiarazione.
Bedrock funzionerà con Amazon Titan, il modello fondamentale dell’azienda, così come quelli creati da stability.ai, AI21Labs e Anthropic.
Nella sua lettera annuale, Jassy di Amazon ha anche esaltato il nuovo chip Inferentia2 dell’azienda, vantandosi delle sue capacità superiori rispetto al primo chip Inferentia.
Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Mercoledì, Amazon ha annunciato un ulteriore investimento di 2,75 miliardi di dollari nella startup di intelligenza artificiale generativa, Anthropic, portando il suo investimento totale nella società a 4 miliardi di dollari. .
Anthropic è il creatore di Claude, un chatbot alimentato da intelligenza artificiale generativa, che concorre con ChatGPT di OpenAI. Questo investimento rappresenta il più grande investimento esterno mai effettuato da Amazon , dopo un precedente investimento di 1,3 miliardi di dollari nel produttore di veicoli elettrici Rivian .
Secondo una nota di Amazon, il lavoro con Anthropic per portare le più avanzate tecnologie di Intelligenza Artificiale generativa ai clienti di tutto il mondo è appena all’inizio.
Come parte di un accordo di collaborazione strategica, Amazon e Anthropic hanno annunciato che Anthropic utilizzerà Amazon Web Services come principale fornitore di servizi cloud per carichi di lavoro mission-critical, inclusa la ricerca sulla sicurezza e lo sviluppo di futuri modelli di base.
L’investimento garantirà ad Amazon una quota di minoranza in Anthropic, tuttavia, non otterrà un posto nel consiglio di amministrazione. La valutazione più recente di Anthropic si aggira intorno a 18,4 miliardi di dollari, secondo quanto riportato da CNBC.
Questo investimento fa seguito a un precedente investimento di 1,25 miliardi di dollari effettuato da Amazon nel mese di settembre in Anthropic. In quel momento, si era speculato che Amazon potesse investire fino a 4 miliardi di dollari in una startup di intelligenza artificiale con sede a San Francisco, cosa che poi è effettivamente avvenuta.
Oltre ad Amazon, anche Google e Salesforce figurano tra i sostenitori di Anthropic, riconoscendo il potenziale di questa startup nel campo dell’intelligenza artificiale generativa.
AMAZON METTE AL BANDO I LIBRI INGANNEVOLI GENERATI DALL’AI
SCOTT SIMON, PRESIDENTE:
Quando è uscito l’ultimo libro di Kara Swisher, intitolato “Burn Book”, ha notato che le sue biografie hanno iniziato ad apparire su Amazon con copertine dall’aspetto molto simili. Apparentemente sono stati generati dall’intelligenza artificiale. E Kara Swisher ha raccontato al podcast “Hard Fork” del New York Times come è riuscita a rimuoverli.
MARY RASENBERGER: I libri truffa su Amazon sono un problema da anni.
Negli ultimi anni, i progressi nella tecnologia dell’intelligenza artificiale (IA) hanno portato a rivoluzioni in vari settori, tra cui la letteratura. Tuttavia, con l’avanzamento tecnologico sorgono anche nuove minacce, come dimostra un recente incidente che mette in luce l’uso ingegnoso delle tecniche di IA generativa (Gen AI) per perpetrare truffe nei mercati dei libri.
Quando si tratta di affrontare i libri falsi su Amazon, ci sono numerosi ostacoli da superare. Dal punto di vista legale, non è ancora chiaro se i contenuti generati dall’IA violino le leggi sul copyright.
È per questo che il New York Times ha recentemente intentato una causa per violazione del copyright contro OpenAI.
La genesi della truffa vede i mercati online, in particolare le piattaforme di e-book come Amazon Kindle Unlimited, invasi da una crescente offerta di romanzi che sembrano essere stati scritti utilizzando tecniche di Gen AI.
Questi libri, spesso di dubbia qualità, si fingono opere originali. Sfruttando algoritmi sofisticati, la Gen AI può generare contenuti che imitano lo stile di scrittura umano, rendendo difficile ai lettori distinguere tra opere genuine e artificiali.
Kindle Unlimited funziona tramite un sistema di abbonamento mensile che consente ai lettori di accedere a milioni di libri. Gli autori partecipanti vengono pagati attraverso un pool di fondi stabilito da Amazon, in base al numero di pagine lette dai loro libri.
Amazon ha istituito il Kindle Direct Publishing Selected (KDPS), un servizio attraverso il quale gli autori si impegnano a concedere in esclusiva i loro libri per 90 giorni, e le royalty vengono calcolate in base al numero di pagine lette dagli utenti abbonati al servizio Kindle Unlimited.
I lettori abbonati a Kindle Unlimited hanno il diritto di leggere tutti i libri inclusi nel programma KDPS.
La truffa viene svelata quando bot automatizzati, programmati per simulare il comportamento umano, acquistano in massa questi romanzi artificialmente generati. Di conseguenza, questi libri aumentano rapidamente nelle classifiche diventando bestseller sulle piattaforme di e-book.
Mentre lettori ignari possono contribuire inconsapevolmente al successo di queste opere fraudolente, i veri beneficiari sono gli autori falsi dietro la truffa.
Attraverso piani di abbonamento per lettori come Kindle Unlimited, gli autori falsi ricevono royalty per le pagine lette dagli abbonati. Questo modello di monetizzazione incoraggia gli scammer a sfruttare il sistema, poiché traggono profitto dall’inganno generato dai bot automatizzati.
Di conseguenza, gli autori genuini subiscono una riduzione della visibilità e del potenziale di guadagno a causa della proliferazione di contenuti artificialmente generati.
Per affrontare questa minaccia, sono necessarie misure rigorose da parte degli operatori delle piattaforme e degli enti regolatori. Una moderazione dei contenuti più efficace, protocolli di autenticazione migliorati e il monitoraggio proattivo delle attività sospette sono passaggi cruciali per contrastare efficacemente queste truffe.
In risposta alla crescente pressione da parte di autori e gruppi di difesa come la Authors Guild, Amazon ha adottato misure per affrontare il problema. L’anno scorso, la società ha implementato una politica che richiede agli editori che utilizzano Kindle Direct Publishing di rivelare se i loro contenuti sono generati dall’intelligenza artificiale.
Inoltre, Amazon ha imposto limiti al numero di titoli pubblicati in un solo giorno.
La proliferazione delle truffe guidate dalla Gen AI nei mercati dei libri sottolinea l’importanza della vigilanza e dell’intervento proattivo. Mentre la tecnologia continua a progredire, è essenziale adottare strategie di difesa robuste per tutelare l’integrità dei mercati online.
Anche se Amazon sembra aver reagito rimuovendo i libri coinvolti nell’inganno, il rischio di frode rimane presente, minacciando sia gli autori che il servizio stesso.
In alternativa, Amazon e altri editori online potrebbero scegliere di svolgere un lavoro più accurato nello screening dei contenuti prodotti dall’intelligenza artificiale.
Ciò potrebbe comportare la richiesta di maggiore trasparenza e divulgazione. Al momento, spetta al lettore determinare se sta acquistando libri falsi su Amazon, ma sarebbe auspicabile che gli autori stessi segnalino eventuali violazioni.
Comprendiamo che il compito per Amazon sarebbe titanico, ma l’implementazione di politiche e pratiche volte a ridurre questa nuova truffa sui libri sull’intelligenza artificiale è essenziale per garantire l’integrità dei mercati online nel prossimo futuro.
Se le societa’ impegnate nelle Inelligenza Generativa, non riusciranno a capire come monetizzare i loro contenuti AI, la crescita sarà probabilmente più lenta del previsto.
Sovrasaturazione dei contenuti AI ?
I contenuti artistici AI sono ovunque in questo momento e potrebbero diventare troppo saturi in futuro. Sarà fondamentale per tutti produrre contenuti della migliore qualità in modo che possano diventare il fornitore di riferimento.
Investimento speculativo ?
Si tratta di un investimento speculativo perché si basa in gran parte sulla crescita futura che sarà generata da prodotti e servizi nuovi e non provati.
Nvidia continua la sua irresistibile ascesa in Borsa. L’azienda californiana di semiconduttori, protagonista indiscussa dei processori di intelligenza artificiale, ha raggiunto un nuovo traguardo ieri, 14 febbraio, superando Alphabet in termini di capitalizzazione di mercato, appena un giorno dopo aver superato Amazon.
Bloomberg riporta che le azioni del produttore di chip valgono ora 1,83 trilioni di dollari , battendo, anche se di poco, la capitalizzazione di mercato di 1,82 dollari della holding a cui fa capo Google. Tutto ciò rende Nvidia la quarta azienda con maggiore capitalizzazione al mondo dopo Microsoft (3,04 trilioni di dollari), Apple (2,84 trilioni di dollari) e Saudi Aramco.
La quotazione di Nvidia è il segno di quanto sia forte la domanda di chip in grado di gestire l’intelligenza artificiale all’avanguardia, nonché dell’interesse degli investitori per le aziende che producono semiconduttori.
fabio ricceri
Le azioni di Nvidia sono aumentate di oltre il 246% negli ultimi 12 mesi a causa della forte domanda per i suoi chip AI per server che possono costare più di 20 mila dollari ciascuno, che aziende come Microsoft, OpenAI e Meta acquistano a migliaia per prodotti come ChatGPT e Copilot. Motivo per cui l’azienda si sta affermando come attore chiave nella rivoluzione dell’Intelligenza Artificiale generativa, anche se progetta semplicemente i suoi chip che poi vengono prodotti da realtà come TSMC a Taiwan e Samsung in Corea del Sud.
Più in generale, si prevede che il mercato dei chip AI esploderà nei prossimi dieci anni, passando da 29 miliardi di dollari nel 2023 a quasi 260 miliardi di dollari nel 2033, con un aumento di quasi nove volte il valore dello scorso anno.
La Federal Trade Commission, l’antitrust americana ha aperto un’indagine sui rapporti tra le principali startup di Intelligenza Artificiale e i big del settore tech. L’obiettivo è quello di valutare se dietro le partnership e gli investimenti ci siano accordi potenzialmente in grado di minare la concorrenza o consentire un accesso privilegiato alle applicazioni di AI a scapito del mercato.
La stessa FTC ha dichiarato di aver emesso degli ordini obbligatori nei confronti di cinque aziende – Amazon, Google, Microsoft, OpenAI e Anthropic – chiedendo di fornire informazioni dettagliate su investimenti e partnership.
Il rapporto tra Microsoft con OpenAI è abbastanza noto e anche se l’azienda di Redmond non ha mai rivelato pubblicamente l’importo totale dell’investimento in OpenAI, si parla di una grandezza di circa 10 miliardi di dollari. Nell’ambito di questo accordo, Microsoft si sarebbe impegnata ad offrire la potenza di calcolo necessaria per addestrare i modelli di AI su enormi quantità di dati e avrebbe avuto in cambio i diritti esclusivi di sfruttamento di ciò che OpenAI avrebbe realizzato, consentendo alla tecnologia di essere inserita nei prodotti Microsoft.
Peraltro, anche Google e Amazon hanno recentemente concluso accordi multimiliardari con Anthropic, un’altra startup di Intelligenza Artificiale con sede a San Francisco e formata da ex dirigenti di OpenAI.
Anche l’Autorità britannica per la concorrenza e i mercati sta esaminando gli accordi e la stessa Commissione Europea ha avviato una verifica sull’investimento di Microsoft e OpenAI ai sensi del regolamento Ue sulle concentrazioni. La vicepresidente della Commissione Ue, Margrethe Vestager, che ha la delega alla concorrenza, ha dichiarato in proposito che è fondamentale che i nuovi mercati rappresentati dall’Intelligenza Artificiale generativa e il virtuale rimangano competitivi e che nulla possa ostacolare l’accesso alle risorse da parte di tutte le aziende garantendo che le nuove tecnologie vadano a beneficio dei cittadini e non di singole aziende.
Va detto, peraltro, che l’indagine aperta dalla Commissione Europea non riguarda solo Microsoft e OpenAI quanto, più in generale, eventuali accordi chiusi dalle big tech con i fornitori di AI generativa, con l’obiettivo di valutare se e come queste partnesrship possano impattare sulle dinamiche di mercato.
L’UE è stata la prima nel mondo a cercare di legiferare l’Intelligenza Artificiale con l’AI Act in attesa di approvazione definitiva da parte del Parlamento Europeo. Del resto, questa nuova tecnologia ha la potenzialità di rivoluzionare l’economia e il mondo del lavoro, presentando anche delle sfide di tipo etico per l’umanità sulle quali si è pronunciato anche recentemente Papa Francesco, sottolineando la necessità di adottare dei modelli di regolamentazione etica per arginare eventuali risvolti dannosi e discriminatori, socialmente ingiusti, dei sistemi di Intelligenza Artificiale.