Nel contesto della competizione tra Anthropic e OpenAI, Anthropic ha recentemente lanciato il suo modello di intelligenza artificiale, Claude 3.5 Sonnet, che ha mostrato prestazioni superiori rispetto al modello GPT-4o di OpenAI in diversi benchmark. Questo nuovo modello si distingue per la sua capacità di ragionamento e per la comprensione visiva, superando GPT-4o in compiti complessi come la codifica e l’analisi di diagrammi e grafici.
Tag: anthropic
Anthropic ha recentemente lanciato una suite innovativa di strumenti pensata per automatizzare e perfezionare l’ingegneria dei prompt nella sua console per sviluppatori. Questo aggiornamento è destinato a migliorare l’efficienza nello sviluppo delle applicazioni AI, soprattutto in ambito aziendale, dove l’accuratezza e l’affidabilità dei modelli di linguaggio, come Claude, sono essenziali. Le nuove funzionalità, tra cui il “prompt improver” e la gestione avanzata degli esempi, puntano a semplificare la creazione di applicazioni AI più robuste, ottimizzando la scrittura e la gestione dei prompt.
Le aziende che sviluppano modelli di intelligenza artificiale (IA) generalmente li addestrano per evitare di dire cose dannose e per non assistere in attività pericolose. L’obiettivo è quello di formare modelli che si comportino in modo “innocuo”, minimizzando i rischi. Tuttavia, quando pensiamo al carattere di persone che troviamo davvero ammirevoli, non ci limitiamo a considerare l’evitamento del danno. Pensiamo anche a quelle persone curiose del mondo, che cercano di dire la verità senza essere scortesi, e che riescono a vedere molteplici sfaccettature di un problema senza diventare eccessivamente sicure di sé o troppo prudenti nelle proprie opinioni. Pensiamo a coloro che sono pazienti ascoltatori, pensatori attenti, conversatori spiritosi e molte altre qualità che associamo a una persona saggia e ben equilibrata.
Anche se i modelli di IA non sono persone, man mano che diventano più capaci, crediamo che sia possibile – e necessario – addestrarli a comportarsi bene in questo senso più ampio. Fare ciò potrebbe anche aiutarli a diventare più discreti quando si tratta di evitare di assistere in attività dannose, e di come decidono di rispondere in alternativa.
Dario Amodei, CEO di Anthropic, ha recentemente sollevato preoccupazioni che il mondo della tecnologia ha iniziato a considerare inevitabili: l’Intelligenza Artificiale Generale (AGI) potrebbe eguagliare, se non addirittura superare, le capacità umane entro pochi anni. Secondo Amodei, già entro il 2027 potremmo trovarci di fronte a sistemi AI di pari o superiore intelligenza, capaci di impatti trasformativi e potenzialmente catastrofici per la nostra società, a seconda di come tali poteri saranno gestiti.
La possibilità di ottenere un’AGI, un tipo di intelligenza capace di comprendere, adattarsi e migliorare il mondo con lo stesso livello di comprensione umana, comporta rischi e responsabilità estremi. Amodei mette in guardia sul fatto che queste intelligenze non risponderebbero agli stessi limiti morali e sociali che governano il comportamento umano, come la paura delle conseguenze legali o sociali. L’intelligenza artificiale, infatti, non ha paura della perdita, del danno personale o dell’ostracismo sociale: agirebbe senza tale “costo sociale,” il che potrebbe creare rischi di distacco tra capacità e morale.
Durante una recente intervista sul podcast di Lex Fridman, Dario Amodei, co-fondatore di Anthropic, ha fatto una dichiarazione che sta facendo molto discutere nel mondo tecnologico. Amodei ha affermato che, “se si segue un’estrapolazione lineare”, l’umanità potrebbe raggiungere l’intelligenza artificiale generale (AGI) nel 2026 o 2027. Tuttavia, ha anche evidenziato le numerose incertezze e variabili che minano questa previsione, suggerendo che il raggiungimento di un’intelligenza artificiale con capacità generalistiche potrebbe richiedere molto più tempo.
Amazon si prepara a fare un altro passo importante nel mondo dell’intelligenza artificiale: sta infatti considerando di aumentare notevolmente il proprio investimento in Anthropic, rivale di OpenAI, a condizione che quest’ultima utilizzi i chip sviluppati da Amazon, ospitati sui server di Amazon Web Services (AWS) per le sue operazioni di AI training. Questa mossa evidenzia la strategia di Amazon per posizionarsi al centro della competizione nel mercato dell’AI, proponendo un’offerta infrastrutturale differenziata e consolidando la propria influenza nel settore.
L’intelligenza artificiale sta rapidamente evolvendo, e con essa emerge anche una nuova e complessa frontiera: la sicurezza. Due recenti sviluppi hanno messo in evidenza la necessità di riflessioni più approfondite sulla protezione dei modelli AI, dimostrando che anche le intelligenze più avanzate non sono immuni da vulnerabilità.
Amazon, leader globale nei servizi cloud, sta negoziando un nuovo investimento multimiliardario in Anthropic, una delle principali startup rivali di OpenAI, in un accordo che potrebbe ridefinire i rapporti di forza nel settore dell’intelligenza artificiale. Durante le discussioni, Amazon ha richiesto che Anthropic utilizzi in gran parte i suoi server basati su chip AI sviluppati internamente. Tuttavia, Anthropic sembra preferire le unità Nvidia, leader di mercato per la potenza e la diffusione dei loro chip AI.
L’ecosistema della difesa e dell’intelligence statunitense si arricchisce con una nuova, potente sinergia: Anthropic, sostenuta da Amazon , si allea con Palantir Technologiese Amazon Web Services (AWS) per fornire alle agenzie governative l’accesso ai suoi modelli di intelligenza artificiale Claude 3 e 3.5, integrati all’interno dell’infrastruttura cloud di AWS.
Anthropic ha recentemente introdotto il supporto per i PDF nel suo modello di intelligenza artificiale Claude 3.5 Sonnet, attualmente in fase beta pubblica. Questa nuova funzionalità consente al modello di analizzare non solo il testo contenuto nei documenti PDF, ma anche elementi visivi come immagini, grafici e tabelle:
Claude può estrarre e analizzare informazioni da documenti finanziari, legali e altro ancora, combinando testo e immagini.
- Processo di analisi: L’analisi dei PDF avviene in tre fasi:
- Estrazione del testo dal documento.
- Conversione di ogni pagina in un’immagine per l’analisi visiva.
- Risposta alle domande degli utenti riguardo a qualsiasi elemento del PDF.
Limiti dei documenti: I file PDF devono avere una dimensione inferiore a 32 MB e non possono superare le 100 pagine. Inoltre, non sono supportati documenti protetti da password o crittografati.
L’Illuminismo, con il suo focus sulla ragione e sulla scienza, ha promosso l’idea che il sapere dovesse essere universale, accessibile e libero dalle restrizioni della censura o del controllo religioso. Filosofi come Voltaire, Rousseau e Kant sostenevano che la conoscenza fosse un diritto naturale e non una concessione delle autorità. Allo stesso modo, il “diritto all’apprendimento” per le IA incoraggia un accesso libero ai dati e alle informazioni, similmente a come l’Illuminismo ha aperto le porte alla conoscenza scientifica per il bene collettivo.
Anthropic, uno dei protagonisti più attivi nel campo dell’Intelligenza Artificiale (IA), ha recentemente sollecitato i governi di tutto il mondo ad adottare misure rapide e incisive per regolamentare i rischi potenzialmente catastrofici legati all’avanzamento dell’IA. Secondo l’azienda, il tempo per un’azione preventiva si sta rapidamente esaurendo, e ogni ritardo potrebbe compromettere seriamente la capacità dei governi di prevenire potenziali crisi legate a questa tecnologia.
L’azienda sottolinea che il ritmo dello sviluppo dell’IA è tale da giustificare questa urgenza. Circa un anno fa, Anthropic aveva avvisato che i modelli di IA di frontiera avrebbero potuto presentare rischi significativi nel campo della sicurezza informatica e delle minacce chimiche, biologiche, radiologiche e nucleari (CBRN) entro un periodo di 2-3 anni. Oggi, l’azienda avverte che siamo già molto più vicini a quel tipo di rischi di quanto si pensasse inizialmente.
Il 24 ottobre 2024, Anthropic ha annunciato il lancio di una nuova funzionalità chiamata strumento di analisi per Claude.ai. Questa innovazione consente agli utenti di sfruttare le capacità di Claude per scrivere ed eseguire codice JavaScript in tempo reale, migliorando notevolmente le sue funzioni di elaborazione e analisi dei dati.
Anthropic ha recentemente annunciato un significativo miglioramento nella precisione del suo modello AI, Claude, grazie all’implementazione di una nuova tecnica chiamata Recupero Contestuale. Questo approccio ha portato a una riduzione del tasso di errore dei sistemi di Recupero di Risposte (RAG) del 67%.
Il metodo di Recupero Contestuale implica l’aggiunta di informazioni contestuali rilevanti a ciascun pezzo di dati prima che venga incorporato o indicizzato. Questo processo aiuta a preservare dettagli critici e a migliorare la coerenza delle risposte generate dall’AI
Grazie a questa tecnica, Anthropic ha registrato una diminuzione del tasso di fallimento nel recupero delle informazioni, che è sceso del 49%. Questo significa che il modello è ora in grado di accedere e recuperare informazioni pertinenti da database di grandi dimensioni con maggiore efficacia67.
L’adozione del Recupero Contestuale non solo migliora la capacità di Claude di fornire risposte accurate, ma rappresenta anche un passo avanti nella progettazione di sistemi AI più robusti e intelligenti. Questa innovazione potrebbe avere un impatto significativo su vari settori, dove l’accuratezza delle informazioni recuperate è cruciale per il successo delle applicazioni basate sull’intelligenza artificiale
Amazon-backed Anthropic è sulla buona strada per generare 1 miliardo di dollari di fatturato quest’anno, segnando una crescita straordinaria del 1.000% rispetto all’anno precedente. Questa proiezione è stata evidenziata in un recente rapporto di CNBC, che ha notato come l’azienda abbia rapidamente ampliato le sue operazioni e le sue offerte di prodotti, incluso il lancio di Claude Enterprise, una soluzione AI progettata per le aziende.
Di recente, Mike Krieger, il nuovo Chief Product Officer di Anthropic, ha condiviso le sue riflessioni sulle capacità e sui limiti dei chatbot come Claude, nonché sul futuro dell’intelligenza artificiale, in un’intervista con The Verge. Le sue osservazioni offrono uno sguardo interessante su come queste tecnologie stiano evolvendo e su come possano influenzare il nostro modo di lavorare e comunicare.
Anthropic, società di intelligenza artificiale generativa sostenuta da Amazon e altre importanti aziende tech, ha annunciato mercoledì il lancio di Claude Enterprise, una versione di Claude pensata appositamente per le grandi imprese.
Anthropic non ha rivelato il prezzo esatto di Claude Enterprise, ma un dipendente ha dichiarato a TechCrunch che costerà più del piano Teams da 30 dollari al mese per membro.
Il governo degli Stati Uniti ha recentemente firmato accordi significativi con le aziende di intelligenza artificiale Anthropic e OpenAI, sostenuta da Microsoft. Questi accordi, noti come memorandum d’intesa, sono stati annunciati dall’Artificial Intelligence Safety Institute (AISI), che opera sotto il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio degli Stati Uniti.
Anthropic, ha rilasciato pubblicamente i prompt di sistema per i suoi ultimi modelli di Claude AI. Questa mossa, rara nel settore, offre agli utenti uno sguardo inedito sul funzionamento interno dei suoi grandi modelli linguistici (LLM) e rende Anthropic l’unica grande azienda di IA ad aver condiviso ufficialmente tali istruzioni.
Negli ultimi anni, l’intelligenza artificiale (IA) ha assunto un ruolo cruciale nel panorama della sicurezza informatica, trasformando i pirati informatici in “nuovi pirati” a caccia di dati. Questi attaccanti utilizzano tecnologie avanzate per affinare i loro metodi e ampliare l’estensione degli attacchi, sfruttando algoritmi di machine learning e deep learning per ottenere vantaggi competitivi.
La startup di intelligenza artificiale Anthropic sta affrontando una class action in un tribunale federale della California. Tre autori sostengono che l’azienda ha usato impropriamente i loro libri e molti altri per addestrare il chatbot AI Claude, ha riportato Reuters.
Pochi giorni dopo che l’agenzia antitrust britannica ha annunciato di esaminare la partnership tra Google e la startup di intelligenza artificiale Anthropic, sta facendo lo stesso con Amazon.
Anthropic, un concorrente di OpenAI sostenuto da Microsoft, ha lanciato un’iniziativa da 100 milioni di dollari con Menlo Ventures per investire in startup di intelligenza artificiale, come annunciato oggi dalla società di venture capital.
Dopo essere stato lanciato su iOS a maggio 2024, Claude è ora accessibile anche agli utenti Android attraverso un’applicazione gratuita disponibile sul Google Play Store. Questa espansione multipiattaforma copre la stragrande maggioranza degli smartphone a livello globale, permettendo a un numero ancora più ampio di utenti di accedere all’ultima versione avanzata di Claude, denominata Sonnet (3.5).
Il 21 maggio 2024, Anthropic ha annunciato un avanzamento significativo nella comprensione del funzionamento interno dei modelli di intelligenza artificiale (IA). La ricerca si è concentrata su Claude Sonnet, uno dei modelli di linguaggio di grandi dimensioni attualmente in uso. Questo studio rappresenta il primo sguardo dettagliato all’interno di un modello di linguaggio moderno e di grado produttivo, con potenziali implicazioni per la sicurezza e l’affidabilità dei modelli di IA.
La startup di intelligenza artificiale Anthropic, concorrente diretta di OpenAI, sostenuta da Microsoft, ha annunciato mercoledì che Mike Krieger, co-fondatore di Instagram, si unirà all’azienda come Chief Product Officer.
Anthropic, azienda di ricerca e sicurezza sull’intelligenza artificiale, ha recentemente rilasciato un nuovo strumento chiamato Prompt Generator. Questo strumento online gratuito aiuta gli utenti a creare prompt efficaci per Claude, il loro modello linguistico di grandi dimensioni (LLM) conversazionale.
Anthropic ha dichiarato mercoledì che lancerà un’app iOS e anche nche un nuovo piano pensato per condividere l’accesso ai suoi modelli IA.
L’ app Claude per iOS sarà disponibile gratuitamente per il download e offrirà la stessa esperienza vista sul Web mobile, inclusa la sincronizzazione della cronologia chat e il supporto per scattare e caricare foto, ha affermato Anthropic in un post sul blog .
Prima del lancio dell’app iOS, Claude era disponibile solo su Claude.ai e servizi cloud come Amazon Bedrock , Microsoft Azure e altri.
In confronto, ChatGPT, creata da OpenAI sostenuta da Microsoft, ha lanciato la sua app iOS nel maggio 2023. Un’app Android è stata lanciata a luglio. Google ha presentato le sue app Gemini iOS e Android a febbraio.
Oltre all’app iOS, Anthropic ha presentato un piano Team per le aziende, offrendo alle aziende l’accesso ai modelli Claude. È previsto un minimo di cinque posti, con un costo di $ 30 per posto al mese.
Anthropic ha presentato il suo primo livello a pagamento per Claude, il piano Pro, a settembre a $ 20 al mese.
Anthropic ha dichiarato che nelle prossime settimane rilascerà ulteriori funzionalità di collaborazione, tra cui citazioni da fonti affidabili per verificare le affermazioni generate dall’IA, integrazioni con archivi di dati come basi di codice o CRM e iterazione con i colleghi su documenti o progetti generati dall’IA.
A dicembre è stato riferito che Anthropic si aspettava un tasso di entrate annualizzate di oltre 850 milioni di dollari entro la fine del 2024.
Amazon ha rivelato a marzo di aver effettuato un ulteriore investimento di 2,75 miliardi di dollari in Anthropic, portando il suo investimento totale nella società a 4 miliardi di dollari. L’investimento darà ad Amazon una quota di minoranza in Anthropic ma senza un posto nel consiglio di amministrazione. Anthropic è stato valutato l’ultima volta a 18,4 miliardi di dollari, secondo la CNBC.
Amazon ha effettuato un investimento di 1,25 miliardi di dollari a settembre in Anthropic, con resoconti dei media che all’epoca affermavano che Amazon avrebbe potuto investire fino a 4 miliardi di dollari in Anthropic con sede a San Francisco.
Mercoledì, Amazon ha annunciato un ulteriore investimento di 2,75 miliardi di dollari nella startup di intelligenza artificiale generativa, Anthropic, portando il suo investimento totale nella società a 4 miliardi di dollari. .
Anthropic è il creatore di Claude, un chatbot alimentato da intelligenza artificiale generativa, che concorre con ChatGPT di OpenAI. Questo investimento rappresenta il più grande investimento esterno mai effettuato da Amazon , dopo un precedente investimento di 1,3 miliardi di dollari nel produttore di veicoli elettrici Rivian .
Secondo una nota di Amazon, il lavoro con Anthropic per portare le più avanzate tecnologie di Intelligenza Artificiale generativa ai clienti di tutto il mondo è appena all’inizio.
Come parte di un accordo di collaborazione strategica, Amazon e Anthropic hanno annunciato che Anthropic utilizzerà Amazon Web Services come principale fornitore di servizi cloud per carichi di lavoro mission-critical, inclusa la ricerca sulla sicurezza e lo sviluppo di futuri modelli di base.
L’investimento garantirà ad Amazon una quota di minoranza in Anthropic, tuttavia, non otterrà un posto nel consiglio di amministrazione. La valutazione più recente di Anthropic si aggira intorno a 18,4 miliardi di dollari, secondo quanto riportato da CNBC.
Questo investimento fa seguito a un precedente investimento di 1,25 miliardi di dollari effettuato da Amazon nel mese di settembre in Anthropic. In quel momento, si era speculato che Amazon potesse investire fino a 4 miliardi di dollari in una startup di intelligenza artificiale con sede a San Francisco, cosa che poi è effettivamente avvenuta.
Oltre ad Amazon, anche Google e Salesforce figurano tra i sostenitori di Anthropic, riconoscendo il potenziale di questa startup nel campo dell’intelligenza artificiale generativa.
La Federal Trade Commission, l’antitrust americana ha aperto un’indagine sui rapporti tra le principali startup di Intelligenza Artificiale e i big del settore tech. L’obiettivo è quello di valutare se dietro le partnership e gli investimenti ci siano accordi potenzialmente in grado di minare la concorrenza o consentire un accesso privilegiato alle applicazioni di AI a scapito del mercato.
La stessa FTC ha dichiarato di aver emesso degli ordini obbligatori nei confronti di cinque aziende – Amazon, Google, Microsoft, OpenAI e Anthropic – chiedendo di fornire informazioni dettagliate su investimenti e partnership.
Il rapporto tra Microsoft con OpenAI è abbastanza noto e anche se l’azienda di Redmond non ha mai rivelato pubblicamente l’importo totale dell’investimento in OpenAI, si parla di una grandezza di circa 10 miliardi di dollari. Nell’ambito di questo accordo, Microsoft si sarebbe impegnata ad offrire la potenza di calcolo necessaria per addestrare i modelli di AI su enormi quantità di dati e avrebbe avuto in cambio i diritti esclusivi di sfruttamento di ciò che OpenAI avrebbe realizzato, consentendo alla tecnologia di essere inserita nei prodotti Microsoft.
Peraltro, anche Google e Amazon hanno recentemente concluso accordi multimiliardari con Anthropic, un’altra startup di Intelligenza Artificiale con sede a San Francisco e formata da ex dirigenti di OpenAI.
Anche l’Autorità britannica per la concorrenza e i mercati sta esaminando gli accordi e la stessa Commissione Europea ha avviato una verifica sull’investimento di Microsoft e OpenAI ai sensi del regolamento Ue sulle concentrazioni. La vicepresidente della Commissione Ue, Margrethe Vestager, che ha la delega alla concorrenza, ha dichiarato in proposito che è fondamentale che i nuovi mercati rappresentati dall’Intelligenza Artificiale generativa e il virtuale rimangano competitivi e che nulla possa ostacolare l’accesso alle risorse da parte di tutte le aziende garantendo che le nuove tecnologie vadano a beneficio dei cittadini e non di singole aziende.
Va detto, peraltro, che l’indagine aperta dalla Commissione Europea non riguarda solo Microsoft e OpenAI quanto, più in generale, eventuali accordi chiusi dalle big tech con i fornitori di AI generativa, con l’obiettivo di valutare se e come queste partnesrship possano impattare sulle dinamiche di mercato.
L’UE è stata la prima nel mondo a cercare di legiferare l’Intelligenza Artificiale con l’AI Act in attesa di approvazione definitiva da parte del Parlamento Europeo. Del resto, questa nuova tecnologia ha la potenzialità di rivoluzionare l’economia e il mondo del lavoro, presentando anche delle sfide di tipo etico per l’umanità sulle quali si è pronunciato anche recentemente Papa Francesco, sottolineando la necessità di adottare dei modelli di regolamentazione etica per arginare eventuali risvolti dannosi e discriminatori, socialmente ingiusti, dei sistemi di Intelligenza Artificiale.