Anthropic ha introdotto un’importante novità nel suo assistente Claude AI: la possibilità per gli utenti di personalizzare lo stile delle risposte. Con questa nuova funzione, disponibile per tutti gli utenti, è ora possibile adattare il chatbot a specifiche esigenze comunicative, selezionando stili preimpostati o addirittura creando configurazioni personalizzate. Questo rappresenta un ulteriore passo avanti verso un’interazione sempre più naturale e contestualmente appropriata.
Tag: anthropic Pagina 1 di 2
Anthropic ha lanciato una proposta rivoluzionaria per migliorare le capacità degli assistenti AI nel connettersi ai sistemi aziendali, eliminando le barriere rappresentate dagli attuali silos informativi. Si chiama Model Context Protocol (MCP), un nuovo standard open source progettato per rendere i modelli di intelligenza artificiale più contestuali e connessi.
L’MCP consente ai modelli, non limitandosi a quelli sviluppati da Anthropic, di accedere a dati provenienti da una vasta gamma di fonti, tra cui strumenti aziendali, software, repository di contenuti e ambienti di sviluppo applicativo. L’obiettivo è semplificare il flusso informativo e migliorare la qualità delle risposte prodotte dalle AI.
Anthropic, un attore chiave nello sviluppo di sistemi AI avanzati, sta attivamente perseguendo un’opportunità strategica per espandere la sua presenza nel settore pubblico cercando un’autorizzazione FedRAMP. Questo permetterebbe all’azienda di vendere direttamente i suoi modelli AI all’avanguardia, come Claude, alle agenzie federali. Con l’adozione crescente dell’AI da parte del governo per le sue operazioni, in particolare in ambito di sicurezza nazionale e funzioni civili, la certificazione FedRAMP diventa una porta d’accesso essenziale per le aziende di AI che desiderano assicurarsi che i loro sistemi rispettino gli elevati standard di sicurezza richiesti per l’uso federale.
Nel contesto della competizione tra Anthropic e OpenAI, Anthropic ha recentemente lanciato il suo modello di intelligenza artificiale, Claude 3.5 Sonnet, che ha mostrato prestazioni superiori rispetto al modello GPT-4o di OpenAI in diversi benchmark. Questo nuovo modello si distingue per la sua capacità di ragionamento e per la comprensione visiva, superando GPT-4o in compiti complessi come la codifica e l’analisi di diagrammi e grafici.
Anthropic ha recentemente lanciato una suite innovativa di strumenti pensata per automatizzare e perfezionare l’ingegneria dei prompt nella sua console per sviluppatori. Questo aggiornamento è destinato a migliorare l’efficienza nello sviluppo delle applicazioni AI, soprattutto in ambito aziendale, dove l’accuratezza e l’affidabilità dei modelli di linguaggio, come Claude, sono essenziali. Le nuove funzionalità, tra cui il “prompt improver” e la gestione avanzata degli esempi, puntano a semplificare la creazione di applicazioni AI più robuste, ottimizzando la scrittura e la gestione dei prompt.
Le aziende che sviluppano modelli di intelligenza artificiale (IA) generalmente li addestrano per evitare di dire cose dannose e per non assistere in attività pericolose. L’obiettivo è quello di formare modelli che si comportino in modo “innocuo”, minimizzando i rischi. Tuttavia, quando pensiamo al carattere di persone che troviamo davvero ammirevoli, non ci limitiamo a considerare l’evitamento del danno. Pensiamo anche a quelle persone curiose del mondo, che cercano di dire la verità senza essere scortesi, e che riescono a vedere molteplici sfaccettature di un problema senza diventare eccessivamente sicure di sé o troppo prudenti nelle proprie opinioni. Pensiamo a coloro che sono pazienti ascoltatori, pensatori attenti, conversatori spiritosi e molte altre qualità che associamo a una persona saggia e ben equilibrata.
Anche se i modelli di IA non sono persone, man mano che diventano più capaci, crediamo che sia possibile – e necessario – addestrarli a comportarsi bene in questo senso più ampio. Fare ciò potrebbe anche aiutarli a diventare più discreti quando si tratta di evitare di assistere in attività dannose, e di come decidono di rispondere in alternativa.
Dario Amodei, CEO di Anthropic, ha recentemente sollevato preoccupazioni che il mondo della tecnologia ha iniziato a considerare inevitabili: l’Intelligenza Artificiale Generale (AGI) potrebbe eguagliare, se non addirittura superare, le capacità umane entro pochi anni. Secondo Amodei, già entro il 2027 potremmo trovarci di fronte a sistemi AI di pari o superiore intelligenza, capaci di impatti trasformativi e potenzialmente catastrofici per la nostra società, a seconda di come tali poteri saranno gestiti.
La possibilità di ottenere un’AGI, un tipo di intelligenza capace di comprendere, adattarsi e migliorare il mondo con lo stesso livello di comprensione umana, comporta rischi e responsabilità estremi. Amodei mette in guardia sul fatto che queste intelligenze non risponderebbero agli stessi limiti morali e sociali che governano il comportamento umano, come la paura delle conseguenze legali o sociali. L’intelligenza artificiale, infatti, non ha paura della perdita, del danno personale o dell’ostracismo sociale: agirebbe senza tale “costo sociale,” il che potrebbe creare rischi di distacco tra capacità e morale.
Durante una recente intervista sul podcast di Lex Fridman, Dario Amodei, co-fondatore di Anthropic, ha fatto una dichiarazione che sta facendo molto discutere nel mondo tecnologico. Amodei ha affermato che, “se si segue un’estrapolazione lineare”, l’umanità potrebbe raggiungere l’intelligenza artificiale generale (AGI) nel 2026 o 2027. Tuttavia, ha anche evidenziato le numerose incertezze e variabili che minano questa previsione, suggerendo che il raggiungimento di un’intelligenza artificiale con capacità generalistiche potrebbe richiedere molto più tempo.
Amazon si prepara a fare un altro passo importante nel mondo dell’intelligenza artificiale: sta infatti considerando di aumentare notevolmente il proprio investimento in Anthropic, rivale di OpenAI, a condizione che quest’ultima utilizzi i chip sviluppati da Amazon, ospitati sui server di Amazon Web Services (AWS) per le sue operazioni di AI training. Questa mossa evidenzia la strategia di Amazon per posizionarsi al centro della competizione nel mercato dell’AI, proponendo un’offerta infrastrutturale differenziata e consolidando la propria influenza nel settore.
L’intelligenza artificiale sta rapidamente evolvendo, e con essa emerge anche una nuova e complessa frontiera: la sicurezza. Due recenti sviluppi hanno messo in evidenza la necessità di riflessioni più approfondite sulla protezione dei modelli AI, dimostrando che anche le intelligenze più avanzate non sono immuni da vulnerabilità.
Amazon, leader globale nei servizi cloud, sta negoziando un nuovo investimento multimiliardario in Anthropic, una delle principali startup rivali di OpenAI, in un accordo che potrebbe ridefinire i rapporti di forza nel settore dell’intelligenza artificiale. Durante le discussioni, Amazon ha richiesto che Anthropic utilizzi in gran parte i suoi server basati su chip AI sviluppati internamente. Tuttavia, Anthropic sembra preferire le unità Nvidia, leader di mercato per la potenza e la diffusione dei loro chip AI.
L’ecosistema della difesa e dell’intelligence statunitense si arricchisce con una nuova, potente sinergia: Anthropic, sostenuta da Amazon , si allea con Palantir Technologiese Amazon Web Services (AWS) per fornire alle agenzie governative l’accesso ai suoi modelli di intelligenza artificiale Claude 3 e 3.5, integrati all’interno dell’infrastruttura cloud di AWS.
Anthropic ha recentemente introdotto il supporto per i PDF nel suo modello di intelligenza artificiale Claude 3.5 Sonnet, attualmente in fase beta pubblica. Questa nuova funzionalità consente al modello di analizzare non solo il testo contenuto nei documenti PDF, ma anche elementi visivi come immagini, grafici e tabelle:
Claude può estrarre e analizzare informazioni da documenti finanziari, legali e altro ancora, combinando testo e immagini.
- Processo di analisi: L’analisi dei PDF avviene in tre fasi:
- Estrazione del testo dal documento.
- Conversione di ogni pagina in un’immagine per l’analisi visiva.
- Risposta alle domande degli utenti riguardo a qualsiasi elemento del PDF.
Limiti dei documenti: I file PDF devono avere una dimensione inferiore a 32 MB e non possono superare le 100 pagine. Inoltre, non sono supportati documenti protetti da password o crittografati.
L’Illuminismo, con il suo focus sulla ragione e sulla scienza, ha promosso l’idea che il sapere dovesse essere universale, accessibile e libero dalle restrizioni della censura o del controllo religioso. Filosofi come Voltaire, Rousseau e Kant sostenevano che la conoscenza fosse un diritto naturale e non una concessione delle autorità. Allo stesso modo, il “diritto all’apprendimento” per le IA incoraggia un accesso libero ai dati e alle informazioni, similmente a come l’Illuminismo ha aperto le porte alla conoscenza scientifica per il bene collettivo.
Anthropic, uno dei protagonisti più attivi nel campo dell’Intelligenza Artificiale (IA), ha recentemente sollecitato i governi di tutto il mondo ad adottare misure rapide e incisive per regolamentare i rischi potenzialmente catastrofici legati all’avanzamento dell’IA. Secondo l’azienda, il tempo per un’azione preventiva si sta rapidamente esaurendo, e ogni ritardo potrebbe compromettere seriamente la capacità dei governi di prevenire potenziali crisi legate a questa tecnologia.
L’azienda sottolinea che il ritmo dello sviluppo dell’IA è tale da giustificare questa urgenza. Circa un anno fa, Anthropic aveva avvisato che i modelli di IA di frontiera avrebbero potuto presentare rischi significativi nel campo della sicurezza informatica e delle minacce chimiche, biologiche, radiologiche e nucleari (CBRN) entro un periodo di 2-3 anni. Oggi, l’azienda avverte che siamo già molto più vicini a quel tipo di rischi di quanto si pensasse inizialmente.
Il 24 ottobre 2024, Anthropic ha annunciato il lancio di una nuova funzionalità chiamata strumento di analisi per Claude.ai. Questa innovazione consente agli utenti di sfruttare le capacità di Claude per scrivere ed eseguire codice JavaScript in tempo reale, migliorando notevolmente le sue funzioni di elaborazione e analisi dei dati.
Anthropic ha recentemente annunciato un significativo miglioramento nella precisione del suo modello AI, Claude, grazie all’implementazione di una nuova tecnica chiamata Recupero Contestuale. Questo approccio ha portato a una riduzione del tasso di errore dei sistemi di Recupero di Risposte (RAG) del 67%.
Il metodo di Recupero Contestuale implica l’aggiunta di informazioni contestuali rilevanti a ciascun pezzo di dati prima che venga incorporato o indicizzato. Questo processo aiuta a preservare dettagli critici e a migliorare la coerenza delle risposte generate dall’AI
Grazie a questa tecnica, Anthropic ha registrato una diminuzione del tasso di fallimento nel recupero delle informazioni, che è sceso del 49%. Questo significa che il modello è ora in grado di accedere e recuperare informazioni pertinenti da database di grandi dimensioni con maggiore efficacia67.
L’adozione del Recupero Contestuale non solo migliora la capacità di Claude di fornire risposte accurate, ma rappresenta anche un passo avanti nella progettazione di sistemi AI più robusti e intelligenti. Questa innovazione potrebbe avere un impatto significativo su vari settori, dove l’accuratezza delle informazioni recuperate è cruciale per il successo delle applicazioni basate sull’intelligenza artificiale
Amazon-backed Anthropic è sulla buona strada per generare 1 miliardo di dollari di fatturato quest’anno, segnando una crescita straordinaria del 1.000% rispetto all’anno precedente. Questa proiezione è stata evidenziata in un recente rapporto di CNBC, che ha notato come l’azienda abbia rapidamente ampliato le sue operazioni e le sue offerte di prodotti, incluso il lancio di Claude Enterprise, una soluzione AI progettata per le aziende.
Di recente, Mike Krieger, il nuovo Chief Product Officer di Anthropic, ha condiviso le sue riflessioni sulle capacità e sui limiti dei chatbot come Claude, nonché sul futuro dell’intelligenza artificiale, in un’intervista con The Verge. Le sue osservazioni offrono uno sguardo interessante su come queste tecnologie stiano evolvendo e su come possano influenzare il nostro modo di lavorare e comunicare.
Anthropic, società di intelligenza artificiale generativa sostenuta da Amazon e altre importanti aziende tech, ha annunciato mercoledì il lancio di Claude Enterprise, una versione di Claude pensata appositamente per le grandi imprese.
Anthropic non ha rivelato il prezzo esatto di Claude Enterprise, ma un dipendente ha dichiarato a TechCrunch che costerà più del piano Teams da 30 dollari al mese per membro.
Il governo degli Stati Uniti ha recentemente firmato accordi significativi con le aziende di intelligenza artificiale Anthropic e OpenAI, sostenuta da Microsoft. Questi accordi, noti come memorandum d’intesa, sono stati annunciati dall’Artificial Intelligence Safety Institute (AISI), che opera sotto il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio degli Stati Uniti.
Anthropic, ha rilasciato pubblicamente i prompt di sistema per i suoi ultimi modelli di Claude AI. Questa mossa, rara nel settore, offre agli utenti uno sguardo inedito sul funzionamento interno dei suoi grandi modelli linguistici (LLM) e rende Anthropic l’unica grande azienda di IA ad aver condiviso ufficialmente tali istruzioni.
Negli ultimi anni, l’intelligenza artificiale (IA) ha assunto un ruolo cruciale nel panorama della sicurezza informatica, trasformando i pirati informatici in “nuovi pirati” a caccia di dati. Questi attaccanti utilizzano tecnologie avanzate per affinare i loro metodi e ampliare l’estensione degli attacchi, sfruttando algoritmi di machine learning e deep learning per ottenere vantaggi competitivi.
La startup di intelligenza artificiale Anthropic sta affrontando una class action in un tribunale federale della California. Tre autori sostengono che l’azienda ha usato impropriamente i loro libri e molti altri per addestrare il chatbot AI Claude, ha riportato Reuters.
Pochi giorni dopo che l’agenzia antitrust britannica ha annunciato di esaminare la partnership tra Google e la startup di intelligenza artificiale Anthropic, sta facendo lo stesso con Amazon.
Anthropic, un concorrente di OpenAI sostenuto da Microsoft, ha lanciato un’iniziativa da 100 milioni di dollari con Menlo Ventures per investire in startup di intelligenza artificiale, come annunciato oggi dalla società di venture capital.
Dopo essere stato lanciato su iOS a maggio 2024, Claude è ora accessibile anche agli utenti Android attraverso un’applicazione gratuita disponibile sul Google Play Store. Questa espansione multipiattaforma copre la stragrande maggioranza degli smartphone a livello globale, permettendo a un numero ancora più ampio di utenti di accedere all’ultima versione avanzata di Claude, denominata Sonnet (3.5).
Il 21 maggio 2024, Anthropic ha annunciato un avanzamento significativo nella comprensione del funzionamento interno dei modelli di intelligenza artificiale (IA). La ricerca si è concentrata su Claude Sonnet, uno dei modelli di linguaggio di grandi dimensioni attualmente in uso. Questo studio rappresenta il primo sguardo dettagliato all’interno di un modello di linguaggio moderno e di grado produttivo, con potenziali implicazioni per la sicurezza e l’affidabilità dei modelli di IA.
La startup di intelligenza artificiale Anthropic, concorrente diretta di OpenAI, sostenuta da Microsoft, ha annunciato mercoledì che Mike Krieger, co-fondatore di Instagram, si unirà all’azienda come Chief Product Officer.
Anthropic, azienda di ricerca e sicurezza sull’intelligenza artificiale, ha recentemente rilasciato un nuovo strumento chiamato Prompt Generator. Questo strumento online gratuito aiuta gli utenti a creare prompt efficaci per Claude, il loro modello linguistico di grandi dimensioni (LLM) conversazionale.
Anthropic ha dichiarato mercoledì che lancerà un’app iOS e anche nche un nuovo piano pensato per condividere l’accesso ai suoi modelli IA.
L’ app Claude per iOS sarà disponibile gratuitamente per il download e offrirà la stessa esperienza vista sul Web mobile, inclusa la sincronizzazione della cronologia chat e il supporto per scattare e caricare foto, ha affermato Anthropic in un post sul blog .
Prima del lancio dell’app iOS, Claude era disponibile solo su Claude.ai e servizi cloud come Amazon Bedrock , Microsoft Azure e altri.
In confronto, ChatGPT, creata da OpenAI sostenuta da Microsoft, ha lanciato la sua app iOS nel maggio 2023. Un’app Android è stata lanciata a luglio. Google ha presentato le sue app Gemini iOS e Android a febbraio.
Oltre all’app iOS, Anthropic ha presentato un piano Team per le aziende, offrendo alle aziende l’accesso ai modelli Claude. È previsto un minimo di cinque posti, con un costo di $ 30 per posto al mese.
Anthropic ha presentato il suo primo livello a pagamento per Claude, il piano Pro, a settembre a $ 20 al mese.
Anthropic ha dichiarato che nelle prossime settimane rilascerà ulteriori funzionalità di collaborazione, tra cui citazioni da fonti affidabili per verificare le affermazioni generate dall’IA, integrazioni con archivi di dati come basi di codice o CRM e iterazione con i colleghi su documenti o progetti generati dall’IA.
A dicembre è stato riferito che Anthropic si aspettava un tasso di entrate annualizzate di oltre 850 milioni di dollari entro la fine del 2024.
Amazon ha rivelato a marzo di aver effettuato un ulteriore investimento di 2,75 miliardi di dollari in Anthropic, portando il suo investimento totale nella società a 4 miliardi di dollari. L’investimento darà ad Amazon una quota di minoranza in Anthropic ma senza un posto nel consiglio di amministrazione. Anthropic è stato valutato l’ultima volta a 18,4 miliardi di dollari, secondo la CNBC.
Amazon ha effettuato un investimento di 1,25 miliardi di dollari a settembre in Anthropic, con resoconti dei media che all’epoca affermavano che Amazon avrebbe potuto investire fino a 4 miliardi di dollari in Anthropic con sede a San Francisco.