Anthropic, un attore chiave nello sviluppo di sistemi AI avanzati, sta attivamente perseguendo un’opportunità strategica per espandere la sua presenza nel settore pubblico cercando un’autorizzazione FedRAMP. Questo permetterebbe all’azienda di vendere direttamente i suoi modelli AI all’avanguardia, come Claude, alle agenzie federali. Con l’adozione crescente dell’AI da parte del governo per le sue operazioni, in particolare in ambito di sicurezza nazionale e funzioni civili, la certificazione FedRAMP diventa una porta d’accesso essenziale per le aziende di AI che desiderano assicurarsi che i loro sistemi rispettino gli elevati standard di sicurezza richiesti per l’uso federale.

Espandere i Casi d’Uso Governativi per la Tecnologia AI

In un’intervista con FedScoop, Michael Sellitto, capo degli affari globali di Anthropic, ha rivelato che l’azienda è in trattative con diverse agenzie federali, sebbene i nomi specifici restino riservati. Questi colloqui riguardano come la tecnologia di Anthropic possa essere utilizzata dal governo degli Stati Uniti, in particolare per casi d’uso all’interno di agenzie federali civili. Un esempio notevole riguarda il Dipartimento della Sicurezza Interna (DHS), dove la tecnologia di Anthropic è in fase di valutazione per l’uso nella formazione degli agenti della Customs and Border Protection per le interviste di asilo.

Sellitto ha sottolineato che Anthropic sta considerando l’idea di fornire servizi direttamente alle agenzie governative, senza dover necessariamente fare affidamento su partner come Amazon Web Services (AWS) e Palantir. Al momento, Anthropic offre la sua tecnologia attraverso queste piattaforme di cloud già certificate FedRAMP. Sellitto ha riconosciuto che questa transizione è complicata, soprattutto considerando l’esperienza limitata di Anthropic nel settore degli appalti pubblici.

Autorizzazione FedRAMP e le Sfide per le Startup

Ottenere l’autorizzazione FedRAMP è un passo fondamentale per qualsiasi azienda che desideri servire il governo federale con servizi basati su cloud. Il processo è lungo e comporta significativi ostacoli normativi, inclusi gli stretti standard di sicurezza da rispettare. Sellitto ha osservato che, sebbene il processo possa sembrare gravoso, è necessario per garantire che i sistemi di AI soddisfino i rigorosi protocolli di sicurezza richiesti per l’uso federale. Per aziende come Anthropic, che sono relativamente nuove agli appalti governativi, la complessità di navigare nel FedRAMP e nei processi di approvvigionamento pubblico rappresenta una sfida aggiuntiva. Il desiderio dell’azienda di semplificare questo processo attraverso linee guida più chiare e tempi di risposta più prevedibili rispecchia le difficoltà di molte startup nel settore tecnologico, che sono dissuase dalla burocrazia.

Test sulla Sicurezza dell’AI con l’Amministrazione per la Sicurezza Nucleare Nazionale

Oltre alle discussioni riguardanti FedRAMP, Anthropic ha collaborato con agenzie federali, soprattutto in ambiti sensibili come la sicurezza nazionale. Un esempio riguarda la collaborazione con l’Amministrazione per la Sicurezza Nucleare Nazionale (NNSA) e il Dipartimento dell’Energia (DOE) per valutare se i modelli linguistici di grandi dimensioni, come Claude, possano compromettere informazioni sensibili. Questo ha comportato test dei modelli all’interno di un ambiente cloud classificato, altamente sicuro, per garantire che qualsiasi dato scambiato attraverso i modelli fosse protetto.

Sellitto ha spiegato che questa iniziativa è stata un grande sforzo ingegneristico, dove Anthropic ha lavorato a stretto contatto con AWS, che già fornisce servizi cloud per il governo in ambito classificato. I risultati di questi test dovrebbero contribuire a comprendere i rischi legati ai sistemi AI nella gestione di dati sensibili per la sicurezza nazionale e potrebbero informare futuri miglioramenti nella sicurezza dell’AI. Sellitto ha sottolineato che Anthropic mira a collaborare con le agenzie governative per ridurre i rischi identificati, promuovendo la fiducia e migliorando i protocolli di sicurezza relativi all’uso dell’AI in ambienti così delicati.

Politiche sull’AI e Considerazioni sui Diritti Civili

Mentre Anthropic naviga in queste complesse trattative con il governo federale, l’azienda rimane impegnata ad affrontare tematiche critiche legate alla sicurezza dell’AI e ai diritti civili. Sellitto ha riflettuto sull’importanza per Anthropic di evitare il bias algoritmico e il potenziale per l’AI di violare le libertà civili. Il team dedicato all’impatto sociale dell’azienda è impegnato nella valutazione dei rischi legati a discriminazioni e garantendo che i suoi sistemi AI vengano utilizzati in modo etico, specialmente nel contesto governativo.

Sellitto ha anche riconosciuto che, pur rimanendo concentrato sulla sicurezza dell’AI, nonostante un possibile secondo mandato di Trump, si prevede che l’attenzione sulla salvaguardia dei sistemi AI e sull’adozione responsabile della tecnologia continuerà. L’obiettivo generale rimane quello di supportare l’innovazione, mantenendo al contempo un forte controllo per garantire che l’AI non venga utilizzata come strumento di discriminazione o abuso.

Sforzi Internazionali per Armonizzare le Regolamentazioni sull’AI

Poiché la tecnologia AI sta diventando sempre più diffusa a livello globale, Anthropic è anche coinvolta in discussioni internazionali per allineare gli standard normativi tra gli Stati Uniti e l’Europa. Sellitto considera lo sviluppo di un quadro normativo domestico negli Stati Uniti fondamentale per facilitare la cooperazione internazionale sulla governance dell’AI. Questa armonizzazione potrebbe consentire agli Stati Uniti di mantenere il proprio vantaggio competitivo, garantendo al contempo che l’adozione dell’AI rispetti gli standard globali di sicurezza ed etica.

Ha inoltre sottolineato che gli Stati Uniti hanno l’opportunità di essere pionieri nel sviluppare regolamenti di base per l’AI, che potrebbero aiutare a garantire un approccio più coordinato con enti internazionali come l’Unione Europea. Il Regolamento AI dell’UE, che delinea i requisiti per le applicazioni ad alto rischio dell’AI, è un esempio degli sforzi normativi in corso all’estero che potrebbero influenzare la politica statunitense. Tuttavia, Sellitto ha evidenziato l’importanza di una politica interna coerente per assicurare che le aziende americane possano navigare con successo le normative globali sull’AI.

Conclusione: Il Cammino Strategico di Anthropic

Mentre Anthropic continua la sua ricerca di un’autorizzazione FedRAMP e amplia le sue collaborazioni con agenzie federali, l’azienda si sta posizionando come leader nell’adozione sicura e responsabile dell’AI per l’uso governativo. Le sfide legate all’ottenimento della certificazione FedRAMP e alla navigazione di processi complessi di appalti pubblici sono significative, ma l’approccio proattivo di Anthropic nell’assicurarsi partnership e promuovere lo sviluppo delle migliori pratiche per la sicurezza dell’AI giocherà probabilmente un ruolo fondamentale nell’avanzare la sua missione. Garantendo la conformità agli standard rigorosi e mantenendo un focus sui diritti civili, Anthropic sta preparando il terreno per una maggiore adozione dei suoi modelli AI sia a livello federale che internazionale.

Per maggiori dettagli sul percorso di Anthropic nell’adozione dell’AI da parte del governo, consulta l’intervista completa con Michael Sellitto su FedScoop qui.