Grazie all’introduzione delle nuove schede NPU (Neural Processing Unit) di Tenstorrent sul cloud Seeweb, le aziende possono portare il training e l’inferenza di modelli di intelligenza artificiale a un livello superiore.
Queste NPU offrono una potenza di calcolo significativamente maggiore rispetto alle tradizionali GPU, consentendo di accelerare i carichi di lavoro AI in modo più efficiente.
Inoltre, l’adozione di queste soluzioni in cloud permette di ottimizzare i costi e ridurre i consumi energetici, in quanto le risorse vengono erogate in modalità “pay-per-use” senza la necessità di investimenti iniziali in hardware.
Questo approccio “serverless” alle GPU in cloud semplifica notevolmente la gestione delle infrastrutture IT per lo sviluppo di applicazioni di intelligenza artificiale, consentendo alle aziende di concentrarsi maggiormente sull’innovazione.
Le Neural Processing Units (NPU) sono hardware specializzati progettati per accelerare i processi computazionali necessari sia per l’addestramento che per l’inferenza nei modelli di machine learning. A differenza delle tradizionali CPU e GPU, le NPU sono ottimizzate specificamente per i compiti di intelligenza artificiale, il che le rende altamente efficienti ed efficaci nella gestione delle operazioni di AI su larga scala. Le NPU supportano il processamento parallelo, riducendo drasticamente i tempi di calcolo e il consumo energetico.
Tenstorrent, sfruttando l’architettura RISC-V, offre piattaforme tecnologiche di AI scalabili e configurabili attraverso il loro Tensix AI IP. Le loro soluzioni sono progettate per fornire elevate prestazioni per watt, rendendole ideali sia per i data center che per il computing edge. Questa scalabilità garantisce che i carichi di lavoro di AI possano essere gestiti in modo più efficiente, riducendo significativamente i costi e il consumo energetico.
L’integrazione delle NPU di Tenstorrent nell’infrastruttura cloud dei Service Providers significa che gli utenti possono ora accedere a hardware AI all’avanguardia senza significativi investimenti iniziali. Questa integrazione facilita prestazioni migliorate per l’addestramento e l’inferenza di AI ottimizzando al contempo i costi e riducendo l’uso di energia. Utilizzando il cloud, le aziende e i ricercatori possono scalare le loro operazioni di AI in modo flessibile e sostenibile.
Le NPU vengono utilizzate per democratizzare lo sviluppo di AI. Piattaforme come NeuralUnit enfatizzano l’approccio decentralizzato, permettendo a sviluppatori e ricercatori in tutto il mondo di accedere a potenti risorse computazionali. Questo non solo accelera l’innovazione nell’AI, ma consente anche ampi esperimenti e iterazioni rapide sui modelli di AI. Inoltre, i proprietari di NPU possono monetizzare la loro potenza di calcolo inutilizzata, contribuendo a un utilizzo più efficiente delle risorse globali
In italia Seeweb ha reso disponibili sul suo cloud i nuovi server con schede NPU Tenstorrent per accelerare l’inferenza di modelli di intelligenza artificiale. Grazie a questa partnership, le aziende possono sfruttare le potenziali capacità di calcolo delle NPU Tenstorrent in modalità “pay-per-use”, ottimizzando costi e consumi energetici senza investimenti in hardware
L ‘introduzione dei devkit Grayskull e75 ed e150 a prezzi competitivi di 599$ e 799$ dimostra la volontà di Tenstorrent di rendere le sue NPU accessibili a un’ampia base di sviluppatori AIPer ulteriori dettagli sulla tecnologia e le sue applicazioni, puoi esplorare di più sui siti NeuralUnit e Tenstorrent.
Lascia un commento
Devi essere connesso per inviare un commento.