Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: Sakana

Sakana AI accelera lo sviluppo fino a 100 volte con CUDA engineer

Sakana AI, una startup giapponese con sede a Tokyo, ha annunciato lo sviluppo di un sistema innovativo in grado di accelerare il processo di sviluppo e implementazione dell’intelligenza artificiale fino a 100 volte. Il cuore di questa rivoluzione è AI CUDA Engineer, un sistema avanzato che automatizza la creazione del codice utilizzato per il controllo delle GPU di Nvidia, riducendo drasticamente i tempi di addestramento e inferenza dei modelli di AI.

L’idea alla base di AI CUDA Engineer si fonda su un concetto chiave: utilizzare l’AI per sviluppare AI più potenti e performanti. La startup ha delineato la propria visione nel blog ufficiale, sottolineando come la vera innovazione consista nell’automazione dello sviluppo dell’intelligenza artificiale stessa. Il sistema si basa su un framework agentico che sfrutta i modelli linguistici di ultima generazione (LLM) per tradurre automaticamente il codice PyTorch standard in kernel CUDA altamente ottimizzati.

Oltre i Confini dei Transformers: Le Nuove Architetture di Intelligenza Artificiale che Cambieranno il Gioco, Titans di Google e Transformer Squared Sakana

Negli ultimi anni, i transformers hanno rappresentato il punto di riferimento per i modelli di intelligenza artificiale, dalla traduzione automatica alla modellazione linguistica, fino al riconoscimento delle immagini. Tuttavia, la loro egemonia potrebbe essere messa in discussione da due innovazioni che promettono di ridefinire il panorama dell’AI: le architetture “Titans” di Google e “Transformer Squared” sviluppata dalla startup giapponese Sakana. Questi nuovi modelli, ispirati al funzionamento del cervello umano, puntano a superare i limiti dei transformer tradizionali, rendendo i sistemi più efficienti, flessibili e intelligenti.

I transformers hanno trasformato l’AI grazie al meccanismo di attention, che consente di valutare il contesto di ogni elemento in una sequenza. Questa tecnologia ha introdotto la possibilità di elaborare dati in parallelo, rendendo obsoleti i recurrent neural networks (RNN), che lavoravano in modo sequenziale. Tuttavia, i transformers tradizionali hanno mostrato notevoli limiti in termini di scalabilità, adattabilità e memoria a lungo termine. Una volta addestrati, migliorare il loro funzionamento richiede enormi risorse computazionali o l’uso di strumenti esterni come i modelli LoRA o RAG.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie