Foxconn, il colosso taiwanese dell’elettronica, ha recentemente presentato “FoxBrain”, il suo primo modello di linguaggio di grandi dimensioni (LLM) ottimizzato per il cinese tradizionale e gli stili linguistici taiwanesi. Questo sviluppo rappresenta un passo significativo nell’integrazione dell’intelligenza artificiale nei processi produttivi e nella gestione della catena di fornitura.
Il modello FoxBrain è stato sviluppato utilizzando 120 GPU Nvidia H100 e si basa sull’architettura Llama 3.1 di Meta. Il processo di addestramento è stato completato in circa quattro settimane, rendendo FoxBrain il primo LLM taiwanese con capacità di ragionamento ottimizzate per il cinese tradizionale. Sebbene presenti un lieve divario prestazionale rispetto al modello DeepSeek della Cina, FoxBrain si avvicina agli standard mondiali.
Le applicazioni iniziali di FoxBrain includono analisi dei dati, supporto decisionale, collaborazione documentale, matematica, ragionamento, risoluzione di problemi e generazione di codice. Foxconn prevede di collaborare con partner tecnologici per espandere le applicazioni del modello, condividere informazioni open-source e promuovere l’adozione dell’IA nei settori manifatturiero e della gestione della catena di fornitura.
Nvidia ha supportato l’addestramento di FoxBrain attraverso il suo supercomputer “Taipei-1” e ha fornito consulenza tecnica. Ulteriori dettagli sul modello saranno annunciati durante la conferenza per sviluppatori GTC di Nvidia a metà marzo.
Foxconn ha già intrapreso iniziative per automatizzare i processi produttivi, come l’implementazione di fabbriche “lights-off” e l’uso di robot per l’anodizzazione dei metalli. L’introduzione di FoxBrain rappresenta un ulteriore passo verso l’integrazione dell’IA nell’industria manifatturiera, migliorando l’efficienza e la qualità dei processi produttivi.