Tag: seeweb Pagina 1 di 2

Stanco dei mal di testa del cloud per l’AI? Skypilot AI potrebbe diventare il tuo migliore alleato

SkyPilot

Chi lavora con l’intelligenza artificiale sa bene che il vero nemico non è la complessità degli algoritmi, ma la giungla del cloud. GPU introvabili, YAML che sembrano scritti in sanscrito, costi che esplodono senza preavviso e cluster Kubernetes che si comportano come teenager capricciosi. È il grande paradosso dell’AI moderna: mentre i modelli diventano sempre più sofisticati, l’infrastruttura che dovrebbe sostenerli diventa un campo minato. È qui che entra in gioco SkyPilot AI, un progetto che sta iniziando a far rumore tra sviluppatori, ricercatori e team DevOps che non ne possono più di combattere ogni giorno contro la burocrazia tecnologica del cloud.

Data Center o palazzinari digitali? la distopia del made in italy

La parola “Make in Italy” suona bene. È catchy, accattivante, quasi innocente. Ma nel contesto della legge delega in discussione alla Camera, che vorrebbe normare (anzi no, “attrarre investimenti stranieri” mascherati da data center), si trasforma in un cavallo di Troia retorico. Antonio Baldassarra, CEO di Seeweb, in una recente intervista a Key4biz non ci gira intorno: è come essere tornati negli anni Cinquanta, quando bastava un progetto edilizio per muovere capitali, solo che oggi i protagonisti non sono i palazzinari romani, ma quelli tecnologici, assetati di suolo, energia e semplificazioni normative. Il nuovo mattone digitale si chiama “hyperscale data center”. E la politica sembra aver già consegnato le chiavi.

OpenAI libera GPT-OSS-120b: altruismo, trappola o colonizzazione?

Marco Cristofanilli ci ha mostrato GPT-OSS-120B in azione su AMD MI300X, raggiungendo oltre 800 token al secondo. Un risultato notevole, soprattutto considerando che questo LLM è stato progettato per chip Nvidia. Potete provarlo in questi giorni: Regolo.AI rimane freemium ancora per poco.

La mossa di OpenAI con gpt-oss-120b e licenza Apache 2.0, suona meno come un atto di filantropia tecnologica e più come un colpo di biliardo a tre sponde. Un LLM di quella taglia, con prestazioni che si avvicinano ai top di gamma e con throughput da 800 token/sec su un MI300X, non è stato “liberato” per caso. Soprattutto se fino a ieri la narrativa ufficiale era quella di contenere il rilascio di modelli potenti per ragioni di sicurezza, costi e “alignment”.

La trasparenza energetica nell’intelligenza artificiale come nuovo asset strategico

Perché l’energia è il nuovo capitale dell’AI

La narrativa green nel mondo dell’intelligenza artificiale ha smesso di essere un vezzo da ufficio marketing per trasformarsi in un parametro di valutazione finanziaria. Nel 2025 l’energia è il nuovo capitale, e chi non riesce a rendicontarne l’uso con precisione è destinato a essere penalizzato da investitori, regolatori e in prospettiva dagli stessi clienti enterprise. La pressione ESG ha spostato il focus dal “fare AI più veloce e più grande” al “fare AI misurabile e ottimizzata”.

Seeweb Italia e Regolo.AI, la sfida verde dell’intelligenza artificiale che misura i watt dei tuoi token

La prossima volta che qualcuno ti venderà l’ennesima piattaforma AI definendola “green”, chiedigli quanti watt consuma un singolo token generato. Non saprà risponderti. Ecco perché Seeweb Italia, con Regolo.AI, sta giocando una partita che molti nemmeno hanno capito essere iniziata. Parlare di sostenibilità nell’intelligenza artificiale è diventato uno sport retorico, un mantra per convegni e keynote: l’energia rinnovabile, i data center ottimizzati, le offset carbon credits… peccato che nessuno, davvero nessuno, dica quanta energia spreca ogni volta che la tua applicazione chiede a un modello linguistico di partorire una frase. Qui arriva il twist: regolo.AI promette non solo di creare applicazioni AI con facilità, governance dei dati rigorosa e sicurezza nativa, ma anche di monitorare il consumo energetico per token. Watt per token. Una metrica semplice, brutale e impossibile da ignorare.

Xiaomi sferra un pugno negli occhi al mercato degli occhiali AI

Sorpresa. Non da poco, e non da tutti. Xiaomi, la multinazionale cinese delle meraviglie elettroniche, è appena entrata a gamba tesa nel mercato degli occhiali intelligenti. Un settore che molti definiscono ancora di nicchia, ma che in realtà è il nuovo terreno di scontro per chi vuole presidiare il futuro del computing personale. Una guerra silenziosa fatta di microchip, lenti e assistenti vocali, dove chi ha il controllo dell’ecosistema può riscrivere le regole del gioco. Sì, perché qui non si vendono solo gadget: si piantano bandiere nel campo minato dell’intelligenza artificiale indossabile.

Simulazioni molecolari e GPU: la rivoluzione silenziosa che sta riscrivendo la medicina

Dimenticate Newton e le sue mele. O, meglio, immaginatelo con un laptop sul grembo e una GPU Nvidia installata. Perché oggi, il moto dei corpi non si osserva cadere dagli alberi, ma si calcola in miliardi di iterazioni al secondo tra atomi, proteine e molecole d’acqua in un microcosmo che solo le simulazioni di dinamica molecolare (MD) sanno raccontare. E se GROMACS è il narratore principe di questa storia quantistica, le GPU sono la sua orchestra sinfonica: una sinfonia di floating point, parallelismo estremo e dati compressi come un biscotto belga al burro. Ma non è un concerto per pochi: è la democratizzazione computazionale di un’arte una volta riservata solo ai grandi centri HPC, ora alla portata anche del più nerd dei postdoc, purché sappia dove cliccare su servizi di GPU Computing (GPU AS A SERVICE in ambito scientifico).

Salute Direzione Nord 25 Antonio Baldassarra, CEO Seeweb e CEO DHH

Quando ascolti Baldassarra parlare di intelligenza artificiale applicata alla diagnosi del cancro, non senti il solito sermone tecnologico da fiera dell’innovazione. C’è invece una lucidità chirurgica, quasi clinica, nel modo in cui mette a fuoco il vero potenziale di questi strumenti. “Non ci serve un oracolo. Ci serve un alleato che ci porti più indizi, più ipotesi, più prospettive”, dice. Ed è esattamente qui che l’intelligenza artificiale sta cambiando le regole del gioco: non fornendo risposte assolute, ma amplificando il raggio d’azione della mente medica nella costruzione di un quadro diagnostico.

Quando David batte Golia con un tokenizer: l’ascesa dei modelli linguistici italiani (che nessuno voleva vedere)

Ci siamo abituati a un mondo in cui l’intelligenza artificiale parla inglese, pensa inglese e viene valutata secondo criteri stabiliti, indovina un po’, da aziende americane. Fa curriculum: openAI, Google, Anthropic, Meta. Chi osa mettersi di traverso rischia di essere etichettato come “romantico”, “idealista” o, peggio ancora, “locale”. Ma ogni tanto succede che una scheggia impazzita scardini l’equilibrio dei giganti e costringa il sistema a sbattere le palpebre. È successo con Maestrale, un modello linguistico italiano open source, sviluppato da una piccola comunità di ricercatori guidati da passione, competenza e una sfacciata ostinazione.

Seeweb Italia e Regolo.AI la sostenibilità che pesa i watt consumati per ogni token prodotto

Quando si parla di intelligenza artificiale, il mantra “green” è diventato una parola abusata, una sorta di placebo per placare i sensi di colpa dei consumatori e dei manager. I giganti del settore sventolano certificazioni, rinnovabili e offset, ma nessuno osa mettere sul tavolo un dato che è la vera cartina tornasole dell’impatto ambientale: quanti watt vengono consumati per ogni token prodotto? È qui che Seeweb Italia con Regolo.AI fa la differenza, entrando in un territorio che fino a ieri era appannaggio esclusivo di pochi ingegneri ambientalisti e data scientist con velleità green. Non solo promette facilità nella creazione di applicazioni AI, data governance europea e sicurezza a prova di GDPR, ma porta sul mercato una metrica chiave: il monitoraggio del consumo energetico token per token. Un approccio che, più che parlare di sostenibilità, la rende finalmente misurabile e, quindi, gestibile.

La rivoluzione silenziosa che sta riscrivendo la medicina italiana senza aspettare il permesso di nessuno

A Palazzo Lombardia, nel consueto salotto istituzionale dove il potere si veste da moderazione e i microfoni amplificano solo ciò che è già stato autorizzato, è andata in scena una delle rare occasioni in cui l’intelligenza artificiale è stata nominata senza scivolare nella fiera delle ovvietà. Il 23 giugno scorso, durante l’evento Salute Direzione Nord promosso da Fondazione Stelline, davanti a nomi che definire altisonanti è ormai protocollo – la vicepresidente del Senato Licia Ronzulli, il presidente di Regione Attilio Fontana, il ministro della Salute Orazio Schillaci – il vero protagonista non aveva cravatta ma codice: l’AI nella sanità.

Diciamolo subito. Quando un’infrastruttura come Seeweb prende il microfono e parla di medicina, qualcuno alza il sopracciglio. Quando però il CEO Antonio Baldassarra comincia a parlare di diagnostica per immagini e tumore ovarico non con la solita cautela da convegno, ma come chi sa perfettamente cosa si può fare oggi, allora il sospetto si trasforma in attenzione. Perché è chiaro che non siamo più nel territorio delle ipotesi ma della realtà, quella concreta, fatta di pixel che salvano vite.

L’illusione regolatoria e la paralisi dell’innovazione: perché il Cloud AI Development Act rischia di fare più danni che bene

C’è una strana sindrome, tutta europea, che potremmo definire “burocrazia salvifica”. Una fede incrollabile nella capacità taumaturgica della regolamentazione di sistemare ciò che il mercato, la competizione, la libertà d’impresa e, diciamolo pure, il rischio non sono riusciti a far funzionare. E ogni volta che il mondo corre più veloce delle nostre istituzioni, ecco spuntare un nuovo acronimo, un’altra direttiva, l’ennesimo atto. Oggi tocca al Cloud AI Development Act, la nuova formula magica che dovrebbe trasformare l’Europa in una superpotenza digitale. O quantomeno farci sentire un po’ meno provinciali rispetto a USA e Cina.

L’Italia è pronta per un Cloud e AI Development Act?

In un panorama digitale in continua evoluzione, la regolamentazione dell’Intelligenza Artificiale (AI) e del cloud computing sta diventando un tema centrale. L’Europa si sta interrogando sulla necessità di un “Cloud AI Development Act”, e per esplorare a fondo la questione, è stato organizzato un webinar con alcuni dei maggiori esperti del settore.

Questo incontro organizzato da Seeweb (Antonio Baldassarra) e moderato da Dario Denni , nato da un confronto approfondito con il Professor Antonio Manganelli su ipotesi competitive nell’ambito dell’Agent AI, si propone di aprire ad una comprensione approfondita di un argomento che modellerà il futuro dell’economia e della società digitale.

Tra i relatori: Antonio Baldassarra, Antonio Manganelli, Innocenzo Genna, Renato Sicca, Maria Vittoria La Rosa, Luca Megale, Alberto Messina, Simone Cremonini, Vincenzo Ferraiuolo e Marco Benacchio.

Perché la Commissione ritiene che ci sia bisogno di intervenire. È un tema che sarà oggetto di dibattito, com’è giusto che sia.

RedCarbon: La Cybersecurity è morta, viva l’analista virtuale

Fondata nel 2020 da veterani del settore con oltre vent’anni di esperienza sulle spalle – e probabilmente qualche cicatrice lasciata da intrusioni, notti insonni e patch critiche alle 3 del mattino RedCarbon non si è accontentata di seguire il flusso dell’AI applicata alla sicurezza. Lo ha anticipato, lo ha cavalcato, e poi lo ha trasformato in un’onda d’urto capace di riscrivere le regole del gioco: il primo Virtual Cyber Analyst, un’entità algoritmica pensante che non dorme mai, non sbaglia, non ha bisogno di ferie, e soprattutto non si lamenta del caffè della macchinetta.

Seeweb Privacy e Potenza AI: il ritorno dell’infrastruttura sovrana nel regno serverless

C’è un errore concettuale che si continua a ripetere nel mondo dell’Intelligenza Artificiale, una specie di dogma non scritto: per avere prestazioni elevate, devi sacrificare il controllo. In altre parole: se vuoi GPU, devi affidarti mani e CPU alle big cloud d’oltreoceano, rinunciando a ogni pretesa di privacy-by-design. Ma cosa succede se ti dicessimo che è possibile avere entrambi? Se la scelta non fosse più tra potenza e proprietà, ma tra dipendenza e autonomia?

L’italia è pronta per un cloud e AI development act? Il paese delle nuvole cerca finalmente il suo cielo digitale

“Quando senti la parola ‘cloud’, guarda se piove.” Questa battuta, un po’ vecchia scuola ma mai fuori moda, descrive perfettamente la schizofrenia con cui l’Italia affronta il tema del digitale. Da un lato si moltiplicano convegni, task force e white paper che inneggiano all’Intelligenza Artificiale come alla nuova Rinascenza tecnologica italiana. Dall’altro, le PMI arrancano su server obsoleti, con una fibra che spesso è più ottica nei titoli dei bandi che nei cavi di rete. E allora, ci vuole davvero un Cloud e AI Development Act per traghettare il Bel Paese verso un futuro dove il digitale non sia più un miraggio ma una politica industriale concreta?

Il 2 febbraio 2025 segna un punto di svolta. L’entrata in vigore della prima fase dell’AI Act europeo segna un cambio di paradigma: chi sviluppa, distribuisce o adotta sistemi di intelligenza artificiale dovrà fare i conti non solo con algoritmi, ma anche con regolatori armati di sanzioni fino al 7% del fatturato globale. Niente male per un settore che si è mosso finora con l’agilità di un esperto in dark pattern più che con quella di un civil servant europeo.

Ambrogio Regolo AI e il sogno infranto della gestione documentale

Martedì 27 maggio abbiamo partecipato al convegno “Intelligenza Artificiale e Business Application”, organizzato da Soiel International a Roma.

Nel corso dell’evento, Paolino Madotto (CISA, CGEIT) ha presentato Ambrogio, l’assistente virtuale sviluppato da Intelligentiae – data enabling business. Quante volte vi siete trovati a cercare un documento, un file o un’informazione dentro una selva oscura di cartelle digitali, archivi confusionari, backup che sembrano ordinati solo agli occhi di chi li ha creati? Nel 2025, quando ormai dovremmo parlare di “smart working” e “digital first” come un dogma, le aziende continuano a perdere tempo e denaro inseguendo dati che sembrano evanescenti.

Ambrogio, l’AI made in Italy targata Intelligentiae, si propone come il deus ex machina di questa tragedia moderna, promettendo una rivoluzione nella gestione documentale aziendale che ha il sapore di una rinascita digitale.

Tradurre l’intelligenza: DeepSeek-R1 sfida GPT-4o sulle GPU MI300X di Seeweb

Siamo ormai nel pieno del barocco dell’intelligenza artificiale. Gli LLM (Large Language Models) sono diventati le nuove cattedrali digitali, costruite con miliardi di parametri e sorrette da GPU che sembrano più reattori nucleari che schede video. In questo panorama di potenze mostruose, dove i soliti noti (OpenAI, Google, Anthropic) dettano legge, si insinua un nome meno blasonato ma decisamente audace: DeepSeek-R1. Non solo open source, ma anche titanico 671 miliardi di parametri, per chi tiene il conto.

La provocazione è chiara: “possiamo competere con GPT-4o, Gemini e soci… e magari anche farlo girare nel vostro datacenter, se siete abbastanza matti da provarci”. Ma è davvero così? Ecco dove entra in scena Seeweb, con la sua Cloud GPU MI300X una vera bestia, con 8 GPU AMD MI300X e un terabyte e mezzo di VRAM a disposizione. E abbiamo deciso di scoprire se tutto questo è solo hype o se c’è ciccia sotto il cofano.

Aiip compie 30 anni e non li dimostra: visione, rete e un futuro tutto da cablare

Trent’anni e non sentirli: Aiip festeggia, l’Internet italiano resiste 🇮🇹

Oggi, nella sfarzosa Sala della Regina a Montecitorio dove di solito riecheggiano discorsi impolverati e cerimonie da Prima Repubblica è andata in scena una celebrazione che, in un Paese che ama seppellire l’innovazione sotto regolamenti arcaici, ha il sapore della piccola rivoluzione.

Trent’anni di Aiip. L’Associazione Italiana Internet Provider. Fondata quando i modem facevano rumore, i bit costavano caro e parlare di “concorrenza” nel settore telecom era un eufemismo. O una bestemmia. Eppure eccola lì, viva, vegeta, e paradossalmente più lucida di molti dei suoi (presunti) eredi digitali.

E no, non è la solita autocelebrazione da ente stanco. Perché Antonio Baldassarra che non si limita a esserci, ma ci mette del suo è salito sul palco con quella combinazione rara di competenza tecnica e provocazione lucida che solo chi ha il coraggio di dire la verità riesce a maneggiare.

“Il futuro non si prevede, si costruisce”, ha detto. Chi lavora con la rete lo sa: non si tratta solo di cavi e pacchetti IP, ma di visione. Di scegliere da che parte stare. E Aiip, in questi decenni, ha fatto una scelta netta: quella della libertà, della neutralità, della concorrenza vera.

L’inferenza invisibile che controlla il mondo

In un angolo buio delle architetture cloud, là dove le CPU sussurrano segreti e le GPU si trastullano con petabyte di dati, esiste un’entità di cui nessuno parla: l’inference provider. È l’anima silente dei servizi AI, la colonna sonora non registrata del grande spettacolo dell’intelligenza artificiale. Eppure, non troverete articoli in prima pagina, né conferenze che osino mettere sotto i riflettori questi demiurghi dell’inferenza.

Ha dell’assurdo: i modelli di inferenza stanno diventando la linfa vitale di ogni applicazione smart, dall’analisi predittiva al riconoscimento vocale. Eppure, restano in ombra, considerati “commodity” o “eri low level” da marketer in cerca di titoli roboanti. Come se parlare di inference provider fosse banalizzare l’AI, ridurla a una scatola nera senza fascino.

L’inferenza in Europa: tra sovranità digitale e rincorsa tecnologica AI

In un continente dove la burocrazia è più veloce della fibra ottica e l’innovazione spesso si arena tra commi e regolamenti, l’Europa tenta di ritagliarsi uno spazio nel panorama dell’intelligenza artificiale. Mentre Stati Uniti e Cina avanzano a passo spedito, il Vecchio Continente si barcamena tra ambizioni di sovranità digitale e una realtà fatta di frammentazione e ritardi.

Eppure, nonostante tutto, qualcosa si muove. Una nuova generazione di provider di inferenza AI sta emergendo, cercando di offrire soluzioni che rispettino le normative europee e, al contempo, competano con i colossi d’oltreoceano.

DHH e il warrant da record: quando il mercato ti spalanca le porte con otto volte la domanda

Quando il mercato ti dice “Sì, grazie, ne vogliamo di più”, non è mai solo fortuna. DHH S.p.A. ha appena passato un crocevia decisivo con la presentazione della domanda a Borsa Italiana per l’ammissione a quotazione del “Warrant DHH S.p.A. 2025-2028”, ma la notizia più succosa non è questa. Il vero scoop è che il collocamento del warrant ha fatto il botto: l’intera emissione di poco più di un milione di titoli è andata esaurita in un battito di ciglia, con richieste che hanno superato la soglia degli otto milioni.

Cloud made in Europe: sovranità, GDPR e il sogno norvegese che forse non c’è

Let’s be honest, the European cloud narrative is tired of playing second fiddle to AWS, Google Cloud e Microsoft Azure. La retorica dell’autonomia digitale europea è una litania da Bruxelles, ma finalmente, nel concreto, qualcosa si muove. E mentre gli americani si mangiano il 70% del mercato cloud europeo, qualcuno — in Europa — ha deciso che forse è ora di cambiare musica. Più che una rivoluzione, è un’inferenza: si chiama REGOLO:AI, e la parola d’ordine è cloud europeo.

Dietro al sipario dei big tech si agita un ecosistema in fermento, composto da provider nativi europei che mettono al centro sovranità dei dati, conformità GDPR e un pizzico di sostenibilità ambientale — non solo come marketing greenwashing, ma come parte dell’architettura stessa. Il punto? Il cloud è infrastruttura critica. Affidarlo a entità sotto giurisdizione USA è come lasciare le chiavi della cassaforte a un vicino affabile ma con precedenti per furto con scasso.

E allora: esiste un’alternativa europea? Sì. Anzi, esistono almeno 13 provider che dovresti già conoscere. Ma… aspetta. Prima la domanda cruciale.

La sostenibilità digitale non è un optional: è una strategia di potere

In un mondo dove la CO₂ vale più del petrolio, parlare di green computing non è più una favoletta per bambini cresciuti a TED Talk e Netflix. È geopolitica pura, è vantaggio competitivo, è sopravvivenza economica. E Seeweb lo ha capito — molto prima di tanti altri.

Dal 2005 questa azienda ha iniziato a monitorare le emissioni prodotte dai propri Data Center, ben prima che le multinazionali si facessero il lifting verde con paroloni vuoti e piani “net zero” spalmati su trent’anni. Loro, invece, hanno messo mano agli impianti, fatto scelte ingegneristiche solide, implementato tecnologie efficienti e stretto alleanze con fornitori capaci di pensare oltre il margine di profitto trimestrale. Il risultato? 233.502 chilogrammi di CO₂ eliminati dall’atmosfera in un solo anno. Non offsettati con piantine esotiche in Africa. Eliminati.

Cos’è un Inference Provider e perché è fondamentale nella AI?

Nel panorama sempre più complesso dell’intelligenza artificiale (IA), gli Inference Provider svolgono un ruolo fondamentale, fornendo l’infrastruttura necessaria per eseguire modelli di machine learning (ML) e deep learning (DL) in tempo reale, per le applicazioni che richiedono inferenze veloci e precise. Questi provider offrono un ambiente scalabile, sicuro e ottimizzato per il calcolo e la gestione dei modelli IA, permettendo alle aziende di integrare facilmente la potenza dei modelli addestrati senza doversi preoccupare della gestione delle risorse hardware o software sottostanti.

In pratica, un Inference Provider è un servizio che permette di inviare i dati a un modello pre-addestrato per generare previsioni o inferenze. Si distingue dall’addestramento vero e proprio dei modelli, che richiede una quantità significativa di risorse computazionali, ma è altrettanto critico per applicazioni che necessitano di decisioni rapide basate su dati nuovi, come nel caso di veicoli autonomi, assistenti virtuali, sistemi di raccomandazione, e molto altro.

AD Detection Scrittura, cervello e IA: come un tratto di penna può svelare l’Alzheimer prima dei sintomi

Scrivere sembra l’atto più banale del mondo. Prendi una penna, appoggi la punta su un foglio e lasci che la mano faccia il resto. Eppure, dietro quel gesto così quotidiano, si cela un balletto neuronale di impressionante complessità. La scrittura attiva simultaneamente lobi frontali, aree motorie, centri del linguaggio e processi cognitivi ad alta intensità. Se qualcosa si inceppa in quel sistema, la scrittura si deforma. E da lì, ecco che il cervello inizia a raccontare una storia che nemmeno sa di star scrivendo.

È proprio questa intuizione che ha dato vita a AD Detection, un progetto con l’ambizione (seria) di intercettare l’Alzheimer prima che si manifesti. A muovere i fili sono l’Università di Cassino e del Lazio Meridionale e Seeweb, provider infrastrutturale che con GPU serverless e Kubernetes ha deciso di prestare muscoli digitali al cervello umano.

Un po’ Black Mirror, un po’ medicina del futuro.

Kubernetes, GPU e Storage: l’epifania delle aziende che vogliono sopravvivere al futuro

Nel panorama schizofrenico dell’IT moderno, dove ogni giorno un CTO si sveglia e sa che dovrà correre più veloce del legacy per non restare indietro, l’adozione di Kubernetes è l’equivalente di una sveglia ben assestata. Ma attenzione, non è solo una moda o l’ennesimo feticcio tecnologico da esibire nelle slide del consiglio di amministrazione: è il substrato, la base, il concime tecnico per far crescere davvero un’infrastruttura agile, resiliente e pronta a flirtare con le tecnologie emergenti senza sudare troppo.

Kubernetes, come ben spiegato qui, non è solo orchestrazione, è strategia. È il linguaggio infrastrutturale con cui le aziende intelligenti oggi scrivono il loro futuro. Ed è proprio su questa architettura modulare e scalabile che è possibile costruire ambienti di calcolo dinamici, nei quali GPU, serverless e storage non sono più parole scollegate ma pezzi coerenti di un puzzle ad altissima complessità.

Regolo.ai, l’intelligenza artificiale che vuole liberarti a emissioni zero

Seeweb,Nel circo globale dell’intelligenza artificiale, dove le major tech americane si combattono a colpi di modelli chiusi, GPU affamate e NDA degne della CIA, ogni tanto spunta qualcuno che osa dire: “Ehi, e se facessimo le cose in modo aperto, sostenibile e soprattutto, europeo?”. Ecco, quel qualcuno si chiama Seeweb, e la risposta si chiama Regolo.ai.

Il 14 aprile 2025, senza troppa fanfara da palcoscenico ma con parecchia sostanza, Seeweb ha lanciato ufficialmente Regolo.ai: una piattaforma di inference AI pensata per sviluppatori veri, non per guru da keynote. Niente slogan vuoti, ma un’infrastruttura AI full-stack, pronta all’uso, basata su API leggere e modelli performanti. Il tutto cucinato in casa da un team che non ha bisogno di comprare hype a Wall Street, perché gioca in casa nel gruppo DHH, già quotato e ben radicato nell’ecosistema digitale europeo.

Qui non si parla di un altro “tool per la productivity” o di un “assistente AI personale” con nomi da astronave. Regolo.ai è una ferramenta digitale per sviluppatori: ti dà accesso a tutto il ciclo di vita del modello, dall’addestramento all’inferenza, senza dover perdere mesi a configurare GPU o a capire se il tuo provider americano ti sta leggendo i log.

L’illusione della neutralità: perché le IA pendono tutte a sinistra, Grok compreso

Nel disperato tentativo di sottrarsi a una tempesta mediatica, il deputato di La France Insoumise (LFI) Paul Vannier ha deciso di giocarsi la carta dell’Intelligenza Artificiale. La polemica è nata da un manifesto del partito in cui Cyril Hanouna, noto conduttore televisivo francese, veniva raffigurato in un modo che molti hanno ritenuto essere una caricatura antisemita. Quando le critiche sono esplose, Vannier ha provato a dare la colpa a Grok, l’IA generativa sviluppata da XAI, l’azienda di Elon Musk. Il ragionamento? Grok sarebbe intriso delle “idee nauseabonde” del suo creatore, e quindi responsabile del risultato finale.

Se non fosse grottesco, sarebbe quasi brillante: l’IA diventa una comoda scusa per l’irresponsabilità politica. Vannier non si ferma a dire che il suo partito ha fatto un errore, ma scarica la colpa direttamente su un software. Il sottotesto è chiaro: non è colpa di chi ha usato l’IA, né di chi ha pubblicato l’immagine, ma di Musk e del suo algoritmo. Insomma, una colpevolizzazione tecnologica che permette agli Insoumis di schivare l’accusa di antisemitismo.

Il problema? L’Intelligenza Artificiale non è un’entità autonoma con opinioni o pregiudizi propri. Non fa altro che generare output sulla base di input umani. Se l’algoritmo ha prodotto un’immagine problematica, è perché qualcuno gli ha chiesto qualcosa in un certo modo, e poi qualcun altro ha deciso di pubblicarla. Non è stato Musk a postarla sui social ufficiali di LFI, né tantomeno a validarne la diffusione.

Il futuro della governance dell’intelligenza artificiale: Private AI, AI Act e sostenibilità per un modello più sicuro nelle imprese

L’intelligenza artificiale è la grande rivoluzione tecnologica del nostro tempo, ma la sua governance resta un tema aperto e controverso. Durante l’evento organizzato da Seeweb ed EuropIA, l’esperto di affari istituzionali Dario Denni ha sottolineato come l’attenzione normativa dovrebbe essere posta più sui dati che sui sistemi. Un’affermazione che sembra quasi scontata, ma che in realtà tocca il cuore di uno dei problemi più rilevanti del momento: mentre sui dati personali esiste una solida normativa, come il GDPR, e una giurisprudenza consolidata, lo stesso non si può dire per i dati aziendali. Eppure, questi ultimi rappresentano un asset strategico fondamentale, spesso più prezioso di qualsiasi brevetto o proprietà industriale.

Le imprese che affidano i propri dati a sistemi globali di IA devono essere consapevoli di un rischio sottovalutato: la perdita del diritto di sfruttamento esclusivo. I dati, una volta elaborati da un modello IA, possono diventare parte del suo “know-how”, alimentando sistemi che potrebbero non solo imparare da essi, ma anche utilizzarli per generare output che avvantaggiano terze parti. Questo scenario crea un problema di governance enorme, che non può essere ignorato.

Stefano Quintarelli: Come Microsoft ha testato 100 prodotti di intelligenza artificiale generativa per scovarne le vulnerabilità

All’evento di Seeweb e Istituto EuropIA.it “Private AI”, Stefano Quintarelli Informatico, imprenditore seriale ed ex professore di sistemi informativi, servizi di rete e sicurezza, ha portato un esempio, tra i tanti, reti neurali, sistemi predittivi etc, che ho trovato interessante e vorrei condividere con i nostri lettori: “Lessons from red teaming 100 generative AI products Authored by: Microsoft AI Red Team”, che trovate in allegato.

Stefano Quintarelli, ha recentemente sollevato un punto cruciale riguardo alla sicurezza dell’intelligenza artificiale (IA), evidenziando una verità fondamentale che spesso viene sottovalutata. La sua affermazione che la sicurezza dell’IA non sarà mai “completata” è una riflessione profonda che tocca uno degli aspetti più critici nell’evoluzione della tecnologia. Con il costante avanzamento delle tecnologie, la protezione da minacce potenziali diventa un campo in continua espansione, mai definitivo. Questo concetto va oltre la semplice sicurezza dei sistemi: implica una continua adattabilità delle misure di protezione e una vigilanza costante rispetto alle vulnerabilità emergenti.

La Vespa dell’Intelligenza Artificiale: Nicola Grandis e il Modello Vitruvian, fare scala

Il 6 marzo a Milano si è parlato di Private AI in un evento in collaborazione con Seeweb e Istituto EuropIA con il keynote dell’esperto Nicola Grandis. Con la sua esperienza in ASC27, si occupa di Intelligenza Artificiale dal 2020, collaborando con numerose industrie italiane ed europee. Da novembre 2022, con l’avvento di ChatGPT, ha notato un fenomeno interessante: il modello suscitava sorpresa, ma anche perplessità. Questo perché ChatGPT è essenzialmente un prodotto consumer, non business, e non può essere scalato a dismisura con risorse energetiche come centrali nucleari da 5GW.

ASC27, partecipando a gruppi di ricerca internazionali, ha percepito l’arrivo di una nuova tendenza nell’IA: il post-training dei modelli. Questo è dovuto al raggiungimento di un plateau nei Large Language Model (LLM). ASC27 ha intercettato questa parabola, ma a differenza del modello Deepseek da 250B, ha scelto di concentrarsi su un modello più agile da 14B, Vitruvian, adatto alle esigenze dell’industria italiana ed europea.

Seeweb e mii-llm: l’influenza occulta dei bias: strategie politiche e sicurezza nell’era degli LLM

In un contesto globale in cui l’intelligenza artificiale si sta rapidamente affermando come motore di innovazione e trasformazione, Seeweb (CEO Antonio Baldassara) un Cloud Computing Provider italiano ha affidato a (Made in Italy LLM) mii-llm – un collettivo di ricerca italiano d’avanguardia composto da Alessandro Ercolani, Edoardo Federici, Samuele Colombo, Mattia Ferraretto – un compito di straordinaria rilevanza: verificare se e come sia possibile indirizzare l’orientamento politico dei modelli LLM, le “menti digitali” che alimentano chatbot e sistemi di assistenza virtuale.

La ricerca di mii-llm, pioniera nella realizzazione di modelli open source come Zefiro e Maestrale, ha evidenziato un fenomeno sconcertante: questi sistemi, anziché essere entità neutre e asettiche, possono essere facilmente indirizzati verso specifiche ideologie, sollevando interrogativi cruciali in termini di trasparenza, etica e sicurezza.

Private AI: la chiave per la sovranità digitale e la competitività delle aziende europee

L’intelligenza artificiale rappresenta ormai il cuore pulsante della trasformazione digitale globale, ma la sua evoluzione è dominata da un ristretto gruppo di player internazionali, prevalentemente statunitensi e cinesi.

Questo oligopolio dell’AI pone enormi sfide in termini di sicurezza, sovranità digitale e competitività per le aziende europee, che rischiano di diventare semplici consumatori di tecnologie sviluppate altrove, senza alcun controllo sui dati e sui modelli utilizzati.

L’Italia e la corsa ai Data Center: un’opportunità da 15 miliardi o un’occasione persa?

L’infrastruttura digitale è la nuova spina dorsale dell’economia globale e i data center rappresentano i pilastri su cui si basano servizi essenziali come cloud computing, intelligenza artificiale, e-commerce e comunicazioni digitali. L’Italia si trova di fronte a una sfida cruciale: riuscirà a diventare un hub strategico per i data center o rimarrà ai margini rispetto alle nazioni europee più avanzate?

Data center verdi e PA: perché Seeweb può salvare le gare pubbliche dal medioevo digitale

Nel 2025, se sei una Pubblica Amministrazione e stai ancora cercando “spazio server” come se fossi in un episodio del 2006, sei fuori tempo massimo. Ma c’è una buona notizia: la digitalizzazione della PA può finalmente fare il salto di qualità, grazie a un’accoppiata che fino a poco fa sembrava utopica — infrastruttura sostenibile e procurement intelligente. E in questo gioco, operatori come Seeweb non sono solo “fornitori”, ma abilitatori sistemici.

Seeweb e AMD MI300X: l’Europa entra nell’era del GPU cloud computing avanzato

Il GPU cloud computing sta vivendo una trasformazione epocale grazie all’introduzione dei chip AMD Instinct MI300X, progettati per potenziare sia l’addestramento sia l’inferenza dei modelli di intelligenza artificiale. Questa innovazione rappresenta un passo avanti significativo nell’elaborazione dei dati ad alte prestazioni, offrendo maggiore efficienza e scalabilità per un’ampia gamma di applicazioni, dall’imaging medicale al rendering 3D, fino alle simulazioni scientifiche e all’analisi predittiva.

L’impatto di questi chip non si limita solo al miglioramento delle performance. La loro architettura avanzata e l’integrazione con lo stack software open source ROCm stanno ridefinendo le modalità di sviluppo e distribuzione dei modelli di intelligenza artificiale, rendendo più accessibili soluzioni avanzate senza le tradizionali limitazioni imposte dalle architetture proprietarie.

Seeweb e la rivoluzione silenziosa dei data center ESG in Italia

Nel 2025, secondo il Global Data Center Energy Market Report, i consumi energetici dei data center globali hanno superato i 1.200 TWh, più dell’intera produzione annua di elettricità della Francia. Non male per delle scatole piene di server che, teoricamente, “non si vedono”. E se la traiettoria di crescita dell’intelligenza artificiale continuerà anche solo la metà di quanto previsto, potremmo arrivare al 10% entro il 2030.

Eppure, mentre i colossi tech rincorrono nuove soluzioni di raffreddamento quantistico, immersioni in olio dielettrico e turbine a idrogeno, in Italia c’è chi ha scelto un’altra via: rendere i data center sostenibili dentro il contesto locale, non malgrado esso.

Nel mezzo della giungla energetica e digitale europea, tra blackout annunciati e piani nazionali sulla transizione verde più teorici che operativi, c’è un’anomalia tutta italiana che merita attenzione. Si chiama Seeweb, e sta facendo una cosa che in pochi si aspettano da un’infrastruttura IT: sta rendendo sostenibile, credibile e persino strategica la presenza dei data center sul territorio nazionale.

Cheshire Cat (Stregatto): Un’Architettura AI Open-Source Rivoluzionaria per il Futuro dei Modelli Linguistici, powered by Seeweb

Negli ultimi anni, l’avanzamento rapido dell’intelligenza artificiale (AI) ha portato alla creazione di modelli linguistici sofisticati, integrabili in una varietà di applicazioni. Tuttavia, le limitazioni di questi modelli, sia per la loro natura chiusa, la scarsa adattabilità o l’incapacità di evolversi con le necessità, hanno reso necessario l’ideazione di soluzioni innovative. Ecco che entra in scena Cheshire Cat, con il supporto di Seeweb, un’architettura AI open-source, personalizzabile, pensata per affrontare queste problematiche e fornire uno strato estensibile sopra qualsiasi modello linguistico.

Contrasto ai Deep Fake: Seeweb e CINI uniti nel Progetto Solaris per un futuro digitale sicuro

Nel contesto sempre più complesso della disinformazione digitale, Seeweb si unisce al Consorzio Interuniversitario Nazionale per l’Informatica (CINI) nel progetto SOLARIS, un’iniziativa innovativa volta a combattere i deep fake e ad educare i cittadini europei su come riconoscerli.

Pagina 1 di 2

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie