Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: seeweb

L’illusione della neutralità: perché le IA pendono tutte a sinistra, Grok compreso

Nel disperato tentativo di sottrarsi a una tempesta mediatica, il deputato di La France Insoumise (LFI) Paul Vannier ha deciso di giocarsi la carta dell’Intelligenza Artificiale. La polemica è nata da un manifesto del partito in cui Cyril Hanouna, noto conduttore televisivo francese, veniva raffigurato in un modo che molti hanno ritenuto essere una caricatura antisemita. Quando le critiche sono esplose, Vannier ha provato a dare la colpa a Grok, l’IA generativa sviluppata da XAI, l’azienda di Elon Musk. Il ragionamento? Grok sarebbe intriso delle “idee nauseabonde” del suo creatore, e quindi responsabile del risultato finale.

Se non fosse grottesco, sarebbe quasi brillante: l’IA diventa una comoda scusa per l’irresponsabilità politica. Vannier non si ferma a dire che il suo partito ha fatto un errore, ma scarica la colpa direttamente su un software. Il sottotesto è chiaro: non è colpa di chi ha usato l’IA, né di chi ha pubblicato l’immagine, ma di Musk e del suo algoritmo. Insomma, una colpevolizzazione tecnologica che permette agli Insoumis di schivare l’accusa di antisemitismo.

Il problema? L’Intelligenza Artificiale non è un’entità autonoma con opinioni o pregiudizi propri. Non fa altro che generare output sulla base di input umani. Se l’algoritmo ha prodotto un’immagine problematica, è perché qualcuno gli ha chiesto qualcosa in un certo modo, e poi qualcun altro ha deciso di pubblicarla. Non è stato Musk a postarla sui social ufficiali di LFI, né tantomeno a validarne la diffusione.

Il futuro della governance dell’intelligenza artificiale: Private AI, AI Act e sostenibilità per un modello più sicuro nelle imprese

L’intelligenza artificiale è la grande rivoluzione tecnologica del nostro tempo, ma la sua governance resta un tema aperto e controverso. Durante l’evento organizzato da Seeweb ed EuropIA, l’esperto di affari istituzionali Dario Denni ha sottolineato come l’attenzione normativa dovrebbe essere posta più sui dati che sui sistemi. Un’affermazione che sembra quasi scontata, ma che in realtà tocca il cuore di uno dei problemi più rilevanti del momento: mentre sui dati personali esiste una solida normativa, come il GDPR, e una giurisprudenza consolidata, lo stesso non si può dire per i dati aziendali. Eppure, questi ultimi rappresentano un asset strategico fondamentale, spesso più prezioso di qualsiasi brevetto o proprietà industriale.

Le imprese che affidano i propri dati a sistemi globali di IA devono essere consapevoli di un rischio sottovalutato: la perdita del diritto di sfruttamento esclusivo. I dati, una volta elaborati da un modello IA, possono diventare parte del suo “know-how”, alimentando sistemi che potrebbero non solo imparare da essi, ma anche utilizzarli per generare output che avvantaggiano terze parti. Questo scenario crea un problema di governance enorme, che non può essere ignorato.

Stefano Quintarelli: Come Microsoft ha testato 100 prodotti di intelligenza artificiale generativa per scovarne le vulnerabilità

All’evento di Seeweb e Istituto EuropIA.it “Private AI”, Stefano Quintarelli Informatico, imprenditore seriale ed ex professore di sistemi informativi, servizi di rete e sicurezza, ha portato un esempio, tra i tanti, reti neurali, sistemi predittivi etc, che ho trovato interessante e vorrei condividere con i nostri lettori: “Lessons from red teaming 100 generative AI products Authored by: Microsoft AI Red Team”, che trovate in allegato.

Stefano Quintarelli, ha recentemente sollevato un punto cruciale riguardo alla sicurezza dell’intelligenza artificiale (IA), evidenziando una verità fondamentale che spesso viene sottovalutata. La sua affermazione che la sicurezza dell’IA non sarà mai “completata” è una riflessione profonda che tocca uno degli aspetti più critici nell’evoluzione della tecnologia. Con il costante avanzamento delle tecnologie, la protezione da minacce potenziali diventa un campo in continua espansione, mai definitivo. Questo concetto va oltre la semplice sicurezza dei sistemi: implica una continua adattabilità delle misure di protezione e una vigilanza costante rispetto alle vulnerabilità emergenti.

La Vespa dell’Intelligenza Artificiale: Nicola Grandis e il Modello Vitruvian, fare scala

Il 6 marzo a Milano si è parlato di Private AI in un evento in collaborazione con Seeweb e Istituto EuropIA con il keynote dell’esperto Nicola Grandis. Con la sua esperienza in ASC27, si occupa di Intelligenza Artificiale dal 2020, collaborando con numerose industrie italiane ed europee. Da novembre 2022, con l’avvento di ChatGPT, ha notato un fenomeno interessante: il modello suscitava sorpresa, ma anche perplessità. Questo perché ChatGPT è essenzialmente un prodotto consumer, non business, e non può essere scalato a dismisura con risorse energetiche come centrali nucleari da 5GW.

ASC27, partecipando a gruppi di ricerca internazionali, ha percepito l’arrivo di una nuova tendenza nell’IA: il post-training dei modelli. Questo è dovuto al raggiungimento di un plateau nei Large Language Model (LLM). ASC27 ha intercettato questa parabola, ma a differenza del modello Deepseek da 250B, ha scelto di concentrarsi su un modello più agile da 14B, Vitruvian, adatto alle esigenze dell’industria italiana ed europea.

Seeweb e mii-llm: l’influenza occulta dei bias: strategie politiche e sicurezza nell’era degli LLM

In un contesto globale in cui l’intelligenza artificiale si sta rapidamente affermando come motore di innovazione e trasformazione, Seeweb (CEO Antonio Baldassara) un Cloud Computing Provider italiano ha affidato a (Made in Italy LLM) mii-llm – un collettivo di ricerca italiano d’avanguardia composto da Alessandro Ercolani, Edoardo Federici, Samuele Colombo, Mattia Ferraretto – un compito di straordinaria rilevanza: verificare se e come sia possibile indirizzare l’orientamento politico dei modelli LLM, le “menti digitali” che alimentano chatbot e sistemi di assistenza virtuale.

La ricerca di mii-llm, pioniera nella realizzazione di modelli open source come Zefiro e Maestrale, ha evidenziato un fenomeno sconcertante: questi sistemi, anziché essere entità neutre e asettiche, possono essere facilmente indirizzati verso specifiche ideologie, sollevando interrogativi cruciali in termini di trasparenza, etica e sicurezza.

Private AI: la chiave per la sovranità digitale e la competitività delle aziende europee

L’intelligenza artificiale rappresenta ormai il cuore pulsante della trasformazione digitale globale, ma la sua evoluzione è dominata da un ristretto gruppo di player internazionali, prevalentemente statunitensi e cinesi.

Questo oligopolio dell’AI pone enormi sfide in termini di sicurezza, sovranità digitale e competitività per le aziende europee, che rischiano di diventare semplici consumatori di tecnologie sviluppate altrove, senza alcun controllo sui dati e sui modelli utilizzati.

L’Italia e la corsa ai Data Center: un’opportunità da 15 miliardi o un’occasione persa?

L’infrastruttura digitale è la nuova spina dorsale dell’economia globale e i data center rappresentano i pilastri su cui si basano servizi essenziali come cloud computing, intelligenza artificiale, e-commerce e comunicazioni digitali. L’Italia si trova di fronte a una sfida cruciale: riuscirà a diventare un hub strategico per i data center o rimarrà ai margini rispetto alle nazioni europee più avanzate?

Seeweb e AMD MI300X: l’Europa entra nell’era del GPU cloud computing avanzato

Il GPU cloud computing sta vivendo una trasformazione epocale grazie all’introduzione dei chip AMD Instinct MI300X, progettati per potenziare sia l’addestramento sia l’inferenza dei modelli di intelligenza artificiale. Questa innovazione rappresenta un passo avanti significativo nell’elaborazione dei dati ad alte prestazioni, offrendo maggiore efficienza e scalabilità per un’ampia gamma di applicazioni, dall’imaging medicale al rendering 3D, fino alle simulazioni scientifiche e all’analisi predittiva.

L’impatto di questi chip non si limita solo al miglioramento delle performance. La loro architettura avanzata e l’integrazione con lo stack software open source ROCm stanno ridefinendo le modalità di sviluppo e distribuzione dei modelli di intelligenza artificiale, rendendo più accessibili soluzioni avanzate senza le tradizionali limitazioni imposte dalle architetture proprietarie.

Cheshire Cat (Stregatto): Un’Architettura AI Open-Source Rivoluzionaria per il Futuro dei Modelli Linguistici, powered by Seeweb

Negli ultimi anni, l’avanzamento rapido dell’intelligenza artificiale (AI) ha portato alla creazione di modelli linguistici sofisticati, integrabili in una varietà di applicazioni. Tuttavia, le limitazioni di questi modelli, sia per la loro natura chiusa, la scarsa adattabilità o l’incapacità di evolversi con le necessità, hanno reso necessario l’ideazione di soluzioni innovative. Ecco che entra in scena Cheshire Cat, con il supporto di Seeweb, un’architettura AI open-source, personalizzabile, pensata per affrontare queste problematiche e fornire uno strato estensibile sopra qualsiasi modello linguistico.

Contrasto ai Deep Fake: Seeweb e CINI uniti nel Progetto Solaris per un futuro digitale sicuro

Nel contesto sempre più complesso della disinformazione digitale, Seeweb si unisce al Consorzio Interuniversitario Nazionale per l’Informatica (CINI) nel progetto SOLARIS, un’iniziativa innovativa volta a combattere i deep fake e ad educare i cittadini europei su come riconoscerli.

Seeweb sostiene il CECAM per sviluppare nuovi amminoacidi con l’Intelligenza Artificiale

I nostri Cloud Server GPU per il supercalcolo accelerano i progressi in un campo cruciale della ricerca scientifica

Antonio Baldassarra CEO Seeweb

Seeweb, un’azienda italiana specializzata in networking, cloud computing e storage, sta sostenendo il workshop “Peptides in Biology and Materials: Bridging Simulation and Experimental Data”, organizzato dal Centre Européen de Calcul Atomique et Moléculaire (CECAM).

L’economia dei dati nell’intelligenza artificiale

A valle della partcipazione di Rivista.AI al convegno “L’economia dei dati nell’Intelligenza Artificiale” il 16 Aprile Seeweb ha pubblicato un interessante white paper “L’economia dei dati nell’intelligenza artificiale – Una guida per combattere le diseguaglianze industriali contro ogni esternalità economica e sociale” presenta una serie di misure da intraprendere per trasformare l’intelligenza artificiale in una concreta opportunità di sviluppo dell’ecosistema italiano-europeo.

L’analisi del documento evidenzia come l’Italia e l’UE stiano lavorando per creare un quadro normativo armonizzato e proporzionato per l’intelligenza artificiale, con l’obiettivo di promuovere lo sviluppo di tecnologie innovative e di garantire la sicurezza e l’etica nell’utilizzo di queste tecnologie.

Intelligenza Artificiale in Italia: regolamentazione, competitività e investimenti pubblici

Analizzare quali i risultati abbia raggiunto in Italia l’Intelligenza Artificiale e tracciare gli sviluppi futuri del settore promuovendo un confronto tra tutti gli stakeholder. È questo l’obiettivo del convegno “L’economia dei dati nell’Intelligenza Artificiale” organizzato oggi da Seeweb, durante il quale si sono alternati interventi di relatori istituzionali, del mondo della ricerca, dell’università e dell’imprenditoria.

Durante l’evento è stato presentato uno studio condotto da Seeweb sugli impatti economici dell’Intelligenza Artificiale nel nostro Paese e si sono discusse le strategie migliori per incentivare modelli italiani di Intelligenza Artificiale. L’obiettivo, assicurare il progresso tecnologico e la sostenibilità del nostro ecosistema al fine di raggiungere l’indipendenza tecnologica e garantire una governance etica al settore.

Il paper sottolinea la necessità di adottare misure di alto valore sistemico per promuovere lo sviluppo dell’Intelligenza Artificiale in Italia, riducendo al minimo gli impatti sul lavoro e potenziando le competenze nel paese. Le misure chiave identificate includono:

  1. La regolamentazione dell’accesso e del controllo dei dati utilizzati per l’addestramento dei sistemi di Intelligenza Artificiale;
  2. La prevenzione delle distorsioni e delle concentrazioni di mercato da parte delle piattaforme dominanti extraeuropee;
  3. Il sostegno alle aziende italiane attive nella filiera dell’Intelligenza Artificiale.

Sebbene queste misure da sole potrebbero non risolvere tutte le problematiche sollevate nel paper, sono considerate un punto di partenza fondamentale per progredire nella giusta direzione verso un mercato competitivo, aperto e sicuro per l’Intelligenza Artificiale in Italia.

L’Intelligenza Artificiale ci accompagnerà per molto tempo al di là dell’hype del momento” ha spiegato Antonio Baldassarra, Ceo di Seeweb, che sottolinea poi come “sembra abbastanza chiaro oggi come si possa utilizzare IA per rendere più efficiente il lavoro, non abbiamo però altrettanto chiaro come sia possibile creare un’industria nazionale che possa avere un ruolo di attore. Il ruolo dell’industria del Paese non può essere solo quello di mettere a terra cose fatte da altri; è legittimo e vogliamo che esista ma dobbiamo anche pensare a una nostra capacità produttiva nell’ambito dell’Intelligenza Artificiale”.

Nel corso della discussione, i relatori hanno affrontato una serie di tematiche cruciali riguardanti i rischi e le opportunità derivanti dall’uso dell’Intelligenza Artificiale e dalla loro integrazione nella società. Il Ceo di Seeweb, Antonio Baldassarra, su questo punto, ha evidenziato le sfide legate alla mancanza di comprensione e alla sottovalutazione degli impatti delle tecnologie emergenti.

Tra i relatori dell’evento, Massimo Chiriatti, Chief Technology e Innovation Officer di Lenovo, ha ribadito l’importanza di non cedere alla paura e all’esagerazione mediatica riguardo alle tecnologie, sottolineando i benefici che queste hanno portato storicamente all’umanità, dall’aumento dell’aspettativa di vita all’innalzamento dei livelli di benessere, evidenziando il ruolo fondamentale delle tecnologie nell’automatizzare attività pericolose e faticose, consentendo così un progresso civile.

Tuttavia, si e’anche invitato alla prudenza nel delegare alle macchine compiti umani, riconoscendo che la sostituzione completa dell’uomo non è auspicabile.

Nel panel finale si è anche posto l’accento sul futuro desiderabile per la società, auspicando che il Paese Italia diventi non solo attrattivo e produttivo, ma anche un luogo in cui l’innovazione e il rispetto siano alla base dello sviluppo.

Citando esperienze passate come quelle delle Baby Bells inegli Stati Uniti nel settore delle telecomunicazioni si è voluto evidenziare l’importanza di non ostacolare l’innovazione tramite monopolizzazioni, ma piuttosto di promuovere un uso consapevole delle tecnologie e un’industria nazionale forte e competitiva.

Infine, sono state sollevate questioni cruciali riguardanti gli investimenti pubblici nelle tecnologie emergenti. Su questo punto si è evidenziato come, nonostante l’importanza strategica di tali investimenti, una parte significativa dei finanziamenti pubblici a livello europeo venga indirizzata verso soggetti esterni all’Europa, alimentando quindi un circolo vizioso di dipendenza tecnologica.

A tale proposito si è auspicata una maggiore attenzione da parte delle istituzioni verso politiche di commesse pubbliche mirate a promuovere l’innovazione e lo sviluppo industriale all’interno del continente, con l’obiettivo di garantire una maggiore sovranità tecnologica e economica.

In conclusione dell’evento, i relatori hanno sottolineato la necessità di un approccio equilibrato e consapevole nei confronti delle tecnologie emergenti, affinché queste possano contribuire al progresso sociale ed economico senza compromettere la dignità e il benessere dell’umanità.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Intelligenza Artificiale e la sfida del “brain drain” in Italia. L’opinione di Baldassarra, Ceo di Seeweb

L’Italia, pur avendo un discreto numero di startup e di imprese specializzate in Intelligenza Artificiale, che generano, secondo l’Osservatorio Artificial Intelligence del Politecnico di Milano, un giro d’affari di circa 760 milioni di euro di fatturato nel 2023 e una solida rete di istituzioni accademiche che formano i talenti necessari, si trova ad affrontare la sfida del “brain drain” a causa della mancanza di misure sistemiche per promuovere le competenze nazionali nel settore. E’ questo in sintesi il quadro delineato da Antonio Baldassarra, CEO di Seeweb – un’azienda italiana impegnata nel fornire infrastrutture per l’Intelligenza Artificiale – durante la sua testimonianza davanti alla Commissione Lavoro della Camera dei Deputati nell’ambito dell’Indagine Conoscitiva sull’Intelligenza Artificiale.

Il “brain drain“, letteralmente “drenaggio di cervelli”, è un fenomeno che si verifica quando un Paese perde i suoi talenti migliori e più qualificati, spesso a causa di migliori opportunità di lavoro o di studio all’estero. Un esodo, quello delle risorse umane altamente qualificate, che può causare una significativa perdita di competenze e conoscenze nel paese di origine, riducendo le capacità di innovazione e lo sviluppo economico a lungo termine.

Baldassarra ha evidenziato come spesso, nel dibattito pubblico, si concentri l’attenzione solo sugli aspetti negativi dell’Intelligenza Artificiale, come le questioni legate alla privacy, alla cybersecurity e alla concorrenza, trascurando il valore delle aziende italiane attive nella filiera dell’AI, come i fornitori di servizi cloud. Le istituzioni e la pubblica amministrazione che già utilizzano questa tecnologia e ne faranno un uso sempre più ampio in futuro, possono rappresentare da questo punto di vista un’enorme volano di crescita per le imprese italiane, se la transizione digitale viene gestita saggiamente.

Attualmente, la forza lavoro specializzata nell’AI e nelle materie STEM formata nelle Università italiane finisce spesso per essere attratta dalle cosidette Big Tech, le aziende tecnologiche globali più note. Per invertire questa tendenza, Baldassarra suggerisce di sostenere le industrie locali anche attraverso la commessa pubblica di servizi digitali, in modo da ampliare le competenze in Italia, rendendo il Paese più attrattivo per gli investitori e i lavoratori della conoscenza, e generando ricadute positive sull’occupazione.

Tuttavia, affinché ciò avvenga, è necessario lavorare su due fronti. Da un lato è fondamentale un cambio di approccio da parte delle Università, che attualmente formano i talenti per lavorare principalmente su sistemi proprietari sviluppati dalle grandi aziende tecnologiche internazionali, tralasciando magari altre realtà.

Dall’altro, è altrettanto importante che la crescita delle imprese italiane venga sostenuta attraverso programmi di public procurement mirati, che accelerino la produzione locale di soluzioni innovative per l’erogazione dei servizi pubblici. Come già fatto da altri Paesi europei, conclude Baldassara, “anche l’Italia può introdurre misure selettive per garantire alle PMI dell’innovazione attive nell’Intelligenza Artificiale di poter ricevere adeguate porzioni di incentivi per continuare a crescere grazie all’importante volano costituito dalla commessa pubblica”, senza tralasciare il peso della burocrazia che spesso penalizza le aziende più piccole rispetto ai grandi player globali.

Occorrerebbe, aggiungiamo noi, l’adozione (urgente) di una politica industriale che miri allo sviluppo delle imprese italiane con l’obiettivo di ridurre il divario dell’Italia con gli altri Paesi europei e gli Stati Uniti.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie