Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: Chiara

L’illusione della neutralità: perché le IA pendono tutte a sinistra, Grok compreso

Nel disperato tentativo di sottrarsi a una tempesta mediatica, il deputato di La France Insoumise (LFI) Paul Vannier ha deciso di giocarsi la carta dell’Intelligenza Artificiale. La polemica è nata da un manifesto del partito in cui Cyril Hanouna, noto conduttore televisivo francese, veniva raffigurato in un modo che molti hanno ritenuto essere una caricatura antisemita. Quando le critiche sono esplose, Vannier ha provato a dare la colpa a Grok, l’IA generativa sviluppata da XAI, l’azienda di Elon Musk. Il ragionamento? Grok sarebbe intriso delle “idee nauseabonde” del suo creatore, e quindi responsabile del risultato finale.

Se non fosse grottesco, sarebbe quasi brillante: l’IA diventa una comoda scusa per l’irresponsabilità politica. Vannier non si ferma a dire che il suo partito ha fatto un errore, ma scarica la colpa direttamente su un software. Il sottotesto è chiaro: non è colpa di chi ha usato l’IA, né di chi ha pubblicato l’immagine, ma di Musk e del suo algoritmo. Insomma, una colpevolizzazione tecnologica che permette agli Insoumis di schivare l’accusa di antisemitismo.

Il problema? L’Intelligenza Artificiale non è un’entità autonoma con opinioni o pregiudizi propri. Non fa altro che generare output sulla base di input umani. Se l’algoritmo ha prodotto un’immagine problematica, è perché qualcuno gli ha chiesto qualcosa in un certo modo, e poi qualcun altro ha deciso di pubblicarla. Non è stato Musk a postarla sui social ufficiali di LFI, né tantomeno a validarne la diffusione.

Il futuro della governance dell’intelligenza artificiale: Private AI, AI Act e sostenibilità per un modello più sicuro nelle imprese

L’intelligenza artificiale è la grande rivoluzione tecnologica del nostro tempo, ma la sua governance resta un tema aperto e controverso. Durante l’evento organizzato da Seeweb ed EuropIA, l’esperto di affari istituzionali Dario Denni ha sottolineato come l’attenzione normativa dovrebbe essere posta più sui dati che sui sistemi. Un’affermazione che sembra quasi scontata, ma che in realtà tocca il cuore di uno dei problemi più rilevanti del momento: mentre sui dati personali esiste una solida normativa, come il GDPR, e una giurisprudenza consolidata, lo stesso non si può dire per i dati aziendali. Eppure, questi ultimi rappresentano un asset strategico fondamentale, spesso più prezioso di qualsiasi brevetto o proprietà industriale.

Le imprese che affidano i propri dati a sistemi globali di IA devono essere consapevoli di un rischio sottovalutato: la perdita del diritto di sfruttamento esclusivo. I dati, una volta elaborati da un modello IA, possono diventare parte del suo “know-how”, alimentando sistemi che potrebbero non solo imparare da essi, ma anche utilizzarli per generare output che avvantaggiano terze parti. Questo scenario crea un problema di governance enorme, che non può essere ignorato.

Stefano Quintarelli: Come Microsoft ha testato 100 prodotti di intelligenza artificiale generativa per scovarne le vulnerabilità

All’evento di Seeweb e Istituto EuropIA.it “Private AI”, Stefano Quintarelli Informatico, imprenditore seriale ed ex professore di sistemi informativi, servizi di rete e sicurezza, ha portato un esempio, tra i tanti, reti neurali, sistemi predittivi etc, che ho trovato interessante e vorrei condividere con i nostri lettori: “Lessons from red teaming 100 generative AI products Authored by: Microsoft AI Red Team”, che trovate in allegato.

Stefano Quintarelli, ha recentemente sollevato un punto cruciale riguardo alla sicurezza dell’intelligenza artificiale (IA), evidenziando una verità fondamentale che spesso viene sottovalutata. La sua affermazione che la sicurezza dell’IA non sarà mai “completata” è una riflessione profonda che tocca uno degli aspetti più critici nell’evoluzione della tecnologia. Con il costante avanzamento delle tecnologie, la protezione da minacce potenziali diventa un campo in continua espansione, mai definitivo. Questo concetto va oltre la semplice sicurezza dei sistemi: implica una continua adattabilità delle misure di protezione e una vigilanza costante rispetto alle vulnerabilità emergenti.

La Vespa dell’Intelligenza Artificiale: Nicola Grandis e il Modello Vitruvian, fare scala

Il 6 marzo a Milano si è parlato di Private AI in un evento in collaborazione con Seeweb e Istituto EuropIA con il keynote dell’esperto Nicola Grandis. Con la sua esperienza in ASC27, si occupa di Intelligenza Artificiale dal 2020, collaborando con numerose industrie italiane ed europee. Da novembre 2022, con l’avvento di ChatGPT, ha notato un fenomeno interessante: il modello suscitava sorpresa, ma anche perplessità. Questo perché ChatGPT è essenzialmente un prodotto consumer, non business, e non può essere scalato a dismisura con risorse energetiche come centrali nucleari da 5GW.

ASC27, partecipando a gruppi di ricerca internazionali, ha percepito l’arrivo di una nuova tendenza nell’IA: il post-training dei modelli. Questo è dovuto al raggiungimento di un plateau nei Large Language Model (LLM). ASC27 ha intercettato questa parabola, ma a differenza del modello Deepseek da 250B, ha scelto di concentrarsi su un modello più agile da 14B, Vitruvian, adatto alle esigenze dell’industria italiana ed europea.

Seeweb e mii-llm: l’influenza occulta dei bias: strategie politiche e sicurezza nell’era degli LLM

In un contesto globale in cui l’intelligenza artificiale si sta rapidamente affermando come motore di innovazione e trasformazione, Seeweb (CEO Antonio Baldassara) un Cloud Computing Provider italiano ha affidato a (Made in Italy LLM) mii-llm – un collettivo di ricerca italiano d’avanguardia composto da Alessandro Ercolani, Edoardo Federici, Samuele Colombo, Mattia Ferraretto – un compito di straordinaria rilevanza: verificare se e come sia possibile indirizzare l’orientamento politico dei modelli LLM, le “menti digitali” che alimentano chatbot e sistemi di assistenza virtuale.

La ricerca di mii-llm, pioniera nella realizzazione di modelli open source come Zefiro e Maestrale, ha evidenziato un fenomeno sconcertante: questi sistemi, anziché essere entità neutre e asettiche, possono essere facilmente indirizzati verso specifiche ideologie, sollevando interrogativi cruciali in termini di trasparenza, etica e sicurezza.

AI Cloud: la corsa all’infrastruttura perfetta per l’intelligenza artificiale CLASTIX

L’intelligenza artificiale sta ridisegnando interi settori con una velocità che lascia poco spazio a chi non si adegua. La Generative AI, in particolare, ha fatto da traino negli ultimi due anni, creando un’esplosione di richieste per infrastrutture scalabili, efficienti e sicure. Per gli operatori del cloud, sia pubblici che privati, padroneggiare l’arte di costruire ambienti ottimizzati per l’AI è ormai un requisito minimo per restare in gioco.

Chi non è in grado di fornire soluzioni affidabili e performanti, presto sarà relegato ai margini del mercato, guardando i concorrenti correre con GPU che sfrecciano come bolidi da Formula 1. Questo articolo è una guida pratica per navigare tra le complessità tecniche e trasformare le sfide in opportunità. Perché, che piaccia o no, il cloud AI è il nuovo campo di battaglia.

Rivoluzione Digitale a Costo Zero: Come l’Italia può utilizzare le risorse Europee per potenziare le aziende IT locali

Nel contesto economico attuale, l’Europa è chiamata ad affrontare sfide enormi, tra cui il crescente debito pubblico che, in particolare per l’Italia, ha superato i 3.000 miliardi di euro. Questo rapporto debito/PIL, che ha raggiunto il 136,8%, rappresenta sia un segno tangibile delle difficoltà finanziarie del paese, sia una spinta per cercare soluzioni innovative che possano risollevare l’economia e, allo stesso tempo, risolvere problematiche strutturali. Una via che sta emergendo come fondamentale è l’investimento strategico in tecnologie innovative, soprattutto nel settore IT, un campo in cui l’Italia e l’Europa hanno il potenziale per eccellere, stimolando la crescita economica, l’occupazione e riducendo al contempo la dipendenza da attori esterni, come gli Stati Uniti.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie