Nel corso del 2024 in Italia sono stati registrati 1.927 attacchi informatici, il 18% in più rispetto all’anno precedente anche se, quelli andati a buon fine, 467 in totale, sono diminuiti del 10% rispetto al 2023 e del 63% rispetto al 2022. Sono i dati, contenuti nel ‘Threat intelligence report’ pubblicato dall’osservatorio cybersecurity di Exprivia, che evidenziano inoltre che gli hacker sono andati a segno il 24% delle volte (contro il 31% dell’anno precedente) e che nel 30% degli attacchi portati a termine e quindi riusciti è stata utilizzata l’intelligenza artificiale.
Categoria: Sicurezza Pagina 1 di 3
Cybersecurity, Data Protection, Difesa, Aerospazio, Settori Strategici e Analisi Predittiva

Notizie dagli USA.
La recente nomina di Scale AI come primo valutatore terzo autorizzato dall’Istituto per la Sicurezza dell’Intelligenza Artificiale degli Stati Uniti (AISI) rappresenta un passo significativo verso una maggiore sicurezza e affidabilità nello sviluppo dei modelli di intelligenza artificiale.
Questa collaborazione mira a sviluppare metodi avanzati per testare i modelli di frontiera dell’IA, includendo valutazioni congiunte tra l’AISI e il Safety, Evaluation, and Alignment Lab (SEAL) di Scale AI. Attraverso questi metodi, i costruttori di modelli di diverse dimensioni potranno accedere volontariamente a nuove forme di test affidabili, con la possibilità di condividere i risultati con una rete globale di istituti di sicurezza dell’IA.
Questa partnership non solo rafforza la posizione di Scale AI nel panorama dell’IA, ma suggerisce anche una visione ottimistica per il futuro dell’AISI. È improbabile che Scale AI avrebbe intrapreso questo accordo se ci fossero stati dubbi sulla stabilità o sulla continuazione dell’istituto, indipendentemente dalle dinamiche politiche attuali o future.

Recentemente, i giganti tecnologici Apple e Google hanno rimosso fino a 20 app dai loro store dopo che gli esperti di sicurezza di Kaspersky hanno scoperto che queste applicazioni contenevano malware. Questo malware, noto come SparkCat, è in grado di rubare frasi di recupero dei portafogli di criptovalute utilizzando tecniche avanzate come il riconoscimento ottico (OCR).

Nel settore aerospaziale, la velocità e l’efficienza nello sviluppo di nuove tecnologie sono fattori chiave per la competitività. La collaborazione tra Altair e Meridian Flight Systems segna un passo avanti nell’integrazione dell’Intelligenza Artificiale e della simulazione avanzata per accelerare l’innovazione nel settore degli UAV (Unmanned Aerial Vehicle), i velivoli senza pilota.

Lo vediamo dalle pubblicità on line e in televisione. L’argomento della sicurezza è presente in ogni istante della nostra vita. Vediamo come l’AI al servizio della sicurezza riesce a creare nuovi strumenti per tenerci sempre meglio al sicuro rispetto al passato.
E siamo solo all’inizio!

Nel panorama tecnologico odierno, i giganti americani come Amazon, Alphabet (la società madre di Google), Microsoft e Meta stanno pianificando di investire oltre 300 miliardi di dollari in infrastrutture per l’intelligenza artificiale nel 2025. Questo rappresenta un aumento significativo rispetto ai 230 miliardi spesi l’anno precedente, evidenziando l’importanza strategica attribuita all’AI da queste aziende.
Amazon prevede di guidare questa ondata di investimenti con una spesa di 100 miliardi di dollari, focalizzandosi principalmente su Amazon Web Services (AWS), la sua divisione cloud. Il CEO Andy Jassy ha sottolineato che l’IA rappresenta un’opportunità tecnologica storica, paragonabile all’avvento di Internet, e ha evidenziato la necessità di garantire una potenza di calcolo sufficiente per lo sviluppo e l’operatività dei modelli AI.

Recentemente, è emerso uno scandalo in Italia riguardante l’uso di Graphite per spiare giornalisti e attivisti. Meta, la società madre di WhatsApp, ha scoperto che il software veniva installato attraverso messaggi o chiamate su WhatsApp, permettendo di rubare informazioni senza che l’utente dovesse cliccare su alcun link. In Italia, almeno sette persone sono state colpite, tra cui Francesco Cancellato, direttore del quotidiano digitale Fanpage, e Luca Casarini, attivista della ONG Mediterranea. Il governo italiano ha negato qualsiasi coinvolgimento, ma Paragon ha sospeso il suo contratto con l’Italia a causa di violazioni del “quadro etico” dell’accordo.
WhatsApp ha denunciato una campagna di cyberspionaggio che ha coinvolto circa 90 giornalisti e attivisti in una ventina di paesi, realizzata utilizzando spyware dell’azienda israeliana Paragon Solutions. La campagna, interrotta nel dicembre 2024, prevedeva l’invio di file PDF dannosi per accedere illegalmente ai dati personali degli utenti. WhatsApp ha notificato le vittime e ha esortato Paragon a cessare le sue attività, non escludendo azioni legali.

E chi l’avrebbe mai detto? L’intelligenza artificiale, quella meravigliosa creatura di Big Tech nata per rendere il mondo un posto migliore, sta finendo nelle mani sbagliate. Stando a quanto riportato da Bleeping Computer, il Threat Intelligence Group (GTIG) di Google ha fatto una scoperta che ha dell’incredibile (o forse no?): gruppi di cybercriminali sponsorizzati dai governi stanno usando Gemini per pianificare i loro attacchi con una precisione chirurgica. E non parliamo di ragazzini annoiati nel seminterrato, ma di squadre di hacker professionisti che puntano dritti alle infrastrutture critiche e ad altri obiettivi di alto valore. In pratica, invece di essere solo uno strumento di produttività, l’AI si sta rivelando un prezioso alleato per chi vuole seminare il caos.

Il 2024 ha segnato un anno straordinario per la ricerca sulla sicurezza informatica, con un livello di innovazione senza precedenti. Dall’hijacking di OAuth ai nuovi exploit nei web server Apache, queste scoperte non solo ridefiniscono le minacce esistenti, ma introducono anche nuove classi di attacchi che i professionisti della sicurezza dovranno affrontare nei prossimi anni.

Le aziende che sviluppano intelligenza artificiale vendono al pubblico l’illusione di un progresso tecnologico etico e responsabile, mentre in realtà cercano disperatamente di tappare falle che loro stesse hanno creato. OpenAI, Google e compagnia si affannano a mettere paletti per impedire agli utenti di sfruttare le loro AI per scopi “sbagliati”: niente istruzioni su armi, niente contenuti politicamente scorretti, niente risposte troppo scomode. In teoria, dovrebbero garantire un uso sicuro dei loro modelli, ma nella pratica stanno solo giocando a una partita infinita di guardie e ladri con utenti sempre più creativi nel bypassare le restrizioni.
Dalla nascita delle prime AI generative, gli sviluppatori hanno cercato di arginare gli exploit, ma ogni barriera che alzano dura il tempo di un aggiornamento prima che qualcuno trovi un nuovo modo per aggirarla. È un teatrino dove i ruoli sono chiari: le aziende fanno finta di avere il controllo, gli utenti fanno finta di non poterlo scavalcare, e alla fine entrambi sanno che la censura perfetta non esiste.

L’idea di condividere la propria vita online è diventata una norma per molti, ma non senza rischi. Un caso recente in Francia, riportato da Euronews, dimostra quanto le app progettate per scopi personali o per intrattenimento possano rivelarsi pericolose. Rendere pubblico il tracciamento online, magari tramite l’uso del GPS durante le corse di allenameno, oltre ad essere una auto violazione della propria privacy online, può diventare uno strumento molto forte da dare in mano a malintenzionati.

DeepSeek, dichiara di aver sviluppato il suo modello con un budget di soli 5 milioni di dollari, ha sovvertito il paradigma tradizionale dell’IA, basato su enormi risorse computazionali. Mentre aziende occidentali come OpenAI spendono miliardi di dollari in infrastrutture, DeepSeek sembra aver dimostrato che è possibile ottenere risultati comparabili con un approccio più efficiente e innovativo. Tuttavia, questa straordinaria efficienza tecnica è ora sotto esame, non solo per la sua innovatività, ma anche per le implicazioni geopolitiche e di sicurezza che comporta.

In un’epoca in cui l’Intelligenza Artificiale sta ridefinendo il modo di operare delle aziende, Cisco ha presentato AI Defense, una soluzione innovativa destinata a diventare il punto di riferimento globale per la sicurezza dell’AI. Annunciata nel corso di una sessione esclusiva ospitata da The Rundown AI, una newsletter quotidiana dedicata ai progressi dell’AI, Jeetu Patel, Executive Vice President e Chief Product Officer di Cisco, hanno illustrato come questa innovazione affronti le sfide critiche nella protezione dei sistemi di AI.

Le minacce informatiche che sfruttano l’Intelligenza Artificiale sono in aumento, trasformando il panorama della sicurezza digitale. Tra i nuovi attori emergenti spicca FunkSec, un gruppo di hacker che ha rivoluzionato le dinamiche dell’hacking combinando l’uso di AI avanzata e strategie di propaganda digitale. Il gruppo è stato identificato da Check Point Research, una delle principali agenzie globali di sicurezza informatica.
Recentemente, OpenAI ha interrotto l’accesso a un proprio sviluppatore che aveva integrato l’API in tempo reale di ChatGPT in un sistema di torretta controllabile tramite comandi vocali. Questo intervento è avvenuto in conformità con le politiche di OpenAI, che vietano l’utilizzo delle loro tecnologie per scopi legati alle armi.
Il sistema sviluppato era in grado di eseguire comandi vocali come “gira a sinistra” o “rispondi di conseguenza” con notevole precisione, dimostrando la facilità con cui i modelli linguistici possono essere integrati in sistemi potenzialmente letali. Questo episodio evidenzia le crescenti preoccupazioni riguardo al ruolo dell’intelligenza artificiale nell’automazione delle tecnologie militari, similmente ai droni autonomi capaci di individuare e colpire obiettivi senza intervento umano. I critici avvertono che ciò potrebbe offuscare la responsabilità in caso di crimini di guerra e normalizzare l’uso di armi autonome.

La compagnia spagnola di telecomunicazioni Telefonica ha subito un cyberattacco al suo sistema di ticketing interno, mediante il quale sarebbero stati sottratti 2,3 giga di dati che, secondo quanto hanno dichiarato fonti della compagnia dall’agenzia Europa Press, non riguarderebbero i suoi clienti.

Ecco, lo sapevamo che sarebbe successo. L’era in cui l’intelligenza artificiale (AI) non è più solo uno strumento per auto a guida autonoma, trading algoritmico o meme generati automaticamente ha preso una piega inquietante. Gli attacchi recenti a Las Vegas e New Orleans hanno mostrato quanto sia facile per menti malintenzionate sfruttare la tecnologia avanzata.
Vediamo di fare chiarezza, perché forse è il momento di riflettere sulle conseguenze involontarie del nostro splendido futuro digitale.

Nessun settore dell’IT necessita di aggiornamenti costanti ed immediati quanto la sicurezza informatica. Essere pronti a mitigare gli attacchi non basta, è necessario poterli prevenire e, in un periodo in cui le minacce digitali stanno prendendo sempre più piede nei settori più svariati, l’apporto dell’AI nella cybersecurity diventa essenziale.

Nonostante ci troviamo ancora nel cuore delle festività, la riflessione sui cambiamenti geopolitici, sulle implicazioni morali e sull’uso delle nuove tecnologie è inevitabile. Il mondo della politica internazionale, infatti, non si ferma mai, nemmeno quando le luci natalizie brillano nelle piazze. I recenti sviluppi legati all’intelligenza artificiale nell’ambito delle operazioni militari, in particolare con le Forze di Difesa Israeliane (IDF), rappresentano una delle questioni più complesse e urgenti da analizzare, sia dal punto di vista tecnologico che geopolitico.
Il caso di Gaza è emblematico di come l’integrazione di tecnologie avanzate possa ridefinire i confini dell’etica e della legalità nelle operazioni militari. Le decisioni legate all’uso dell’IA in guerra sollevano interrogativi che non possono essere ignorati, perché toccano aspetti fondamentali della sicurezza, dei diritti umani e delle responsabilità internazionali.
In un mondo sempre più interconnesso e tecnologicamente avanzato, come è giusto che si evolva la nostra percezione della guerra? Cosa implica l’adozione di tecnologie come il machine learning e l’automazione per la responsabilità politica e per la legittimità degli attacchi? E come si conciliano le esigenze di sicurezza con la tutela dei diritti umani in contesti di conflitto sempre più complessi e dinamici?
Anche se la pausa festiva ci offre un’opportunità di riflessione, i temi di sicurezza globale e geopolitica sono questioni che richiedono un’attenzione immediata. Mentre il mondo si riprende dalle festività, è importante tenere presente come gli sviluppi tecnologici influenzano il nostro futuro comune, e come nazioni, alleanze e gruppi più piccoli possano muoversi in un panorama sempre più digitalizzato.
L’intelligenza artificiale (AI) ha portato una trasformazione radicale non solo nell’ambito delle operazioni belliche, ma anche nel ruolo geopolitico delle forze armate di molte nazioni. In particolare, l’adozione dell’AI da parte dell’IDF (Israel Defense Forces) non solo ha ridefinito le modalità operative sul campo, ma ha avuto un impatto significativo sulla posizione strategica e diplomatica di Israele nel contesto internazionale. Esaminando il caso israeliano, possiamo notare come l’adozione della tecnologia avvenga in un momento cruciale della sua storia, in cui le sfide geopolitiche, le minacce regionali e le alleanze globali si intersecano con la crescente capacità L’IDF.

Amburgo promette di diventare un punto di riferimento nelle soluzioni di mobilità intelligente integrando sistemi di AI nei suoi sistemi di trasporto pubblico per garantire la sicurezza dei passeggeri. Le aziende di trasporto della città, Hochbahn e S-Bahn, stanno infatti combinando la supervisione umana – il personale addetto alla sicurezza verrà significativamente incrementato – con una tecnologia AI all’avanguardia per creare un ambiente di viaggio più sicuro.

Il danneggiamento dei cavi sottomarini di collegamento tra Finlandia ed Estonia, avvenuto nelle ultime ore e attribuito alla petroliera “Eagle S” sospettata di far parte della flotta fantasma russa, rappresenta un inquietante esempio di guerra ibrida e sabotaggio delle infrastrutture critiche occidentali. Si tratta di un episodio da non sottovalutare in quanto si inserisce all’interno di un contesto più ampio di escalation geopolitica e di attacchi mirati alle infrastrutture vitali, che stanno trasformando il modo in cui i Paesi sono chiamati a ripensare la propria sicurezza e la difesa degli interessi nazionali.

La Diplomazia Predittiva: Uno Scudo Contro l’Instabilità
Nella complessità crescente delle relazioni internazionali, la piattaforma Deeplomacy, sviluppata dal Lab dell’Università degli Studi di Torino, emerge come un faro di innovazione. La sua missione è ambiziosa: trasformare l’incertezza in azioni mirate attraverso l’uso di intelligenza artificiale e machine learning. Con l’aumento del 12% dei conflitti globali rispetto al 2022 e del 40% rispetto al 2020, è evidente che i tradizionali approcci alla diplomazia e alla gestione delle crisi necessitano di una rivoluzione.

Un decennio fa, Peter Thiel dichiarava con fermezza che “la competizione è per perdenti”, sostenendo l’investimento in startup capaci di monopolizzare i loro mercati attraverso prodotti ineguagliabili. Tuttavia, la sua visione si sta evolvendo. Oggi, gran parte dei finanziamenti del Founders Fund di Thiel è concentrata in aziende che forniscono tecnologie avanzate, servizi e armi al governo degli Stati Uniti.

Nel contesto delle crescenti tensioni tra Stati Uniti e Cina, che hanno già portato a ban commerciali reciproci, emerge ora la questione di TP-Link, una delle società di modem-router più famose al mondo. Le autorità americane starebbero infatti considerando un possibile divieto per i router prodotti dall’azienda cinese, che attualmente detiene il 65% del mercato statunitense di abitazioni e piccole imprese. Il motivo? Le crescenti preoccupazioni legate alla sicurezza nazionale e ai presunti collegamenti di TP-Link con il governo cinese.

Fincantieri e Sparkle hanno siglato un memorandum d’intesa per sviluppare soluzioni tecnologiche innovative per la sorveglianza e la protezione dei cavi di telecomunicazione sottomarini. L’accordo si inquadra nell’ambito di una visione strategica per lo sviluppo tecnologico e la competitività dell’Italia a livello internazionale.

L’Intelligenza Artificiale e l’AI generativa stanno ridefinendo rapidamente il panorama della sicurezza informatica, offrendo al contempo nuove opportunità di difesa e introducendo complesse minacce. Un recente report del Capgemini Research Institute, intitolato “New defenses, new threats: what AI and Gen AI bring to cybersecurity“, ha analizzato 1.000 aziende, rivelando come queste tecnologie siano diventate cruciali nelle strategie di sicurezza di due terzi delle organizzazioni.

Oggi entra in vigore la legge sulla cyber resilienza, un atto legislativo fondamentale. Si tratta di un importante passo avanti negli sforzi dell’UE volti a proteggere i suoi cittadini e le sue imprese dalle minacce informatiche.

Le norme dell’UE in materia di cybersicurezza introdotte nel 2016 sono state aggiornate dalla Direttiva UE 2022/2555, meglio conosciuta come “Direttiva NIS2” e recepita in Italia tramite il Decreto Legislativo 138/2024, “Decreto NIS”. La direttiva ha voluto modernizzare il quadro giuridico esistente per tenere il passo con una maggiore digitalizzazione e un panorama in evoluzione delle minacce alla cybersicurezza: estendendo l’ambito di applicazione delle norme in materia di cybersecutity a nuovi settori e entità, migliora ulteriormente la resilienza e le capacità di risposta agli incidenti degli enti pubblici e privati, delle autorità competenti e dell’Ue nel suo complesso.

In quella che potrebbe tranquillamente essere la sceneggiatura di un episodio di Black Mirror (se la serie mai decidesse di scambiare la distopia per una strana commedia d’azione), la polizia cinese ha lanciato l’ultima innovazione in fatto di tecnologia autonoma per combattere il crimine: e no, non si tratta di un robot snodato, minaccioso, con occhi elettronici e movimenti agili. No, si tratta di una palla da bowling. Beh, quasi.

Uno studio ha scoperto che gli attuali modelli linguistici di intelligenza artificiale e gli strumenti biologici non pongono rischi immediati per la biosicurezza, ma che sono necessarie ricerche più rigorose sulle potenziali minacce future. Parallelamente Air Street Press ha sostenuto che, nonostante esistano rischi per la biosicurezza dell’intelligenza artificiale, concentrarsi principalmente sugli LLM piuttosto che su strumenti di bioprogettazione più specializzati potrebbe essere un errore.

l’AI red teaming. La parola d’ordine dell’industria, capace di evocare visioni di eroi cibernetici che irrompono nel castello dell’intelligenza artificiale come cavalieri digitali alla ricerca della gloria della sicurezza. Affascinante, vero? Ma ammettiamolo: dietro al dramma dell’“AI red teaming” si nasconde una bestia molto familiare – il solito processo di testing che l’industria del software sta affrontando da decenni. Nel caso te ne fossi dimenticato, la valutazione dell’AI è solo un altro episodio della saga senza fine di “vediamo se questo software si rompe prima di farci ammazzare tutti.” È come se stessimo guardando una replica, ma questa volta abbiamo sostituito i cattivi con algoritmi e le esplosioni con decisioni “intelligenti” andate storte. (vedi articolo su CISA) don’t reinvent the wheel

Sens. Elizabeth Warren, D-Mass., and Eric Schmitt, R-Mo
Nel cuore della crescente preoccupazione globale per il dominio delle grandi aziende tecnologiche, due senatori statunitensi, Elizabeth Warren (D-Massachusetts) e Eric Schmitt (R-Missouri), si stanno unendo per fare una mossa audace che potrebbe riequilibrare il panorama competitivo nella difesa e nella tecnologia. Con la proposta del Protecting AI and Cloud Competition in Defense Act, i due legislatori cercano di smantellare l’influenza spropositata che giganti come Google, Amazon e Microsoft esercitano sui contratti del Pentagono, in particolare quelli legati all’intelligenza artificiale (AI) e al cloud computing.

Il 2025 si prospetta come un anno critico per le imprese globali, caratterizzato da un significativo aumento dei cyberattacchi volti a interrompere le operazioni aziendali. Sono queste le non rosee previsioni della Unit42, la divisione di esperti di sicurezza informatica di Palo Alto Networks, che ha definito quello che sta per iniziare come “Anno delle Interruzioni delle Attività”, che promette di mettere alla prova la resilienza delle infrastrutture tecnologiche e la prontezza delle difese informatiche.

L’azienda tedesca Helsing, specializzata in software per la difesa basato su Intelligenza Artificiale, ha annunciato l’avvio della produzione di massa del drone da combattimento HX-2, progettato per resistere alla guerra elettronica e alle misure di disturbo grazie alla tecnologia AI integrata.

OpenAI, il gigante dell’intelligenza artificiale noto per la creazione di ChatGPT, ha annunciato una partnership strategica con Anduril Industries, un’azienda leader nella tecnologia per la difesa, con l’obiettivo di sviluppare e implementare soluzioni avanzate di intelligenza artificiale per missioni di sicurezza nazionale. Questa mossa segna il primo passo significativo di OpenAI nel settore della difesa, un ambito altamente strategico e tecnologicamente complesso.

L’industria marittima, pilastro del commercio globale, è alle prese con sfide complesse legate alla sicurezza, all’efficienza operativa e alla sostenibilità ambientale. La crescente complessità delle operazioni e l’aumento delle minacce sofisticate richiedono soluzioni innovative. In questo contesto, l’Intelligenza Artificiale si configura come una risposta trasformativa, rivoluzionando la sorveglianza marittima e rafforzando la resilienza del settore.

Predictive Diplomacy: A Shield Against Instability
As international relations grow increasingly complex, Deeplomacy, a platform developed by 2i3T at the University of Turin, stands out as a beacon of innovation. Its ambitious mission: transforming uncertainty into targeted actions through artificial intelligence and machine learning. With a 12% increase in global conflicts compared to 2022 and a staggering 40% rise since 2020, it’s clear that traditional approaches to diplomacy and crisis management require a revolutionary upgrade.

Boom degli attacchi cyber con i deepfake. A livello globale, nel 2024, più del 10% delle aziende si è trovata ad affrontare tentativi di frode, riusciti o meno, tramite falsi realizzati con l’Intelligenza Artificiale.Secondo i dati, contenuti nel ‘Risk Report 2024’ di Tinexta Cyber (Gruppo Tinexta), tra i Paesi maggiormente colpiti in generale dagli attacchi informatici ci sono gli Stati Uniti (1.176),sebbene in lieve calo rispetto all’ultimo semestre 2023 (-3,6%). Per quanto riguarda l’Italia, è stata osservata una diminuzione delle vittime (- 14,8%) ma nel nostro Paese grazie ai ransomware sono stati compromessi oltre 15mila gigabyte di dati, di cui 12,6 mila pubblicati nei primi sei mesi dell’anno.

L’Intelligenza Artificiale è un’arma formidabile arma che può incrementare il numero e la qualità degli attacchi cibernetici, ma allo stesso tempo può essere adeguatamente sfruttata anche per difendersi in modo altrettanto efficace ed efficiente da attacchi cibernetici. E il pensiero di Bruno Frattasi, direttore generale dell’Agenzia per la cybersicurezza nazionale in audizione alla Commissione parlamentare per la semplificazione nell’ambito dell’indagine conoscitiva in materia di semplificazione e digitalizzazione delle procedure amministrative nei rapporti tra cittadino e pubblica amministrazione.