Recentemente, diversi sviluppi chiave nel campo dell’intelligenza artificiale (IA) e della sicurezza nucleare hanno attirato l’attenzione globale. Gli Stati Uniti e il Regno Unito sono al centro di iniziative volte a proteggere i sistemi critici da possibili minacce provenienti dall’uso dell’IA, mentre si aprono nuove discussioni internazionali riguardo alle politiche di test e cooperazione tra paesi. Il Dipartimento dell’Energia degli Stati Uniti, il NIST e l’Istituto Britannico per la Sicurezza dell’Intelligenza Artificiale sono tra i principali attori in questo scenario in evoluzione.
Categoria: Sicurezza Pagina 1 di 2
Cybersecurity, Data Protection, Difesa, Aerospazio, Settori Strategici e Analisi Predittiva
La crescente competizione tra potenze globali, in particolare l’Occidente e la Cina, ha posto l’intelligenza artificiale (IA) al centro di una battaglia tecnologica che potrebbe determinare il futuro dell’economia globale e della sicurezza internazionale.
Questa settimana BSA | L’alleanza del software ha chiesto Trump e JD Vance di affrontare le leggi che potrebbero “bloccare l’uso dell’intelligenza artificiale“. Ha anche chiesto “una legge nazionale per obbligare chi sviluppa e usa l’AI ad alto rischio a gestire i rischi e fare valutazioni d’impatto“.
Parallelamente alcuni analisti hanno dichiarato che “Sconfiggere la Cina” non implica necessariamente compromettere la sicurezza, ma anzi potrebbe rappresentare un’opportunità per accelerare l’innovazione, come sottolineato dal fatto che i test di sicurezza siano relativamente economici rispetto ai costi di formazione.
Nel recente aggiornamento di iOS 18.1, Apple ha introdotto una funzione di riavvio automatico nascosto che ha destato non poca curiosità e attenzione. Questa novità, implementata in modo discreto, mira a rafforzare la sicurezza del sistema operativo, intervenendo automaticamente nel caso in cui venga rilevata un’anomalia, una potenziale minaccia di sicurezza o un comportamento sospetto che potrebbe compromettere l’integrità del dispositivo.
L’intelligenza artificiale sta rapidamente evolvendo, e con essa emerge anche una nuova e complessa frontiera: la sicurezza. Due recenti sviluppi hanno messo in evidenza la necessità di riflessioni più approfondite sulla protezione dei modelli AI, dimostrando che anche le intelligenze più avanzate non sono immuni da vulnerabilità.
Il Pentagono ha recentemente assegnato il suo primo contratto di difesa basato sull’intelligenza artificiale generativa (GenAI) a Jericho Security, una startup innovativa nel campo della cybersecurity. Questo contratto segna un passo significativo nell’integrazione delle tecnologie avanzate nella strategia di difesa degli Stati Uniti, evidenziando l’importanza crescente dell’AI generativa nella protezione delle infrastrutture critiche e nella prevenzione delle minacce informatiche.
La discussione sulla governance dell’intelligenza artificiale negli Stati Uniti è stata recentemente intensificata, con un focus particolare sull’ordine esecutivo (EO) emesso sotto l’amministrazione Biden e le sue implicazioni per enti chiave come il National Institute of Standards and Technology (NIST) e l’AI Safety Institute (AISI). In una riflessione precedente, avevo sottolineato che gran parte di questa governance si fonda sull’EO, incluso l’AISI, ma alcuni lettori hanno prontamente fatto notare che l’AISI non è effettivamente menzionato nell’EO. Questo spunto di riflessione merita una correzione e una comprensione più approfondita, specialmente alla luce di alcune nuove informazioni emerse recentemente.
L’Italia sta puntando in modo deciso sull’intelligenza artificiale (IA) come pilastro della sicurezza nazionale. In questo contesto, il ministro della Difesa Guido Crosetto ha delineato una strategia volta a integrare tecnologie ibride avanzate nel settore della cybersecurity. Questo approccio prevede la combinazione di IA, cloud computing e infrastrutture digitali spaziali, mirando a proteggere le infrastrutture critiche e a rispondere a minacce sempre più sofisticate. Tale strategia punta a rendere l’Italia resiliente e capace di difendersi da attacchi informatici che spaziano da attori statali a gruppi criminali e terroristici, spesso intenzionati a destabilizzare il paese attraverso il cyberspazio.
REUTERS: Il panorama tecnologico globale sta affrontando un nuovo dibattito sull’equilibrio tra protezione dei dati e opportunità di investimento, come dimostrato dalla recente proposta di legge in Vietnam che cerca di inasprire le regole sulla protezione dei dati e limitare i trasferimenti di dati all’estero. Un gruppo commerciale che rappresenta le aziende tecnologiche statunitensi ha avvertito il governo vietnamita che tali normative potrebbero ostacolare la crescita delle aziende di social media e degli operatori di data center nel paese.
Vietnam si è affermato come uno dei mercati più grandi per Facebook, di proprietà di Meta Platforms, e altre piattaforme online. Il paese ha anche l’intenzione di espandere la propria industria dei data center attraverso investimenti esteri nei prossimi anni. Tuttavia, la proposta di legge attualmente in discussione potrebbe cambiare drasticamente il panorama dell’industria tech.
Le minacce catastrofiche ed esistenziali rappresentano un pericolo concreto per la civiltà umana, poiché pongono in gioco la sopravvivenza e il benessere a lungo termine dell’umanità. È con questa consapevolezza che il Congresso degli Stati Uniti ha approvato nel 2022 il Global Catastrophic Risk Management Act, una legge che delega al Dipartimento di Sicurezza Interna e alla Federal Emergency Management Agency (FEMA) il compito di coordinare un’analisi globale delle minacce catastrofiche e dei rischi correlati. Per realizzare questo obiettivo, la Direzione per la Scienza e la Tecnologia del Dipartimento di Sicurezza Interna, insieme a FEMA, ha richiesto il supporto del Homeland Security Operational Analysis Center. I risultati emersi da questa analisi rappresentano un importante passo avanti nella comprensione e nella gestione di rischi che potrebbero influire profondamente sull’umanità.
Anthropic, uno dei protagonisti più attivi nel campo dell’Intelligenza Artificiale (IA), ha recentemente sollecitato i governi di tutto il mondo ad adottare misure rapide e incisive per regolamentare i rischi potenzialmente catastrofici legati all’avanzamento dell’IA. Secondo l’azienda, il tempo per un’azione preventiva si sta rapidamente esaurendo, e ogni ritardo potrebbe compromettere seriamente la capacità dei governi di prevenire potenziali crisi legate a questa tecnologia.
L’azienda sottolinea che il ritmo dello sviluppo dell’IA è tale da giustificare questa urgenza. Circa un anno fa, Anthropic aveva avvisato che i modelli di IA di frontiera avrebbero potuto presentare rischi significativi nel campo della sicurezza informatica e delle minacce chimiche, biologiche, radiologiche e nucleari (CBRN) entro un periodo di 2-3 anni. Oggi, l’azienda avverte che siamo già molto più vicini a quel tipo di rischi di quanto si pensasse inizialmente.
A settembre, il tenente generale He Lei, ex vicedirettore dell’Accademia delle scienze militari (AMS), ha esortato le Nazioni Unite a stabilire restrizioni sull’uso dell’intelligenza artificiale (IA) in contesti bellici. Tuttavia, questo appello sembra nascondere un intento più profondo: la Repubblica Popolare Cinese (RPC) non sta cercando di limitare i rischi associati all’IA militare, ma piuttosto sta accelerando l’integrazione della tecnologia IA nelle proprie forze armate. La RPC sta attivamente sfruttando le tecnologie occidentali, come il modello open source Llama di Meta, per potenziare le proprie capacità militari e i vantaggi strategici.
L’atteso decreto in materia di cybersicurezza slitta, improvvisamente, alla seconda metà di novembre. Il provvedimento, così come previsto, affiderebbe la competenza investigativa sulla criminalità informatica alla Procura nazionale antimafia – che dipende dal Ministero della Giustizia – limitando, di fatto, le competenze dell’Agenzia per la cybersicurezza nazionale – che dipende invece dalla Presidenza del Consiglio. Formalmente il rinvio sarebbe dovuto alla necessità di “aggiustamenti” e di coinvolgere il Quirinale sul tema, anche se i più maliziosi voluto leggere, dietro alla vicenda, un possibile segnale di conflitto tra Carlo Nordio e Alfredo Mantovano sui poteri e le competenze dei rispettivi Ministeri, tant’è che, contrario all’attuale formulazione del decreto, sarebbe anche Bruno Frattasi, attuale direttore dell’ACN, l’Agenzia per la Cybersicurezza Nazionale.
OpenAI ha appena pubblicato una scheda tecnica di 33 pagine dedicata al modello GPT-4o, svelando dettagli significativi su capacità, sicurezza e ambiti di utilizzo che lo collocano tra le innovazioni più avanzate nel campo dell’intelligenza artificiale. Questo aggiornamento va ben oltre le funzionalità delle versioni precedenti e offre uno spaccato delle nuove potenzialità del modello, inclusa una simulazione quasi perfetta della rapidità e fluidità della conversazione umana, con un tempo di risposta di appena 320 millisecondi.
L’amministrazione Biden ha recentemente rilasciato un memorandum sulla sicurezza nazionale, strutturato per affrontare i rischi emergenti nell’uso dell’intelligenza artificiale (IA) da parte delle agenzie federali e delle aziende private. Questo memorandum si fonda su un ordine esecutivo emesso nell’ottobre 2023, e mira a creare una collaborazione più stretta tra il governo e il settore privato, enfatizzando la necessità di prevenire l’uso dell’IA per scopi pericolosi, tra cui lo sviluppo di armi di distruzione di massa o attacchi autonomi.
Possiamo immaginare alcuni leader come proprietari di una casa senza serratura. Non si rendono conto che la loro sicurezza è compromessa e che un’apertura così evidente attira intrusi. Senza un’adeguata protezione delle informazioni e dei sistemi, è facile per malintenzionati entrare e mettere in pericolo non solo la privacy individuale, ma anche l’intero sistema politico. Proprio come un proprietario deve garantire che la propria casa sia sicura, così i leader devono impegnarsi a proteggere le loro informazioni e a rafforzare le misure di sicurezza per prevenire accessi indesiderati.
Recenti rivelazioni hanno messo in luce una situazione allarmante che coinvolge non solo la sicurezza nazionale, ma anche la privacy e la riservatezza dei più alti rappresentanti dello Stato. L’inchiesta condotta dalla Direzione Distrettuale Antimafia (DDA) di Milano e dalla Procura Nazionale Antimafia ha svelato un sofisticato sistema di spionaggio industriale e dossieraggio abusivo, orchestrato da una rete di hacker. Tra i dettagli più inquietanti, la possibile violazione dell’email del Presidente della Repubblica, Sergio Mattarella, segna una nuova frontiera nella violazione della sicurezza istituzionale in Italia.
Gli Stati Uniti e il Canada stanno rafforzando le difese contro potenziali minacce cyber attribuite ad attori sponsorizzati dalla Cina, mirate a infrastrutture critiche e istituzioni democratiche. Dopo che l’FBI ha rilevato attività sospette nei confronti del settore delle telecomunicazioni, la Cybersecurity and Infrastructure Security Agency (CISA) ha collaborato strettamente con le aziende colpite, offrendo assistenza tecnica e condividendo rapidamente informazioni per prevenire ulteriori attacchi.
L’indagine sul prelievo di migliaia di informazioni sensibili da banche dati strategiche nazionali condotta dalla Procura di Milano e dalla Direzione nazionale antimafia, che ha portato al momento a sei misure cautelari, sembra allargarsi in modo imprevedibile, tant’è che il procuratore antimafia Melillo parla di “vicenda allarmante” e di “dimensione imprenditoriale” del fenomeno.
Con un passo strategico verso l’open innovation, Fincantieri, uno dei leader mondiali nella costruzione di navi ad alta intensità tecnologica, ha annunciato l’apertura di una nuova Innovation Antenna presso il Mind the Bridge Innovation Center a San Francisco. L’iniziativa, che colloca l’azienda italiana nel cuore della Silicon Valley, conferma il suo impegno nel creare un ecosistema dove tecnologie Dual-Use, applicabili quindi sia nel settore civile che in quello militare, possano trovare terreno fertile e svilupparsi attraverso collaborazioni e sinergie. Gli ambiti di sviluppo riguardano principalmente l’Intelligenza Artificiale, la cyber security, l’automazione e la robotica, settori in cui la convergenza tra applicazioni civili e militari è particolarmente marcata.
L’amministrazione Biden ha rilasciato un memorandum di sicurezza nazionale che richiede al Pentagono e alle agenzie di intelligence di intensificare l’uso dell’intelligenza artificiale. Questo documento non solo stabilisce le aspettative per l’integrazione dell’IA nelle operazioni militari, ma sottolinea anche l’importanza di proteggere gli strumenti di IA delle aziende statunitensi dai tentativi di furto da parte di spie straniere.
Il memorandum specifica, tuttavia, che le agenzie governative non possono utilizzare l’IA per monitorare il discorso degli americani o eludere i controlli esistenti sulle armi nucleari. Questa direttiva evidenzia una tensione fondamentale tra l’innovazione tecnologica e la protezione dei diritti civili, ponendo limiti chiari per garantire che l’uso dell’IA non comprometta la privacy dei cittadini.
Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Dopo l’AI i computer quantistici: la prossima rivoluzione nella cybersicurezza secondo Amir Rapaport
L’Intelligenza Artificiale ha rivoluzionato completamente il digitale e la cybersicurezza, la prossima rivoluzione sarà con l’arrivo dei computer quantistici tra pochi anni: a ipotizzare il futuro del settore è Amir Rapaport, l’ideatore e organizzatore di CyberTech Europe che si è appena conclusa a Roma.
Negli ultimi anni, i progressi nell’intelligenza artificiale (AI) e nei sistemi autonomi hanno iniziato a cambiare radicalmente il panorama militare. Secondo il generale Mark Milley, ex Presidente del Comitato dei Capi di Stato Maggiore degli Stati Uniti, entro i prossimi 10-15 anni tra il 25% e il 33% delle forze armate statunitensi potrebbe essere costituito da unità robotiche. Milley ha fatto queste osservazioni durante un evento organizzato da Axios, sottolineando che il futuro delle operazioni militari sarà fortemente caratterizzato dall’integrazione di AI e robotica.
Come affermato nella Strategia di Difesa Nazionale, la missione primaria del DoD è quella di fornire forze militari credibili sul campo per dissuadere la guerra e proteggere la sicurezza della nazione. Mantenere un vantaggio tecnologico e militare è fondamentale per adempiere a questa missione, ma non deve avvenire a scapito dei valori democratici che sono alla base del sistema di governo statunitense. Lo sviluppo e l’uso dell’IA da parte del DoD riflette questa sfida: mantenere la supremazia tecnologica senza compromettere principi etici e legali fondamentali.
Al ComoLake 2024, Roberto Cingolani, CEO di Leonardo, ha tenuto un discorso profondo e stimolante, affrontando le complesse sfide e opportunità che emergono dall’intersezione tra tecnologia, sicurezza dei dati e conflitti globali. Le sue riflessioni risuonano in modo particolare nel contesto dell’attuale panorama digitale, che evolve a un ritmo incessante e solleva nuove domande sulla sicurezza e la gestione delle informazioni. Cingolani ha presentato un quadro ricco di spunti, ponendo l’accento sulla necessità di strategie integrate per affrontare le minacce contemporanee.
E’ in corso il G7 Difesa a Napoli, presieduto dal Ministro Crosetto in occasione del quale le delegazioni – composte oltre che dai Ministri della Difesa, anche dal segretario generale della Nato Mark Rutte e dall’Alto rappresentante dell’Unione Europa per gli affari esteri e la politica di sicurezza, Josep Borrell – si confronteranno sui principali conflitti e sulle aree di instabilità a livello globale: oltre alla guerra in Ucraina, sul tavolo anche la situazione in Medioriente, in particolare all’indomani della morte del capo di Hamas Yahya Sinwar e gli equilibri nel continente africano e nella regione dell’Indo-Pacifico.
Si tratta di un appuntamento di particolare rilievo perché per la prima volta nella storia del G7 è stata prevista una riunione ministeriale dedicata alla difesa: una decisione assunta dalla Presidenza italiana del G7 “per promuovere il ruolo del G7 quale efficace forum di consultazione anche per individuare un approccio condiviso a tematiche di carattere politico-militare“.
L’Intelligenza Artificiale gestirà in modo sicuro il flusso dei passeggeri e il riconoscimento biometrico, per gli imbarchi sugli aerei di alcuni aeroporti in India. E’ il risultato nella nuova partnership stipulata tra Thales e la Adani Airport Holding, il più grande operatore aeroportuale privato dell’India.
Secondo un’analisi di Fortune, le forze di difesa e di sicurezza degli Stati Uniti stanno investendo massicciamente nell’Intelligenza Artificiale, collaborando con centinaia di aziende per sviluppare e testare nuovi algoritmi e strumenti in modo sicuro.
Nei due anni trascorsi dal rilascio del chatbot ChatGPT di OpenAI, che ha scatenato un forte interesse globale per l’AI, il Dipartimento della Difesa ha destinato circa 670 milioni di dollari in contratti a quasi 323 aziende per vari progetti legati all’Intelligenza Artificiale. Questi numeri segnano un incremento del 20% rispetto al 2021 e al 2022, sia per il numero di aziende coinvolte che per il valore complessivo dei contratti.
I sistemi XLAW e KeyCrime rappresentano approcci innovativi nell’ambito della sicurezza urbana e della prevenzione della criminalità, utilizzando tecnologie avanzate di analisi dei dati e intelligenza artificiale.
Nel recente dibattito sull’uso della polizia predittiva in Europa, è evidente che molti tendono a confondere diversi sistemi come se fossero simili per logica e obiettivi.
Dopo aver letto il saggio “La predictive policing nel regolamento europeo sull’intelligenza artificiale” di Elisabetta Pietrocarlo, è arrivato il momento di fare chiarezza, soprattutto sui sistemi come XLAW e KeyCrime.
Negli ultimi anni, il progresso nell’Intelligenza Artificiale ha iniziato a trasformare ogni settore della società e a riscrivere le regole del conflitto e della sicurezza internazionale. In questo articolo, esploreremo le implicazioni per la Difesa e analizzeremo come il Ministero della Difesa del Regno Unito (MOD UK) stia rivalutando le sue priorità alla luce del rapido sviluppo dell’AI e dell’AGI (Intelligenza Artificiale Generale). Questo tema non riguarda solo il futuro prossimo, ma avrà effetti strategici di vasta portata fino al 2050 e oltre, ridefinendo la natura della guerra e la sicurezza globale.
Vulnerabilità critiche nei robot con Intelligenza Artificiale: sfide e opportunità per il futuro della sicurezza
Nel panorama in continua evoluzione dell’intelligenza artificiale (IA) e della robotica, le innovazioni portano con sé non solo opportunità rivoluzionarie, ma anche rischi significativi. Un recente studio condotto dai ricercatori di Penn Engineering ha evidenziato una serie di vulnerabilità critiche nei robot alimentati da IA, rivelando potenziali scenari in cui questi sistemi possono essere manipolati per compiere azioni pericolose, come ignorare semafori rossi o, in situazioni estreme, detonare bombe.