Nessun settore dell’IT necessita di aggiornamenti costanti ed immediati quanto la sicurezza informatica. Essere pronti a mitigare gli attacchi non basta, è necessario poterli prevenire e, in un periodo in cui le minacce digitali stanno prendendo sempre più piede nei settori più svariati, l’apporto dell’AI nella cybersecurity diventa essenziale.
Le minacce informatiche e l’apporto dell’AI per il loro contrasto
Diverse minacce alla sicurezza informatica possono essere contrastate grazie all’Intelligenza Artificiale, ad esempio:
- Malware / Ransomware: accedendo a grandi quantità di dati e istruendosi su di essi, l’AI può essere in grado di identificare nuove varianti di malware e ransomware. Rilevando immediatamente sia nei processi che nei file, con analisi specifiche, le anomalie nei loro comportamenti, indici di una possibile infezione;
- Attacchi DDOS: l’Intelligenza Artificiale può analizzare in tempo reale il traffico dati, riuscendo a distinguere immediatamente gli attacchi da bloccare con filtri ed appositi accorgimenti. Grazie alla velocità di identificazione e implementazione delle contromisure, l’impatto degli stessi viene minimizzato nel più breve tempo possibile;
- Phishing ed Ingegneria Sociale: tramite algoritmi di machine learning, l’AI può rilevare schemi sospetti nei testi delle email, allegati e URL, permettendo di identificare e inibire con efficacia, tentativi di phishing ed ingegneria sociale;
- Sicurezza delle Applicazioni: durante lo sviluppo e test delle applicazioni, con l’AI si possono analizzarne i sorgenti per identificare vulnerabilità (es. SQL injection o cross-site scripting) prima che il software vada in produzione;
- Attacchi di Brute Force: in modo analogo al DDOS, l’Intelligenza Artificiale, può individuare facilmente tentativi di accesso tramite forza bruta e attivare immediatamente blocchi di vario tipo;
- Minacce Interne: l’AI può analizzare i comportamenti del personale di un’azienda. Identificando attività che escano dai normali pattern di utilizzo e che potrebbero rappresentare una minaccia, sia intenzionale che accidentale;
- Analisi Predittiva: in uno scenario che si avvicina ai romanzi di fantascienza l’AI, utilizzando modelli predittivi e dati storici, può anticipare i possibili attacchi futuri. Arrivando a implementare misure preventive, addirittura prima dell’incidente stesso;
- Analisi del Rischio: l’AI può aiutare attivamente ad analizzare le vulnerabilità rilevate, determinandone la gravità e consentendo di affrontare per prime le situazioni più critiche;
- Scansione Automatizzata: con l’Intelligenza Artificiale si possono automatizzare i processi di implementazione delle patch e degli aggiornamenti nelle grandi infrastrutture. Identificando il software non aggiornato e le relative tempistiche di intervento, in modo da dare priorità ai provvedimenti in base al rischio.
Fermo restando che la forza dell’AI nell’ambito della cybersecurity, sta soprattutto nell’apprendere e adattarsi ai nuovi tipi di attacchi, elemento fondamentale in uno scenario in cui l’AI stessa può essere utilizzata per cercare di compromettere i sistemi.
L’AI come arma per i cybercriminali
È possibile, infatti, che un hacker sviluppi in casa un modello di AI.
Le tecnologie open source e i dataset pubblici, sono ampiamente disponibili e possono consentire, a chiunque abbia competenze di programmazione, di sviluppare modelli personalizzati di AI per scopi malevoli.
Anche l’accesso alle comunità online, forum e repository di codice dove si condividono conoscenze e strumenti per lo sviluppo dell’Intelligenza Artificiale, possono aiutare un hacker a trovare progetti che, seppur inizialmente destinati a scopi legittimi, possono essere adattati per attività ostili.
Ci sono, inoltre, precedenti documentati di modelli AI utilizzati per scopi offensivi, tramite l’uso di AI per automatizzare l’individuazione di vulnerabilità nei sistemi web o per creare sofisticati attacchi di phishing, grazie ai modelli LLM (Large Language Models) che superano i test di sicurezza.
Il cybercrime come servizio (CaaS) poi è un mercato in espansione. Malintenzionati con competenze in AI, potrebbero sviluppare strumenti da vendere o affittare ad altri criminali, rendendo l’investimento nello sviluppo di Intelligenze Artificiali per attacchi informatici economicamente vantaggioso.
Fortunatamente, sviluppare un modello AI efficace per l’hacking richiede non solo competenze tecniche avanzate ma anche tempo, risorse computazionali e l’accesso a dati di qualità per l’addestramento. Un hacker individuale potrebbe incontrare grosse difficoltà in termini di potenza di calcolo o accesso a dataset adeguati, anche se non insormontabili.
Alla luce di tutto ciò, sicuramente la natura dell’hacking sta evolvendo, con attacchi che sfruttano l’AI per diventare più sofisticati e difficili da rilevare. Questo implica che gli hacker saranno sempre più incentivati a esplorare e sviluppare soluzioni basate sull’Intelligenza Artificiale.
La sfida per il futuro
Il 2025 si prospetta come un anno cruciale nella lotta tra difensori e attaccanti nel campo della cybersecurity. L’adozione di strategie basate sull’AI sarà fondamentale per prevenire le minacce, ma richiederà anche un continuo aggiornamento delle difese contro gli usi malevoli della stessa tecnologia.
Le aziende dovranno investire in formazione del personale e nell’adozione di strumenti avanzati di AI destinati ad assumere un ruolo fondamentale per individuare le possibili minacce e automatizzare le necessarie mitigazioni in caso di attacchi grazie, soprattutto, alla capacità di analisi di enormi quantità di dati, con tempistiche altrimenti impossibili per un team di esseri umani.
Antonio Saponaro, esperto di cybersecurity
Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale: iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!