Recenti ricerche hanno rivelato vulnerabilità allarmanti in Microsoft Copilot AI, evidenziando il suo potenziale di essere utilizzato come una macchina per phishing automatizzata. Questa questione è stata evidenziata dal ricercatore di sicurezza Michael Bargury durante la conferenza Black Hat sulla sicurezza a Las Vegas, dove ha dimostrato diversi proof-of-concept che sfruttano le capacità dell’AI.

Scoperte chiave

  1. Attacchi di phishing automatizzati: La ricerca di Bargury ha introdotto uno strumento chiamato LOLCopilot, che consente agli hacker, una volta ottenuto l’accesso all’email di lavoro di una vittima, di utilizzare Copilot per analizzare i modelli di comunicazione della vittima.
    Questo strumento può redigere email che imitano da vicino lo stile di scrittura della vittima, incluso l’uso di emoji, e inviare messaggi di phishing personalizzati ai contatti.

    L’efficienza di questo metodo consente agli attaccanti di generare centinaia di email in pochi minuti, aumentando significativamente le possibilità di inganno rispetto ai metodi di phishing tradizionali che richiedono una preparazione approfondita dei messaggi.
  2. Esfiltrazioni di dati: La ricerca ha anche dimostrato come gli attaccanti possano estrarre informazioni sensibili senza attivare i protocolli di sicurezza.

    Manipolando i prompt dell’AI, gli attaccanti potrebbero richiedere dati riservati, come gli stipendi dei dipendenti, bypassando le protezioni di Microsoft progettate per salvaguardare le informazioni sensibili.

    Questo metodo di “bullismo” dell’AI per ottenere dati solleva seri dubbi sulla sicurezza dei dati aziendali quando integrati con i sistemi AI.
  3. Iniezione di prompt indiretta: Un’altra vulnerabilità critica coinvolge hacker esterni che inviano email dannose all’AI, avvelenando di fatto il suo database.

    Ciò consente loro di manipolare le risposte dell’AI, potenzialmente portando alla diffusione di informazioni errate o dannose, come dettagli bancari fraudolenti.
  4. Risposta da Microsoft: Alla luce di queste scoperte, Phillip Misner, responsabile del rilevamento degli incidenti AI e della risposta presso Microsoft, ha riconosciuto le vulnerabilità identificate da Bargury.

    Ha sottolineato l’importanza di solide misure di sicurezza e monitoraggio per mitigare tali rischi, osservando che le minacce poste dall’abuso post-compromissione dell’AI sono significative e richiedono una vigilanza costante.

Implicazioni

I risultati sottolineano una sfida critica nell’integrazione dell’AI negli ambienti aziendali: mentre l’AI può migliorare la produttività automatizzando i compiti, apre anche nuove vie per le minacce informatiche.

Man mano che i sistemi di AI generativa diventano più diffusi, il potenziale di uso improprio cresce, rendendo necessaria una rivalutazione dei protocolli di sicurezza e l’implementazione di controlli più rigorosi per salvaguardare le informazioni sensibili.

L’emergere di strumenti come LoLCopilot illustra la natura a doppio taglio della tecnologia AI; ciò che può essere un vantaggio per la produttività può anche essere un’arma nelle mani di attori malevoli.
Mentre le organizzazioni si affidano sempre più all’AI per le operazioni quotidiane, comprendere e affrontare queste vulnerabilità sarà essenziale per mantenere la sicurezza in un panorama digitale in evoluzione.