Ivan Shkvarun, Fondatore e CEO di Social Links, e Autore dell’Iniziativa Darkside AI. Lo abbiamo incontrato all’ AI Festival dove ha presentato per la prima volta l’iniziativa Darkside AI, con esempi reali di manipolazione dei consumatori, abbiamo condiviso una intervista sulle strategie per aiutare le aziende a difendersi dalle inganni alimentati dall’AI.

Ivan è un esperto di punta nell’AI e nell’intelligence a codice aperto (OSINT), con oltre 15 anni di esperienza nella mitigazione dei rischi guidata dalla tecnologia. Sotto la sua leadership, Social Links — riconosciuta da Frost & Sullivan come leader nel settore OSINT — ha sviluppato soluzioni alimentate dall’AI che espongono e neutralizzano il crimine informatico, la disinformazione e le frodi digitali a livello globale.

Evoluzione delle minacce AI-driven

    Rivista.AI: Negli ultimi 15 anni, come sono cambiati i modelli operativi degli attori malevoli nell’utilizzo dell’AI per frodi e disinformazione? Quali tecniche emergenti (es. generative adversarial networks, LLM avanzati) stanno rivoluzionando il panorama delle minacce? [Esempi specifici?]

    In che modo le identità sintetiche e i deepfake stanno superando le tradizionali difese biometriche o di verifica dell’identità? Esistono differenze geografiche nell’adozione di queste tecnologie a scopo malevolo?

    Ivan Shkvarun: Negli ultimi dieci anni, ho assistito all’evoluzione del cybercrimine, passato da semplici violazioni di sistema a una manipolazione su larga scala della percezione e della fiducia umana. L’AI non è più solo uno strumento di innovazione: viene anche utilizzata come arma, trasformando le classiche truffe di phishing e i botnet in deepfake iper-realistici, disinformazione generata dall’AI e reti di frode completamente automatizzate.

    Questo cambiamento non è ipotetico; stiamo già vedendo le conseguenze. Si prevede che le perdite per frodi legate all’AI passeranno dai 12,3 miliardi di dollari del 2023 a 40 miliardi entro il 2027, e questa è una stima prudente. L’impatto finanziario è concreto, ma il problema più profondo è la fiducia. Quando l’AI può generare identità sintetiche credibili, documenti finanziari falsificati e notizie generate dall’AI su larga scala, mina le fondamenta stesse della sicurezza digitale.


    Un esempio particolarmente rilevante è la disinformazione generata dall’AI. Durante le recenti elezioni, reti di bot hanno sfruttato avanzati LLMs per produrre in massa contenuti fuorvianti, adattando le narrazioni in tempo reale in base all’interazione del pubblico. Non si tratta solo di diffondere false informazioni, ma di plasmare la percezione pubblica con estrema precisione. In un mondo in cui l’AI può creare realtà convincenti ma totalmente false, i tradizionali meccanismi di fact-checking non riescono a tenere il passo.

    Anche le frodi finanziarie hanno raggiunto un nuovo livello. L’AI è ora in grado di generare ‘esseri umani’ completamente fittizi che superano i controlli KYC (Know Your Customer) e AML (Anti-Money Laundering). Parliamo di identità false ma altamente credibili, complete di documenti verificabili, storie sui social media e registri creditizi. I criminali stanno utilizzando queste identità per riciclare denaro, commettere frodi e infiltrarsi nei sistemi finanziari senza essere rilevati.

    Ecco la dura realtà: non siamo in vantaggio rispetto a queste minacce, stiamo costantemente inseguendo. Le pratiche di sicurezza standard, come il controllo degli accessi basato sui ruoli o l’autenticazione multi-fattore, creano un falso senso di protezione.
    La vera sfida non è solo reagire, ma anticipare le minacce, utilizzando l’AI come strumento di difesa anziché limitarsi a combatterla.

    Deepfake e identità sintetiche

      Rivista.AI: Puoi condividere un caso studio dettagliato in cui Darkside AI ha smascherato una campagna di falsi endorsement coinvolgente brand globali? Quali indicatori tecnici (artefatti audio/video, pattern comportamentali) hanno permesso l’identificazione?

      Come vengono sfruttati gli influencer sintetici per manipolare i mercati finanziari o i trend di consumo? Esistono settori industriali particolarmente vulnerabili a questo fenomeno?

      Ivan Shkvarun: A causa di accordi di non divulgazione (NDAs), non possiamo rivelare nomi di marchi specifici, ma posso delineare il nostro approccio e il ruolo che l’OSINT svolge nel rilevare questo tipo di frodi. Immagina video diffusi sui social media e su reti chiuse di investitori, utilizzati per legittimare falsamente prodotti finanziari.

      Per identificare la campagna, ci siamo affidati all’analisi basata su OSINT e strumenti forensi di AI:

      Analisi Audio & Video (Audio & Video Analysis): Modelli di rilevamento dei deepfake hanno segnalato sottili incongruenze nelle espressioni facciali, nella cadenza del parlato e negli errori di sincronizzazione labiale.
      Riconoscimento dei Pattern Comportamentali (Behavioral Pattern Recognition): Gli strumenti OSINT hanno mappato un’attività di pubblicazione coordinata, rivelando una rete di distribuzione sincronizzata.
      Tracciamento dei Metadata & Provenienza (Metadata & Provenance Tracking): Risalendo alle origini dei video, abbiamo scoperto contenuti manipolati e riutilizzati da interviste più vecchie.

      Per rispondere alla seconda parte della domanda, la tecnologia deepfake non riguarda più solo i video falsi delle celebrità: è diventata uno strumento attivo per frodi di alto livello. I criminali ora utilizzano ricostruzioni facciali generate da AI e clonazione vocale sintetica per aggirare i sistemi di autenticazione biometrica.

      Un caso recente a Hong Kong ha dimostrato la gravità di questa minaccia: i truffatori hanno utilizzato una videochiamata deepfake per impersonare il CFO di un’azienda, ingannando un dipendente e convincendolo a trasferire 25 milioni di dollari.

      Quindi, anche se nessun settore è completamente immune, i C-level executives sono tra i bersagli primari dei criminali. Se sei un decision-maker aziendale, fai attenzione a ciò che pubblichi online e a come gestisci la tua igiene digitale, perché, nel panorama attuale, le frodi alimentate dall’AI non sono una possibilità futura, ma una realtà concreta.

      C’è poi un’altra area che richiede particolare attenzione in questo momento: il rischio che i criminali sfruttino gli asset digitali di un’azienda per scopi fraudolenti.

      Gli asset digitali possono includere domini, prodotti, marchi e altro ancora. Questi asset possono essere usati in modo fraudolento per:

      ● Ingannare i clienti e vendergli prodotti o servizi contraffatti.
      ● Danneggiare deliberatamente un’azienda, utilizzando in modo fraudolento il suo brand e la sua identità per causare danni reputazionali e finanziari.

      Impatto sul marketing e business

        Rivista.AI: Quali metriche osserva nei clienti di Social Links per rilevare campagne di disinformazione AI-driven che danneggiano la reputazione aziendale (es. sentiment analysis manipolato, fake reviews)?

        Come si integrano gli strumenti OSINT con sistemi di rilevamento basati su AI per identificare frodi nel digital advertising (es. click farm potenziate da bot conversazionali)?

        Ivan Shkvarun: Offriamo ai nostri clienti una combinazione di strumenti OSINT e analisi AI per monitorare e mitigare la disinformazione e le frodi alimentate dall’AI. Per rilevare gli sforzi di disinformazione coordinata, monitoriamo improvvisi cambiamenti nel sentiment pubblico sui social media e sulle piattaforme di notizie, analizziamo modelli linguistici ripetitivi e orari sospetti di pubblicazione, e seguiamo come le false informazioni si diffondono tramite amplificazione automatizzata e campagne di attacco coordinate. Identificare picchi o cali innaturali nei tassi di coinvolgimento aiuta anche a rivelare metriche manipolate.

        Le frodi nella pubblicità digitale sono un problema in crescita, con le farm di clic e i bot alimentati dall’AI che generano impegno falso per manipolare le performance di marketing. Integriamo l’intelligence basata su OSINT con modelli di rilevamento AI per individuare queste attività, analizzando le interazioni degli utenti per individuare orari di clic irregolari e comportamenti di navigazione non umani, identificando fonti di traffico falso tramite controlli di coerenza degli IP, incrociando i contenuti pubblicitari con fonti di dati verificate per rilevare promozioni fraudolente o ingannevoli, e monitorando picchi insoliti nei flussi di dati e modelli sospetti di referral per scoprire sforzi di frode coordinata.

        Recentemente, uno dei nostri clienti, un marchio internazionale, ha scoperto che i loro budget pubblicitari venivano drenati da una sofisticata rete di frodi da clic. Utilizzando OSINT e analisi alimentate dall’AI, abbiamo tracciato la frode fino a bot conversazionali programmati per imitare interazioni umane, gonfiando i numeri di coinvolgimento senza generare conversioni reali. Identificando incoerenze comportamentali e modelli di rete, abbiamo aiutato il cliente a bloccare l’attività fraudolenta e a riassegnare il loro budget pubblicitario per raggiungere il pubblico genuino.

        Collaborazione con le forze dell’ordine

          Rivista.AI: In che modo la collaborazione tra settore privato e agenzie governative accelera la risposta alle minacce ibride (es. deepfake usati per estorsioni transnazionali)? Quali framework legali internazionali ritieni critici da sviluppare?

          Ivan Shkvarun: Gli enti regolatori dovrebbero guidare, non dettare, lo sviluppo e l’uso dell’AI. Dobbiamo stabilire degli standard che incoraggino un’implementazione responsabile.

          A mio avviso, la collaborazione tra aziende, ricercatori e policy maker è fondamentale per sviluppare strumenti che rilevino e contrastino le minacce generate dall’AI. Le tecnologie di Open-Source Intelligence (OSINT) giocano un ruolo cruciale in quanto fungono da “fonte di verità” e aumentano la trasparenza e la fiducia nei sistemi digitali.

          Per questo, nel febbraio 2025, abbiamo lanciato l’iniziativa Darkside AI per unire esperti provenienti da diversi settori. Sosteniamo l’adozione di framework globali per standardizzare il rilevamento delle minacce, le partnership pubblico-private per raccogliere intelligence e risorse, e iniziative educative per formare i professionisti con le competenze necessarie per combattere i rischi alimentati dall’AI.

          Strategie di difesa proactive

            Rivista.AI: Per aziende con risorse limitate: quali layer di difesa a costo contenuto consiglieresti contro gli attacchi basati su AI (es. watermarking avanzato, anomaly detection nei flussi di pagamento)? Come bilanciare l’uso di AI difensiva con il rischio di falsi positivi che potrebbero bloccare transazioni legittime o ledere l’esperienza cliente?

            Ivan Shkvarun: Per le aziende con risorse limitate, la difesa più efficace non è solo la tecnologia, ma le persone. Ho menzionato prima il caso di frode con deepfake a Hong Kong, che dimostra che le truffe alimentate dall’AI sono un rischio reale e in crescita. Eppure, molti dipendenti pensano che la loro azienda sia “troppo piccola” per essere presa di mira. È un errore, i cybercriminali non attaccano solo le aziende; sfruttano le persone per ottenere accesso.

            Per questo credo che la sicurezza dovrebbe far parte della cultura aziendale, non solo di una politica IT. I dipendenti hanno bisogno di una formazione chiara su come riconoscere i deepfake, il phishing e le frodi d’identità e su come segnalarle. Con l’AI capace di replicare voci e volti in meno di due ore, i cybercriminali aggirano i sistemi sfruttando la fiducia umana.
            Per le aziende con budget limitati, le difese imprescindibili includono: formazione regolare del personale sulle minacce alimentate dall’AI; un protocollo di risposta agli incidenti per le frodi da AI, passaggi chiari da seguire quando si sospetta un attacco; gestione dell’impronta digitale, ridurre i dati disponibili pubblicamente per limitare l’esposizione alle truffe alimentate dall’AI.

            Ancora una volta, la cybersicurezza non riguarda solo i sistemi, riguarda le persone. Il miglior investimento non è solo in strumenti di sicurezza, ma nel rendere i dipendenti resilienti quanto la tecnologia che li protegge.

            Futuro ed etica

              Rivista.AI: Con l’avvento di modelli multimodali come GPT-5 o Sora: quali scenari apocalittici (es. fake crowd in proteste politiche, synthetic supply chain) richiedono contromisure immediate?

              Nello sviluppo di strumenti anti-AI malevola: come gestisci i dilemmi etici legati alla sorveglianza di massa o alla potenziale militarizzazione di queste tecnologie?

              Ivan Shkvarun: Credo che con modelli AI come GPT-5 e Sora, le realtà fabbricate, finte folle di protesta, catene di approvvigionamento sintetiche, figure politiche deepfake, non siano più fantascienza. Queste minacce richiedono contromisure immediate, ma la soluzione non è solo tecnologica, è una governance etica.

              L’impatto dell’AI sulla fiducia digitale è una sfida politica. Abbiamo bisogno di standard etici, non di regolamenti, per garantire che l’AI venga sviluppata in modo responsabile. In Darkside AI, collaboriamo con i responsabili delle politiche e i ricercatori per costruire meccanismi di responsabilità: comitati etici per l’AI, audit indipendenti e sistemi di verifica incrociata per rilevare e contrastare l’abuso dell’AI.

              Bilanciare sicurezza e confini etici è fondamentale. Come possiamo combattere la propaganda deepfake senza abilitare la sorveglianza di massa? La risposta sta in una supervisione trasparente dell’AI e nelle tecnologie OSINT, che fungono da “fonte di verità” senza compromettere la privacy.
              L’AI è solo uno strumento, il suo impatto dipende da come la utilizziamo. Se faremo la scelta giusta, non solo difenderemo contro le minacce dell’AI, ma stabiliremo standard etici per il futuro della fiducia digitale.

              Rivista.AI: “Se dovessi identificare un singolo fattore abilitante (tecnologico, legislativo, culturale) per invertire la curva delle minacce AI-driven, su quale concentreresti gli sforzi globali e perché?”

              Ivan Shkvarun: Consapevolezza: abbiamo bisogno di più iniziative educative e di un maggiore coinvolgimento pubblico.
              Nessuno cambierà le cose per noi. Dobbiamo aumentare la nostra esperienza e conoscenza, comprendere il mondo in cui viviamo e riconoscere ciò che sta accadendo. Solo allora possiamo prendere parte attivamente.

              Solo quando le persone si coinvolgeranno, le imprese e i governi seguiranno. Altrimenti, non hanno motivazione, se le persone sono già soddisfatte di tutto, perché dovrebbero fare di più?

              Rivista.AI: Grazie per aver trovato il tempo di incontraci oggi e per aver condiviso con noi le vostre iniziative.