Ci sono luoghi nel mondo, che tutti abbiamo imparato a conoscere, dove la guerra si svolge sui campi di battaglia, ma c’è anche un’altra guerra che ci riguarda tutti e che si combatte in silenzio tra server e algoritmi.
L’intelligenza artificiale ha trasformato il web in un campo di conflitto globale, dove attacchi automatizzati colpiscono migliaia di obiettivi al secondo e le difese tradizionali risultano costantemente superate.
Oggi, ogni dispositivo connesso è un potenziale campo di battaglia e ogni dato può essere un’arma o un bottino di guerra. A rendere la situazione sempre più esplosiva, l’intelligenza artificiale che, se da una parte sta rivoluzionando il modo in cui lavoriamo e viviamo, dall’altra sta aprendo scenari inquietanti sul fronte del cybercrime.
I dati del 2025 rivelano una verità inconfutabile: l'IA è diventata l'arma preferita dei cybercriminali, con un incremento del 47% degli attacchi guidati dall'IA che, entro la fine del 2025, secondo le stime, supereranno i 28 milioni a livello globale, trasformando radicalmente il panorama delle minacce digitali.
L’Italia nel mirino: numeri allarmanti e impatto economico
Il nostro Paese non è certo immune a questa ondata. Nel primo trimestre del 2025, quasi il 40% dei circa 900 gravi episodi informatici ha coinvolto direttamente strumenti di intelligenza artificiale generativa.
Secondo l'Agenzia per la Cybersicurezza Nazionale, l'impatto economico complessivo degli attacchi cyber nel 2025 potrebbe superare i 66 miliardi di euro in Italia, pari al 3,5% del PIL nazionale.
Cyber criminali non si nasce, si diventa
Un “mestiere” comodo e molto redditizio. Non si tratta di un fenomeno marginale, ma di una trasformazione sistemica del modo in cui il crimine agisce nel web. Tanto che tra il primo trimestre del 2023 e quello del 2024 c’è stato un aumento del 223% nell’acquisto e vendita di strumenti per creare deepfake sul dark web. Insomma, criminali non si nasce, ma si diventa. E sempre più facilmente. Del resto, il costo medio per creare un deepfake efficace non supera 1,50 dollari. Mentre il danno economico per un’azienda è altissimo. Nel settore finanziario, ad esempio, è stimato in circa 600mila dollari. Un’asimmetria che sta ridefinendo le regole del gioco digitale, trasformando ogni interazione online in un potenziale campo minato.
L’Arma dei deepfake: quando la realtà ci spinge nella trappola
I deepfake rappresentano, tra le minacce, forse la più insidiosa. La crescita è esponenziale e spaventosa: dai 500.000 casi del 2023 si prevede di arrivare a oltre 8 milioni entro la fine del 2025. Non parliamo più di semplici curiosità tecnologiche, ma di sofisticati strumenti di frode aziendale.
Un caso emblematico è stato quello di una società di engineering di Hong Kong, dove un dipendente ha trasferito 25 milioni di dollari dopo una videoconferenza con chi credeva essere il CFO e altri colleghi, tutti in realtà cloni generati dall’IA. In Italia, un caso su venti di fallimento nei processi di verifica identitaria è ormai attribuibile a contenuti sintetici generati dall’intelligenza artificiale.
I numeri parlano di una rivoluzione tecnologica senza precedenti: 95.820 video deepfake rilevati nel 2023, con un aumento del 550% dal 2019.
La nuova generazione di attacchi
Ma non c’è solo il deepfake, In generale, l’intelligenza artificiale ha reso ogni tipo di attacco più efficace e personalizzato. Il phishing, da sempre uno dei vettori più comuni del cybercrimine, è diventato quasi indistinguibile dalla comunicazione legittima. Oltre l’80% delle email di phishing oggi sfrutta modelli linguistici avanzati per creare messaggi personalizzati, contestualizzati e privi degli errori grammaticali che in passato tradivano la frode.
I cybercriminali utilizzano l’IA per analizzare i profili social delle vittime, studiarne lo stile comunicativo e creare messaggi che sembrano provenire da colleghi, superiori o partner commerciali. Il voice cloning rappresenta un’altra frontiera preoccupante: gli attacchi basati sulla clonazione vocale sono aumentati dell’81% nel 2025. Bastano pochi secondi di audio per creare un clone vocale convincente, poi utilizzato per truffe telefoniche o attacchi di business email compromise.
La corsa alla difesa digitale
Di fronte a questa escalation, l’integrazione tra intelligenza artificiale e strategie di cyber-difesa non è più un’opzione, ma una necessità imprescindibile. Non a caso, l’89% delle organizzazioni a livello globale considera la protezione basata sull’IA essenziale per colmare questo divario.
Tuttavia, l’adozione dell’IA difensiva comporta nuove sfide. Le imprese che hanno implementato difese basate sull’IA, nel 2025, hanno comunque subito violazioni nel 29% dei casi, dimostrando che gli attaccanti continuano a tenere il passo. Inoltre, sta emergendo sempre di più il problema della shadow AI: l’uso non controllato di strumenti di intelligenza artificiale all’interno delle organizzazioni che espone a nuove vulnerabilità.
Il fattore umano rimane cruciale
Nonostante, dunque, l’automazione crescente e una situazione in continuo cambiamento c’è però un elemento che rimane centrale: parliamo del fattore umano che può fare davvero la differenza nelle strategie difensive ma su cui, paradossalmente, si interviene ancora troppo poco. Ad oggi, infatti, la capacità umana di rilevare deepfake di alta qualità è drammaticamente bassa:
Infatti, secondo l’Enisa, l’Agenzia dell’Unione Europea per la cybersicurezza, circa il 60% delle violazioni deriva da errori umani, numeri davvero troppo alti.
Per questo motivo è determinante investire sulla formazione continua del personale, scegliendo percorsi che siano all’altezza della sfida che quest’epoca ci chiede.
Allo stesso tempo è importante investire in tecnologie difensive avanzate, nell’ottica di un approccio multidisciplinare tenendo a mente che l’IA è una potente arma a doppio taglio e richiede un grosso impegno nello sviluppo di sistemi di IA sicuri e affidabili e in un loro corretto utilizzo finalizzato alla difesa dagli attacchi basati sulla stessa intelligenza artificiale.
Insomma, il futuro della sicurezza informatica non sarà determinato dalla tecnologia da sola, ma dalla capacità di combinare intelligenza artificiale, competenze umane e strategie proattive in un ecosistema integrato di difesa. La posta in gioco è troppo alta per avere dubbi, perdere tempo ed esitare ancora.






