Il existe des endroits dans le monde, que nous avons tous appris à connaître, où la guerre se déroule sur les champs de bataille, mais il y a aussi une autre guerre qui nous concerne tous et qui se livre en silence entre serveurs et algorithmes.
L’intelligence artificielle a transformé le web en un champ de conflit global, où les attaques automatisées frappent des milliers de cibles par seconde et les défenses traditionnelles sont constamment dépassées.
Aujourd’hui, chaque appareil connecté est un champ de bataille potentiel et chaque donnée peut être une arme ou un butin de guerre. L’intelligence artificielle rend la situation de plus en plus explosive car, si d’une part elle révolutionne notre façon de travailler et de vivre, d’autre part elle ouvre des scénarios inquiétants sur le front de la cybercriminalité.
Les données de 2025 révèlent une vérité incontestable : l'IA est devenue l'arme préférée des cybercriminels, avec une augmentation de 47 % des attaques guidées par l'IA qui, d'ici fin 2025, selon les estimations, dépasseront les 28 millions au niveau mondial, transformant radicalement le paysage des menaces numériques.
L’Italie dans la ligne de mire : chiffres alarmants et impact économique
Notre pays n’est certainement pas à l’abri de cette vague. Au premier trimestre 2025, près de 40 % des quelque 900 incidents informatiques graves impliquaient directement des outils d’intelligence artificielle générative.
Selon l'Agence Nationale de Cybersécurité, l'impact économique global des cyberattaques en 2025 pourrait dépasser les 66 milliards d'euros en Italie, soit 3,5 % du PIB national.
On ne naît pas cybercriminel, on le devient
Un « métier » confortable et très lucratif. Il ne s’agit pas d’un phénomène marginal, mais d’une transformation systémique de la façon dont le crime opère sur le web. Entre le premier trimestre 2023 et celui de 2024, il y a eu une augmentation de 223 % dans l’achat et la vente d’outils pour créer des deepfakes sur le dark web. En bref, on ne naît pas criminel, on le devient. Et de plus en plus facilement. D’ailleurs, le coût moyen pour créer un deepfake efficace ne dépasse pas 1,50 dollar. Tandis que le préjudice économique pour une entreprise est très élevé. Dans le secteur financier, par exemple, il est estimé à environ 600 000 dollars. Une asymétrie qui redéfinit les règles du jeu numérique, transformant chaque interaction en ligne en un champ de mines potentiel.
L’arme des deepfakes : quand la réalité nous pousse dans le piège
Les deepfakes représentent peut-être la menace la plus insidieuse. La croissance est exponentielle et effrayante : des 500 000 cas en 2023, on prévoit d’atteindre plus de 8 millions d’ici fin 2025. Nous ne parlons plus de simples curiosités technologiques, mais d’outils sophistiqués de fraude d’entreprise.
Un cas emblématique a été celui d’une société d’ingénierie de Hong Kong, où un employé a transféré 25 millions de dollars après une visioconférence avec ce qu’il croyait être le CFO et d’autres collègues, tous en réalité des clones générés par l’IA. En Italie, un cas sur vingt d’échec dans les processus de vérification d’identité est désormais attribuable à des contenus synthétiques générés par l’intelligence artificielle.
Les chiffres parlent d’une révolution technologique sans précédent : 95 820 vidéos deepfake détectées en 2023, soit une augmentation de 550 % depuis 2019.
La nouvelle génération d’attaques
Mais il n’y a pas que le deepfake. En général, l’intelligence artificielle a rendu chaque type d’attaque plus efficace et personnalisé. Le phishing, depuis toujours l’un des vecteurs les plus courants de la cybercriminalité, est devenu presque indiscernable de la communication légitime. Plus de 80 % des e-mails de phishing utilisent aujourd’hui des modèles linguistiques avancés pour créer des messages personnalisés, contextualisés et exempts des erreurs grammaticales qui trahissaient autrefois la fraude.
Les cybercriminels utilisent l’IA pour analyser les profils sociaux des victimes, étudier leur style de communication et créer des messages qui semblent provenir de collègues, de supérieurs ou de partenaires commerciaux. Le clonage vocal représente une autre frontière préoccupante : les attaques basées sur le clonage vocal ont augmenté de 81 % en 2025. Quelques secondes d’audio suffisent pour créer un clone vocal convaincant, ensuite utilisé pour des escroqueries téléphoniques ou des attaques de compromission d’e-mails professionnels.
La course à la défense numérique
Face à cette escalade, l’intégration entre l’intelligence artificielle et les stratégies de cyberdéfense n’est plus une option, mais une nécessité impérative. Ce n’est pas un hasard si 89 % des organisations au niveau mondial considèrent la protection basée sur l’IA comme essentielle pour combler cet écart.
Cependant, l’adoption de l’IA défensive comporte de nouveaux défis. Les entreprises ayant mis en œuvre des défenses basées sur l’IA ont tout de même subi des violations dans 29 % des cas en 2025, démontrant que les attaquants continuent de suivre le rythme. De plus, le problème de l’IA fantôme émerge de plus en plus : l’utilisation non contrôlée d’outils d’intelligence artificielle au sein des organisations qui expose à de nouvelles vulnérabilités.
Le facteur humain reste crucial
Malgré l’automatisation croissante et une situation en constante évolution, il y a un élément qui reste central : nous parlons du facteur humain qui peut vraiment faire la différence dans les stratégies défensives mais sur lequel, paradoxalement, on intervient encore trop peu. À ce jour, en effet, la capacité humaine à détecter des deepfakes de haute qualité est dramatiquement faible :
En effet, selon l’Enisa, l’Agence de l’Union européenne pour la cybersécurité, environ 60 % des violations proviennent d’erreurs humaines, des chiffres vraiment trop élevés.
C’est pourquoi il est crucial d’investir dans la formation continue du personnel, en choisissant des parcours qui soient à la hauteur du défi que cette époque nous lance.
En même temps, il est important d’investir dans des technologies défensives avancées, dans une approche multidisciplinaire, en gardant à l’esprit que l’IA est une puissante arme à double tranchant et nécessite un engagement important dans le développement de systèmes d’IA sûrs et fiables et dans leur utilisation correcte visant à se défendre contre les attaques basées sur la même intelligence artificielle.
En somme, l'avenir de la sécurité informatique ne sera pas déterminé par la technologie seule, mais par la capacité à combiner intelligence artificielle, compétences humaines et stratégies proactives dans un écosystème de défense intégré. L'enjeu est trop important pour avoir des doutes, perdre du temps et encore hésiter.


