Hameçonnage par deepfake : le crime qui suscite le plus de peur

Non classifié(e)
5 avril 2023

Les apparences sont trompeuses

Nous devons nous faire une raison : la réalité dans laquelle nous vivons est de plus en plus fictive, synthétique et altérée.
Les principaux points de référence et d’autorité fondent comme de la neige au soleil et nous avons tous de plus en plus de mal à distinguer le vrai du faux. Certains commencent même à se demander si le « vrai » existe. Cette nouvelle perception de la réalité semble désormais imprégner tous les secteurs de la société, mais le Web, et tout ce qui en découle, est sans aucun doute le royaume incontesté de cette confrontation vive entre le vrai et le faux. Un espace nébuleux et indistinct dans lequel nous nous déplaçons à tâtons, souvent inconscients des conséquences de nos actions, et dans lequel l’inquiétante technologie de l’intelligence artificielle fait son entrée avec toute sa suite d’outils parfaits pour déformer la réalité. Distorsion sur distorsion.

Sans analyser dans ce contexte les nombreuses implications qui en découlent, nous pouvons toutefois affirmer que nous parlons du terrain de jeu parfait pour qui veut contrôler nos vies et d’un véritable paradis pour les cybercriminels.

Parmi les risques les plus flous et les plus néfastes auxquels nous sommes confrontés ces derniers temps, il y a sans aucun doute celui de l’hameçonnage par deepfake, une technologie utilisée pour créer de fausses images et vidéos ou pour reproduire le même ton ou le même timbre de voix.
Le « petit jeu » a été réalisé avec des personnages connus comme Tom Cruise, Mark Zuckerberg et le président Obama, mais son application la plus inquiétante est celle utilisée pour imiter parfaitement les PDG et les dirigeants d’entreprises qui donnent des ordres à leurs subordonnés.

Ce sont des attaques qui peuvent avoir un effet dévastateur. Par exemple, en 2021, les cybercriminels ont utilisé le clonage de la voix de l’IA pour imiter le PDG d’une grande entreprise et ont induit le directeur de la banque de l’entreprise en erreur en transférant 35 millions de dollars sur un autre compte pour effectuer une « acquisition ».
Un incident similaire s’est produit en 2019. Un escroc a appelé le PDG d’une entreprise britannique en imitant le PDG de la société mère allemande de l’entreprise et en demandant un transfert urgent de 243 000 $ à un fournisseur hongrois.

Un phénomène non seulement inquiétant, mais également envahissant : selon le World Economic Forum, le nombre de vidéos deepfake en ligne augmente en effet à un taux annuel de 900 %.

Pour effectuer une attaque d’hameçonnage par deepfake, les pirates utilisent l’intelligence artificielle et l’apprentissage automatique pour traiter un large éventail de contenus, y compris des images, des vidéos et des clips audio. Avec ces données, ils créent une imitation numérique d’un individu.

L’un des meilleurs exemples de cette approche a eu lieu au début de cette année.
Les pirates ont généré un hologramme deepfake de Patrick Hillmann, directeur de la communication de Binance, en prenant le contenu des interviews passées et des apparitions dans les médias.

Avec cette approche, les acteurs des menaces peuvent non seulement imiter les attributs physiques d’un individu pour tromper les utilisateurs humains via l’ingénierie sociale, mais également ignorer les solutions d’authentification biométrique.

De nombreux analystes ne sont pas optimistes sur le sujet. Ils prédisent que l’augmentation de l’hameçonnage par deepfake se poursuivra et que les faux contenus produits par les criminels deviendront de plus en plus sophistiqués, convaincants et difficiles à détecter.
En bref, bien que cette technologie fasse déjà des victimes, nous sommes encore aux premiers pas d’une forme d’hameçonnage qui va prendre de plus en plus d’ampleur et se répandre comme une tache d’huile, au risque de laisser derrière soi frustration et désolation.


Le rôle de la formation

L’un des principaux moyens de dissuasion contre ce type d’attaques est sans aucun doute d’intégrer cette menace dans les programmes de formation des entreprises sur la cybersécurité.

Malheureusement, la plupart des entreprises, en particulier en Italie, sont loin derrière sur ce front et ne semblent pas encore avoir bien compris la gravité de la situation dans laquelle nous sommes tous plongés. La vérité est que personne, surtout dans le monde professionnel, ne peut plus se permettre d’ignorer la menace que représentent les deepfakes.
Les utilisateurs doivent être en mesure d’identifier les signaux d’alarme courants, tels que l’absence de synchronisation entre le mouvement des lèvres et l’audio, ou de découvrir les indicateurs tels que les distorsions, les déformations ou les incohérences dans les images et les vidéos. Ils doivent non seulement avoir ces connaissances théoriques, mais aussi constamment s’entraîner à reconnaître les signaux suspects. Cela implique un travail constant de formation. Le concept est que pour être en sécurité, vous devez avoir une longueur d’avance sur le pirate et pour ce faire, vous devez courir très vite. Nous ne parlons pas d’amateurs, mais de vrais marathoniens de la cybercriminalité. Ce n’est pas un objectif impossible à atteindre comme cela peut paraître, bien au contraire.
L’important est d’étudier, de connaître, de s’entraîner et d’être toujours sur la bonne voie.

ISCRIVITI ALLA NEWSLETTER

Articoli correlati

Deepfakes : certains les reconnaissent

Deepfakes : certains les reconnaissent

Ce n'est pas seulement une mauvaise nouvelle, c'est aussi une reconnaissance Deepfake il existe une solution. Un grand paradoxe aujourd'hui est que si le Net est devenu notre principale source d'information, le Net lui-même peut devenir l'un des principaux outils de...

lire plus