À l’ère du numérique, le paysage des menaces de cybersécurité a évolué de manière spectaculaire, les cybermenaces générées par l’IA apparaissant comme une préoccupation importante pour les entreprises Ces menaces, alimentées par l’IA et l’apprentissage automatique, peuvent s’adapter, apprendre et exécuter des attaques avec une sophistication et une efficacité sans précédent
À titre d’exemple – et les dirigeants des secteurs de la construction et des transports du monde entier doivent commencer à y prêter attention – le groupe d’ingénierie britannique Arup a perdu environ 25 millions de dollars au début de 2024 après que des escrocs ont utilisé des « deep fakes » manipulés par l’IA pour se faire passer pour le directeur financier du groupe et demander à un employé d’effectuer des virements sur des comptes bancaires à Hong Kong (d’après le Financial Times)
En substance, comme le rapporte la police de Hong Kong, un employé a reçu un message prétendant provenir du directeur financier d’Arup – basé au Royaume-Uni – au sujet d’une « transaction confidentielle ». Après une vidéoconférence avec le faux directeur financier et d’autres employés générés par l’IA, l’employé a effectué un certain nombre de transactions sur cinq comptes bancaires à Hong Kong, avant de découvrir la fraude.
Falsification numérique hyperréaliste
Alors que les progrès technologiques rapides se poursuivent, l’essor des « deep fakes » générés par l’intelligence artificielle représente un défi de taille pour les entreprises du monde entier. Les deep fakes, qui comprennent des falsifications numériques hyperréalistes utilisant l’intelligence artificielle, peuvent manipuler le son, la vidéo et les images, donnant l’impression que des personnes disent ou font des choses qu’elles n’ont jamais faites. À mesure que la technologie qui sous-tend les deep fakes devient plus sophistiquée et plus accessible, la menace pour la sécurité des entreprises ne fait que croître.
Si les directeurs financiers n’accordent pas une grande importance à ce type d’incidents pour le moment, cela changera à mesure qu’ils deviendront plus fréquents. En tant que gardiens des clés financières d’une entreprise – et donc en tant que cibles potentielles de l’usurpation d’identité par des escrocs entreprenants – la sensibilisation est une première étape essentielle. L’ensemble du personnel doit être conscient des menaces telles que l’usurpation de l’identité de dirigeants et de l’impact qu’une telle fraude pourrait avoir sur les processus critiques de l’entreprise.
Lutter contre les risques
Pour se prémunir contre les contrefaçons profondes, les entreprises doivent renforcer leurs cadres de cybersécurité. La mise en œuvre de systèmes avancés de détection des menaces qui utilisent l’apprentissage automatique peut aider à identifier les « deep fakes » en analysant les incohérences dans les vidéos, le son et les images. Ces systèmes peuvent signaler les contenus suspects pour qu’ils fassent l’objet d’une enquête plus approfondie. En outre, les entreprises investiront probablement bientôt dans des méthodes d’authentification biométrique, telles que des systèmes de reconnaissance vocale et faciale conçus pour détecter les anomalies révélatrices de « deep fakes ».
Si la fraude en matière de cybersécurité n’est pas nouvelle, les entreprises des secteurs de la construction et du transport ont traditionnellement été plus lentes à s’y adapter, voire résistantes dans de nombreux cas. Cela dit, c’est exactement le moment pour les directeurs financiers de se sensibiliser le plus possible et de commencer à examiner de plus près les contrôles de la fraude qu’ils ont mis en place. Les directeurs financiers devraient réexaminer nombre de leurs processus opérationnels susceptibles de faire l’objet d’attaques de type « deep fake » et/ou de type « médias sociaux ». L’émergence de l’IA générative et des autres outils qui l’alimentent permet aux fraudeurs d’étendre massivement ces escroqueries, ce qui modifie effectivement l’économie de la fraude.
La formation des employés, comme toujours, est également cruciale pour lutter contre la menace des « deep fakes », tout comme l’élaboration de protocoles de vérification robustes.
En fin de compte, la protection de votre entreprise contre les « deep fakes » générés par l’IA nécessite une approche à multiples facettes – impliquant une technologie avancée, la formation des employés, les protocoles susmentionnés et une surveillance proactive. Mais en restant vigilantes et en mettant en œuvre des mesures de protection complètes, les entreprises peuvent atténuer les risques posés par les deep fakes et au moins se donner une chance de lutter contre les dangers émergents à l’ère numérique.
Leave a Reply