Deepfakes, voix clonées, faux collègues sur les messageries, une menace cyber que les entreprises n’arrivent plus à contenir
📩 Pour nous contacter: redaction@fw.media
Un agent du help desk décroche un appel, la voix se présente comme celle de Sara, paraît pressée, évoque un incident récent, cite des projets internes tout en adoptant les tournures familières que Sara emploie d’ordinaire. Elle sollicite une simple réinitialisation de mot de passe, rien ne semble inhabituel, pourtant, ce n’est pas Sara au bout du fil.
L’usurpation demeure le mécanisme central de l’ingénierie sociale. Près de 60 % des attaques de ce type s’appuient sur une imitation d’employé, de prestataire ou de responsable hiérarchique. Ce qui change aujourd’hui tient à la vitesse et à la précision avec lesquelles ces imitations peuvent être préparées. Les attaquants exploitent des outils d’IA pour agréger des éléments de voix, de langage, de comportements et de références internes. Ils n’ont pas toujours besoin d’un clone vocal, il leur suffit d’être crédibles, dans un échange conçu pour paraître ordinaire.
Les données récentes éclairent cette évolution. Le Data Breach Investigations Report 2024/25 indique que 68 % des brèches impliquent un facteur humain non malveillant, et qu’environ 17 % des violations confirmées reposent sur l’ingénierie sociale. Les attaquants ciblent moins les systèmes que les interactions, en profitant de la fragmentation des environnements collaboratifs.
Car nous travaillons simultanément par email, Slack, Teams, Zoom, WhatsApp et via des systèmes internes de tickets. Et les repères de confiance se dispersent entre ces espaces: un DM Slack évoquant une urgence, un appel Teams avec une caméra désactivée, un message mêlant références internes et ton familier peuvent franchir des contrôles qui, techniquement, n’ont détecté aucune anomalie. Le DBIR relève d’ailleurs que près de 30 % des incidents liés aux tiers ou aux chaînes d’approvisionnement émergent désormais dans ces outils collaboratifs plutôt que dans la messagerie.
Les défenses existantes détectent difficilement ces attaques, car elles ont été conçues pour analyser des contenus (liens, pièces jointes, charges malveillantes) et non la cohérence identitaire d’une interaction. Les plateformes de communication n’intègrent pas de mécanismes robustes de vérification de l’identité réelle de leurs utilisateurs. Ainsi des comptes compromis, des alias proches d’identités existantes, des sessions détournées ou des comptes nouvellement créés sont autant de manoeuvre qui peuvent se fondre dans le trafic normal, et les attaques actuelles combinent souvent plusieurs vecteurs conjuguant la collecte automatisée d’informations, l’imitation de l’employé, puis l’impersonation du service IT pour amener un collaborateur à installer un outil d’accès à distance.
La voix n’est d’ailleurs plus un repère fiable, car les imitateurs reproduisent le rythme, les hésitations, voire des fragments audio collectés, et l’analyse du flux audio ne suffit plus à distinguer l’authenticité d’une interaction.
Cette fragmentation du signal de confiance doit amèner à se dire non pas “ce message est-il suspect ?”, mais “cette conversation peut-elle être considérée comme fiable ?”. C’est cette interrogation qui guide la démarche d’Imper.ai, une startup israélienne. La société vise à fournir un signal de risque en temps réel à partir d’indicateurs difficiles à falsifier : empreintes d’appareils, dynamique réseau, cohérences comportementales.
Imper.ai annonce une levée de 18,7 millions d’euros (22 millions de dollars) en serie A menée par Redpoint Ventures et Battery Ventures, avec la participation de Maple VC, Vesey Ventures et Cerca Partners. La société avait levé 5,5 millions d’euros (6,5 millions de dollars) six mois plus tôt. Fondée en 2024 par Noam Awadish, Anatoly Blighovsky et Rom Dudkiewicz, tous issus de l’unité 8200, Imper.ai développe une plateforme de prévention de l’usurpation en temps réel à partir de signaux contextuels, comportementaux et réseau.
- Connaissez-vous MIMI ROBOTICS, la spin-off de l’ETH Zurich qui veut développer la main robotisée la plus avancée au monde ? - 05/12/2025
- Deepfakes, voix clonées, faux collègues sur les messageries, une menace cyber que les entreprises n’arrivent plus à contenir - 05/12/2025
- Après l’euphorie des GLP-1, les investisseurs misent sur les parcours structurés : que vaut réellement l’approche de la startup ANNETTE ? - 05/12/2025






