ActualitésÉconomie

Des arnaques à l’IA menacent les entreprises, révèle un rapport

Un nouveau type d'arnaque à l'IA fait des ravages chez les entreprises. Des escrocs utilisent le deepfake pour dérober des millions en vendant de fausses réclamations liées à la faillite de FTX. Les autorités tentent de remonter la piste des fonds, mais...

Cela pourrait être le nouveau visage du crime financier à l’ère numérique. Selon un rapport de la société d’analyse de données Inca Digital, au moins deux entreprises anonymes auraient été escroquées de plusieurs millions de dollars par un ou des individus malveillants se faisant passer pour des créanciers de la firme de cryptomonnaies en faillite FTX. Mais le plus troublant est que ces escrocs auraient utilisé l’intelligence artificielle pour masquer leur identité lors de vidéoconférences avec leurs victimes.

Des réclamations légitimes utilisées comme leurre

D’après Inca Digital, le mode opératoire serait le suivant : le ou les malfaiteurs se présentaient comme détenteurs de réclamations de liquidation de FTX, dont le processus de remboursement des créanciers doit débuter sous peu. Pour appâter leurs cibles, ils mettaient en avant des données authentiques sur ces réclamations, probablement obtenues via des fuites en ligne ou des violations de données d’entreprises impliquées dans la procédure de faillite de FTX.

Grâce à cette apparente légitimité, ils auraient réussi à convaincre au moins deux entreprises de leur racheter ces créances pour plusieurs millions de dollars. Mais une fois les fonds empochés, impossible de mettre la main sur les réclamations promises. Le butin, estimé à au moins 5,6 millions de dollars, aurait ensuite été rapidement blanchi via des plateformes d’échanges de cryptomonnaies non-américaines comme Binance.

L’IA au service de l’usurpation d’identité

Mais l’élément le plus préoccupant de cette arnaque serait l’utilisation de l’intelligence artificielle pour tromper les victimes. En effet, lors des vidéoconférences, le ou les escrocs auraient eu recours à la technologie des « deepfakes », ces vidéos ultra-réalistes permettant de superposer un visage sur un autre. En l’occurrence, les malfaiteurs se seraient ainsi créé de fausses identités visuelles pour mieux berner leurs interlocuteurs.

Il est probable que cela arrive à plus de personnes que nous le pensons.

Adam Zarazinski, PDG d’Inca Digital

Selon le PDG d’Inca Digital Adam Zarazinski, il est urgent d’alerter sur ces nouvelles arnaques à l’IA qui risquent de se multiplier avec le début imminent des remboursements liés à la faillite de FTX. La société a d’ailleurs publié un rapport détaillé sur le sujet ce mardi pour avertir les potentielles futures victimes.

Une piste difficile à remonter pour les autorités

Outre les deepfakes, les escrocs auraient également utilisé de fausses pièces d’identité et donné de fausses adresses à Singapour pour brouiller les pistes. Les autorités américaines, qui ont été alertées, semblent peiner à remonter jusqu’à eux car les fonds ont rapidement été dispersés dans l’écosystème nébuleux des cryptomonnaies. Binance et les autres plateformes étrangères concernées n’ont pas encore indiqué si elles comptaient collaborer à l’enquête.

Ce nouveau type d’arnaque sophistiquée montre que la créativité des cybercriminels n’a pas de limite à l’ère de l’IA. Avec les milliards de dollars qui s’apprêtent à être débloqués dans le cadre de la liquidation de FTX, les tentatives d’escroquerie risquent de se multiplier dans les semaines à venir. Les experts appellent toutes les parties susceptibles d’être impliquées dans ces procédures à la plus grande prudence.

Récapitulatif de cette nouvelle menace

  • Des escrocs se font passer pour des créanciers de FTX et vendent de fausses réclamations de liquidation
  • Ils utilisent l’IA et les « deepfakes » pour usurper des identités lors de vidéoconférences
  • Au moins deux entreprises ont été escroquées de plus de 5 millions de dollars
  • Les fonds ont été rapidement blanchis via des cryptomonnaies sur des plateformes étrangères
  • Les autorités peinent à remonter la piste des malfaiteurs malgré le signalement

Malheureusement, l’utilisation malveillante de l’IA semble partie pour durer. D’après Adam Zarazinski, ces arnaques exploitent un angle mort des régulateurs. « Pour chaque opportunité, il y a aussi des malfaiteurs qui se cachent derrière », prévient-il. Avec le flou juridique qui entoure encore les cryptomonnaies et le Web3, nul doute que les cybercriminels continueront d’abuser de la crédulité des entreprises à coups de deepfakes et d’usurpation d’identité numérique.

Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.