Combinez le terme « deep » (apprentissage profond) avec le terme « fake » (faux) et vous obtenez le terme « deepfake » (faux profond), une méthode qui utilise l’intelligence artificielle pour créer des images humaines, souvent avec une voix synchronisée sur les lèvres. Le résultat final peut être très convaincant, et l’intention est souvent d’usurper l’identité d’une célébrité ou d’un homme politique dans le but de les discréditer. Mais les dangers peuvent-ils être plus vastes ?
Il semble que ce soit le cas, notamment en ce qui concerne l’ingérence dans les élections. Facebook a déclaré en janvier qu’il supprimerait toutes les vidéos créées par l’IA et, l’année dernière, le Wall Street Journal a cité un cas particulièrement alarmant, impliquant une voix « clonée ».
Qui est au téléphone ?
Il a rapporté que le PDG d’une société d’énergie au Royaume-Uni avait été trompé en croyant qu’un appel de son patron de la société mère allemande était authentique. On a demandé à l’homme du Royaume-Uni de transférer d’urgence 220 000 euros sur un compte en Hongrie, ce qu’il a fait parce que l’interlocuteur avait la même voix que l’Allemand, à qui il avait parlé à plusieurs reprises auparavant. L’affaire a été relatée par l’assureur de la société, Euler Hermes, et son directeur général, Rüdiger Kirsch, a déclaré qu’il pensait que la technologie du piratage vocal avait été utilisée. Une fois le paiement effectué, il y a eu deux appels ultérieurs, l’un pour dire que le paiement n’avait pas été effectué et l’autre pour demander que le paiement soit transféré à nouveau. À ce moment-là, le PDG britannique a commencé à avoir des soupçons et a remarqué que l’appel provenait d’Autriche et non d’Allemagne. Mais il était trop tard, le premier paiement avait été effectué et on a découvert par la suite qu’il avait été rapidement transféré du compte hongrois vers un compte au Mexique, puis vers d’autres lieux. Les criminels qui disposent du savoir-faire nécessaire peuvent utiliser l’IA pour créer des sons synthétiques. Il existe également des outils d’IA appelés encodeurs et décodeurs qui peuvent aider à modifier les traits du visage – il existe même une application appelée Zao qui permet aux utilisateurs d’ajouter leur visage à une liste de personnages de télévision et de cinéma. Mais il ne s’agit pas simplement de ressembler à une célébrité, cette technologie pourrait permettre à des criminels ou peut-être même à d’anciens employés mécontents de créer des contenus malveillants qui pourraient être très préjudiciables.
Une préoccupation croissante
Par ailleurs, une enquête menée cette année auprès des responsables de la sécurité de l’information travaillant dans les services financiers a révélé que les deepfakes suscitaient une inquiétude croissante. L’étude menée par la société iProov, spécialisée dans les technologies biométriques, a révélé que 77 % de ces professionnels s’inquiètent de la possibilité d’une utilisation frauduleuse des deepfakes, les paiements en ligne et les services bancaires personnels étant considérés comme les plus menacés. Malgré cela, seuls 28 % d’entre eux ont pris des mesures. Selon Andrew Bud, PDG d’iProov,
« il est probable que si si peu d’organisations ont pris de telles mesures, c’est parce qu’elles ne sont pas conscientes de la rapidité avec laquelle cette technologie évolue. Les dernières imitations sont tellement bonnes qu’elles convaincront la plupart des gens et des systèmes, et elles ne feront que devenir plus réalistes.
»
Les décideurs s’inquiètent tout particulièrement de la possibilité que les imitations puissent compromettre les défenses de reconnaissance faciale. « L’époque où nous pouvions croire ce que nous voyions est révolue. Sans technologie pour nous aider à identifier les faux, toute image fixe ou animée deviendra, à l’avenir, suspecte », a déclaré M. Bud. Bien qu’il soit également impossible de contrôler totalement l’internet, il a été signalé que Google a publié des échantillons de deepfake pour permettre aux chercheurs de trouver des technologies de détection, tandis que Facebook et Microsoft collaborent avec des universités pour offrir des récompenses aux chercheurs qui développent des moyens de repérer et d’empêcher la diffusion de médias manipulés. Quant à la fraude vocale, elle est probablement la plus préoccupante pour les services financiers. Il est entendu que les piratages vocaux sont largement bloqués lorsque des humains prennent les appels, mais l’utilisation croissante de systèmes de reconnaissance vocale automatisés pourrait être plus facile à pénétrer. Il est donc temps que le secteur des services financiers se tienne sur ses gardes en formant son personnel, en procédant à des vérifications supplémentaires et en investissant dans des contre-technologies qui permettront d’intercepter les anomalies.