Affaire Epstein : quand les deepfakes générés par IA sèment la confusion
Alors que le ministère américain de la Justice a publié plus de 3,5 millions de pages de documents liés à l'affaire Jeffrey Epstein, une vague de fausses images générées par intelligence artificielle déferle sur les réseaux sociaux, ciblant des personnalités politiques et les associant frauduleusement au prédateur sexuel décédé en 2019.
Selon l'organisme américain de surveillance de la désinformation NewsGuard, sept images fabriquées par IA ont collectivement dépassé les 21 millions de vues sur X, anciennement Twitter. Parmi les victimes de cette manipulation numérique figurent Zohran Mamdani, le nouveau maire de New York, et Maria Corina Machado, figure de l'opposition vénézuélienne.
Dans le cas de Mamdani, des utilisateurs conservateurs ont diffusé des clichés montrant la cinéaste Mira Nair, sa mère, posant avec lui enfant aux côtés de Jeffrey Epstein. Une fabrication totale, selon NewsGuard, qui a utilisé l'IA Gemini de Google pour détecter un « SynthID », un filigrane invisible destiné à identifier les contenus générés par intelligence artificielle.
Le rôle controversé de Grok dans la désinformation
L'affaire prend une tournure particulièrement préoccupante avec l'implication du chatbot Grok, propriété d'Elon Musk. Alex Jones, animateur radio américain et propagateur de théories du complot, a publié l'une de ces fausses images en affirmant que Grok l'avait « qualifiée de réelle ». Cette publication a dépassé 1,5 million de vues, amplifiant considérablement la désinformation.
Pour Maria Corina Machado, une image la plaçait au Hampton Classic Horse Show de 2002 aux côtés d'Epstein. Une recherche d'image inversée a révélé qu'il s'agissait en réalité d'une photo manipulée montrant à l'origine un homme d'affaires américain. L'outil de détection HiveModeration a estimé à 90,1% la probabilité que cette image contienne du contenu généré par IA.
Cette vague de deepfakes survient dans un contexte particulier. Le 30 janvier 2026, le département de la Justice américain a publié une nouvelle salve de documents issus des fichiers Epstein, conformément à l'Epstein Files Transparency Act signé par le président Trump en novembre 2025.
La justice américaine alerte sur les risques de manipulation
Face à cette déferlante de faux contenus, le ministère américain de la Justice a lui-même averti que les dossiers publiés « pouvaient contenir des images, des documents ou des vidéos faux ou présentés de manière trompeuse ». Un avertissement qui illustre la complexité nouvelle que représente l'authentification des preuves à l'ère de l'IA générative.
Jeffrey Epstein, financier américain accusé d'avoir exploité sexuellement plus d'un millier de femmes et de mineurs entre les années 1990 et 2000, s'est suicidé en prison en 2019 avant son procès. Les documents déclassifiés impliquent plusieurs personnalités internationales, dont des figures françaises au cœur du scandale.
Cette situation pose une question fondamentale sur la sécurisation de la preuve numérique. Alors que des technologies comme SynthID permettent de traquer les contenus artificiels, les outils de génération d'images évoluent plus rapidement que les garde-fous censés les encadrer. Les plateformes sociales, X en tête, peinent à contenir cette prolifération de faux qui empoisonne le débat public et porte atteinte à la réputation de personnes innocentes.