Un projet de loi bipartisan à Washington veut alourdir les peines pour les escroqueries et usurpations d’identité alimentées par l’IA, après une série d’affaires visant responsables et célébrités.
Ce nouveau projet de loi sur la dissuasion de la fraude par l’IA, déposé à la Chambre des représentants par Ted Lieu, élu démocrate de Californie, et Neal Dunn, républicain du Maryland, vise à adapter le droit pénal américain aux arnaques de nouvelle génération. Il prévoit de relever fortement les plafonds d’amendes et de peines de prison lorsque des outils d’intelligence artificielle servent à fabriquer des contenus audio, vidéo ou textuels trompeurs pour piéger victimes et institutions. Sur fond d’usurpations frappant sénateurs, ministres, diplomates, hauts responsables et figures de la culture populaire, ce texte traduit une inquiétude grandissante pour la sécurité nationale et l’intégrité des communications officielles, désormais menacées par des deepfakes accessibles au grand public.
Un arsenal pénal taillé pour l’ère de l’IA
Le projet de loi sur la dissuasion de la fraude par l’IA revoit à la hausse les sanctions pour plusieurs infractions classiques dès lors qu’un outil d’intelligence artificielle a servi à préparer l’escroquerie. L’objectif affiché est de transformer l’usage de l’IA en circonstance aggravante claire, pour envoyer un signal de dissuasion aux fraudeurs qui misent sur ces technologies pour rendre leurs scénarios plus crédibles.
Les auteurs du texte proposent ainsi de faire passer le plafond global des amendes pour des infractions comme la fraude postale, la fraude électronique, la fraude bancaire ou le blanchiment d’argent dans une fourchette comprise entre 1 et 2 millions de dollars. Si l’on retient, à titre d’hypothèse, un dollar valant environ 0,92 euro, cela représente entre 1 million $ (environ 0,92 million d’euros) et 2 millions $ (environ 1,84 million d’euros). Ce niveau place ces dossiers parmi les affaires pénales les plus lourdement sanctionnées en matière de criminalité financière lorsque l’IA est utilisée comme levier.
Le projet prévoit également d’étendre les peines d’emprisonnement, avec une nouvelle disposition visant explicitement les fraudeurs ayant eu recours à des outils assistés par l’IA pour produire des faux convaincants. Dans ces cas, la peine maximale pourrait grimper entre 20 et 30 ans de prison. Cette fourchette rapproche les escroqueries numériques dopées à l’IA de crimes traditionnellement sanctionnés très sévèrement, comme certaines formes de fraude massive ou de criminalité organisée. L’idée sous-jacente est que la capacité de ces outils à tromper en masse justifie un traitement pénal renforcé.
Le texte ne se limite pas aux arnaques financières génériques. Il cible spécifiquement les impostures visant à se faire passer pour des représentants du gouvernement. Les personnes qui utiliseraient l’IA pour usurper l’identité d’un responsable public pourraient être condamnées à une amende allant jusqu’à 1 million de dollars, soit environ 0,92 million d’euros sur la même base de conversion, assortie d’une peine pouvant atteindre trois ans de prison. Ce volet reconnaît le risque particulier que représente la falsification d’ordres, de messages ou d’instructions en provenance supposée de l’État.
Dans un communiqué, Ted Lieu résume l’enjeu en rappelant que « tant les citoyens américains ordinaires que les représentants du gouvernement » ont déjà été victimes de fraudes et d’escroqueries appuyées sur l’IA. Il insiste sur le double impact de ces escroqueries, potentiellement ruineuses pour les individus et dangereuses pour la sécurité nationale si des acteurs malveillants parviennent à se faire passer pour des responsables officiels. Le message politique est clair : l’IA ne doit pas devenir un multiplicateur d’efficacité pour les criminels sans réaction du législateur.
Des usurpations ciblant le cœur de l’État
Le projet de loi arrive après une succession d’incidents très médiatisés qui ont mis en lumière la facilité avec laquelle des individus non identifiés ont pu approcher, tromper ou imiter des personnalités de tout premier plan, vraisemblablement grâce à des outils d’IA vocale ou vidéo. Ces affaires jouent un rôle de déclencheur, en montrant que les menaces ne se limitent plus aux simples arnaques au grand public, mais touchent aussi les plus hauts niveaux de l’appareil d’État.
En mai, le Wall Street Journal a révélé qu’une enquête fédérale était en cours sur des appels téléphoniques et des messages frauduleux adressés à des sénateurs, des gouverneurs, des dirigeants d’entreprise et d’autres personnalités. Le cœur de la manœuvre reposait sur l’usurpation d’identité d’une proche de la Maison-Blanche, une personne se présentant comme Susie Wiles, chef de cabinet du président. Cette dernière aurait affirmé que son téléphone avait été compromis. Donald Trump a ensuite confirmé publiquement cette thèse, déclarant à la presse : « Ils ont piraté mon téléphone ; ils ont tenté de se faire passer pour moi. » Certains destinataires ont estimé que la voix entendue ressemblait à un clonage vocal généré par IA.
Moins de deux mois plus tard, un nouvel épisode vient conforter ces inquiétudes. Le département d’État alerte les diplomates sur des communications frauduleuses dans lesquelles un individu se fait passer pour le secrétaire d’État Marco Rubio. Cette usurpation prend la forme de messages vocaux, de SMS et de messages envoyés via Signal. Au moins trois ministres des Affaires étrangères, un sénateur américain et un gouverneur auraient reçu ces sollicitations, qui ressemblent à une tentative d’escroquerie. Là encore, l’IA semble avoir servi à reproduire voix et style de communication d’un haut responsable.
Ces épisodes s’ajoutent à une précédente opération visant déjà Marco Rubio. Plus tôt dans l’année, il a été la cible d’une vidéo truquée, un deepfake où il apparaît sur CNN comme intervenant, promettant de convaincre Elon Musk de couper l’accès au service Starlink pour l’Ukraine. Ce type de mise en scène construit de toutes pièces illustre le potentiel des deepfakes pour manipuler l’opinion, brouiller les signaux diplomatiques et semer le doute sur la réalité des prises de position publiques.
Pour les services de renseignement et les équipes de sécurité gouvernementales, ces cas représentent un triple défi. D’abord, la détection en temps réel de contenus falsifiés devient plus complexe lorsque la qualité des deepfakes s’améliore. Ensuite, l’attribution se complique : derrière une voix clonée se cache parfois un individu isolé, parfois une opération plus structurée. Enfin, la confiance dans les canaux habituels de communication s’en trouve fragilisée, ce qui oblige à repenser les procédures de vérification, de rappel et de confirmation des ordres, y compris entre responsables de haut niveau.
De Taylor Swift à Biden : la banalisation de l’IA frauduleuse
Les mêmes capacités techniques qui permettent d’imiter des responsables publics sont utilisées contre des figures de la culture populaire ou du monde politique. L’effet est différent, mais participe du même phénomène : la banalisation de contenus générés ou manipulés par IA à des fins d’arnaque, de chantage ou de propagande.
La chanteuse Taylor Swift a ainsi vu son image détournée dans divers montages, qu’il s’agisse d’arnaques, de pornographie ou d’attaques à caractère politique. Dans ce type de scénario, l’IA sert autant à multiplier les faux contenus qu’à renforcer leur réalisme, rendant plus difficile pour le public de distinguer authenticité et fabrication. Ces campagnes exploitent la notoriété de la cible pour maximiser portée virale et impact émotionnel, au détriment de la vie privée et de la réputation de la personne concernée.
Un autre cas emblématique concerne la voix de l’ancien président Joe Biden, clonée par une IA dans le cadre d’un stratagème orchestré par un consultant démocrate travaillant pour son rival Dean Phillips, avant la primaire présidentielle du New Hampshire en 2024. La manœuvre montre que l’outil ne se limite pas au crime organisé ou à des acteurs étrangers, mais peut aussi être employé dans un contexte de compétition politique interne. Quand une voix synthétique imitant un ancien président est utilisée pour influencer le comportement d’électeurs, c’est la confiance dans le processus démocratique qui se trouve directement visée.
Du point de vue de la cybersécurité et du renseignement, ces exemples convergent vers une même conclusion : l’IA abaisse les barrières techniques à l’usurpation d’identité à grande échelle. Là où il fallait autrefois des moyens sophistiqués pour falsifier une voix ou une vidéo, des outils largement accessibles permettent désormais de produire des contenus suffisamment convaincants pour tromper des responsables, des diplomates ou des millions de citoyens.
Le projet de loi porté par Ted Lieu et Neal Dunn entend répondre à cette réalité par la menace de sanctions plus lourdes. Mais la question reste de savoir si la dissuasion pénale suffira face à des outils qui se diffusent rapidement et peuvent être utilisés depuis n’importe où. L’application concrète de ces nouvelles peines dépendra aussi de la capacité des enquêteurs à prouver l’usage d’outils d’IA dans la préparation d’une fraude, ce qui suppose des compétences techniques renforcées et une coopération étroite avec les éditeurs de ces technologies.


