L’arrestation d’un délinquant sexuel grâce à la reconnaissance faciale et l’Intelligence Artificielle relance un débat explosif sur les libertés individuelles et les biais technologiques.
Rejoignez-nous sur vos réseaux sociaux
Aucun spam. Désinscription en un clic. Votre vie privée est respectée.
En janvier dernier, une opération de reconnaissance faciale en direct menée dans le sud-est de Londres a permis l’arrestation d’un homme de 73 ans, David Cheneler, un délinquant sexuel fiché, alors qu’il se trouvait en compagnie d’une fillette de six ans. L’homme, en violation flagrante de son ordre de prévention des infractions sexuelles (SOPO), portait également un couteau. Repéré par des caméras LFR (Live Facial Recognition) déployées par la police métropolitaine, Cheneler a été interpellé rapidement, mettant fin à une situation potentiellement dramatique. Cette affaire, relayée par la BBC, illustre l’efficacité redoutable de la technologie mais soulève aussi de vives inquiétudes sur ses dérives potentielles.
Le recours à la reconnaissance faciale en temps réel est en train de redessiner les contours du maintien de l’ordre au Royaume-Uni. Mis en œuvre de manière ciblée par la Metropolitan Police, le dispositif repose sur un système d’algorithmes ultra-performants développés pour repérer des visages correspondant à une liste de personnes recherchées. Les images vidéo captées dans les zones surveillées sont immédiatement comparées à cette base de données. Si une correspondance est identifiée, une alerte est envoyée aux agents sur le terrain, qui interviennent ensuite. Dans le cas contraire, la promesse officielle est que les images sont effacées aussitôt.
Le système permet de repérer un visage dans une foule dense avec une précision que l’œil humain ne peut égaler, vante la police.
L’arrestation via l’IA et une caméra
L’arrestation de David Cheneler est un exemple frappant de ce que peut accomplir cette technologie dans la lutte contre la criminalité. L’homme, déjà condamné pour des faits similaires, n’avait légalement pas le droit de se trouver seul avec un enfant. Pourtant, il se promenait avec une fillette de six ans dans une zone publique lorsqu’il a été identifié par le logiciel. Sa détention a ensuite révélé la possession d’une arme blanche. À la suite de son arrestation, il a plaidé coupable pour violation de son SOPO et port illégal d’arme, écopant d’une peine prononcée par le tribunal de Kingston.
Mais au-delà de ce succès retentissant, l’utilisation de la reconnaissance faciale, notamment en temps réel, divise l’opinion publique et inquiète les défenseurs des droits civiques. L’outil est puissant, mais pas infaillible.
Plusieurs études, notamment celles menées par le NIST (National Institute of Standards and Technology) aux États-Unis, ont révélé des taux d’erreurs préoccupants, surtout lorsqu’il s’agit de personnes non blanches, de femmes ou de personnes âgées. Ces biais algorithmiques, souvent enracinés dans la manière dont les données d’apprentissage ont été collectées, peuvent entraîner des erreurs dramatiques.
Les militants des droits numériques dénoncent le risque de glissement vers une société de surveillance permanente, où chaque mouvement dans l’espace public pourrait être scruté, analysé et stocké. Pour eux, la reconnaissance faciale ne devrait être utilisée qu’avec d’extrêmes précautions, dans des cas exceptionnels, et encadrée par une législation stricte. Actuellement, au Royaume-Uni, aucune loi spécifique ne régule de manière claire l’usage de cette technologie par la police, un flou juridique qui alimente les inquiétudes.
La reconnaissance faciale pourrait bien être l’outil du futur, mais elle repose aujourd’hui sur des fondations biaisées et opaques
Par ailleurs, l’absence de transparence sur le fonctionnement des algorithmes et les critères d’élaboration des fameuses « watchlists » – les listes de suspects – accentue les craintes. Qui décide de qui y figure ? Quels recours pour une personne faussement identifiée ? Et que devient exactement la donnée si aucune correspondance n’est trouvée ? Autant de questions auxquelles les autorités ne répondent que partiellement.
Le Royaume-Uni, pionnier européen dans le déploiement de la reconnaissance faciale en espace public, observe une croissance rapide de ces dispositifs, souvent expérimentés sans réelle concertation citoyenne. À Londres, des tests sont régulièrement menés dans des quartiers à forte densité de population, comme les gares, les centres commerciaux ou les zones touristiques. Officiellement, il s’agit de renforcer la sécurité et de prévenir les crimes graves. Mais dans les faits, le recours massif à l’IA dans la sécurité publique ouvre la voie à une surveillance omniprésente.
D’un point de vue éthique, le dilemme est profond. D’un côté, des cas comme celui de Cheneler démontrent l’impact positif immédiat de cette technologie sur la protection des victimes et la neutralisation de criminels dangereux. De l’autre, les risques de discrimination, d’arrestations abusives ou de flicage permanent d’une population déjà ultra sollicitée technologiquement posent de sérieux problèmes.
Des associations comme Big Brother Watch réclament un moratoire sur l’utilisation des caméras LFR en attendant qu’un cadre légal adapté soit instauré. Elles demandent également un débat public approfondi sur la proportionnalité de ces outils, leur efficacité réelle à grande échelle, et surtout leur compatibilité avec les droits fondamentaux des citoyens.
Un outil parmi d’autres
Pour les autorités britanniques, la technologie reste « un outil parmi d’autres » au service de la sécurité. Elles assurent que l’usage est limité, proportionné, et toujours précédé d’une évaluation d’impact sur les droits humains. Toutefois, les critiques estiment que ces garanties restent trop théoriques. Et surtout, elles n’empêchent pas les dérives, comme le montrent des cas documentés d’identifications erronées ayant conduit à des gardes à vue injustifiées.
L’Europe dans son ensemble n’est pas en reste. Alors que la France, l’Allemagne ou l’Italie s’interrogent aussi sur le recours à la reconnaissance faciale, la Commission européenne a amorcé une régulation plus contraignante dans le cadre de l’AI Act, qui pourrait interdire certains usages de cette technologie dans l’espace public. Mais les discussions sont encore en cours, et chaque pays adopte pour l’instant sa propre doctrine.
L’affaire David Cheneler agit donc comme un révélateur : elle illustre à la fois la puissance de l’intelligence artificielle appliquée à la sécurité, et la fragilité des garde-fous éthiques et juridiques qui devraient l’accompagner. À mesure que les algorithmes gagnent en précision, les marges d’erreur se réduisent, mais ne disparaissent pas. Et dans un contexte où la confiance dans les institutions est parfois ébranlée, chaque faux pas technologique peut coûter cher.
Alors que les caméras LFR se multiplient dans les rues britanniques, la société civile devra décider jusqu’où elle accepte d’être surveillée pour être protégée. Le progrès technologique est inévitable, mais son encadrement relève d’un choix démocratique. On ne peut que se féliciter de l’arrestation d’un prédateur d’enfant.
La reconnaissance faciale sauve-t-elle des vies ou nous vole-t-elle nos libertés ? Big brother is watching you ? N’hésitez pas à nous donner votre avis ci-dessous. [BBC]
Rejoignez-nous sur vos réseaux sociaux
Aucun spam. Désinscription en un clic. Votre vie privée est respectée.