Ad image

L’IA facilite la désanonymisation en ligne – ZATAZ.COM

Service Com'
Lu il y a 6 minutes


L’intelligence artificielle transforme la recherche d’identité derrière des comptes anonymes. Une étude montre que les grands modèles de langage peuvent relier des traces numériques dispersées et identifier leurs auteurs.

Les grands modèles de langage ne servent plus seulement à rédiger du texte ou résumer des informations. Une étude récente montre qu’ils peuvent également accélérer un travail classique du renseignement open source : la désanonymisation d’utilisateurs sur internet. Les chercheurs Simon Lerman et Daniel Paleka démontrent que ces systèmes sont capables d’analyser les publications d’un compte anonyme, d’en extraire des indices personnels, puis de rechercher des correspondances sur d’autres plateformes où l’utilisateur s’exprime sous sa véritable identité. Cette automatisation rend un processus autrefois long et technique beaucoup plus accessible. Les spécialistes estiment que cette évolution modifie profondément la notion de vie privée numérique.

Quand l’IA reconstitue l’identité derrière un pseudonyme

Dans leur expérience, les chercheurs ont fourni à un modèle de langage des publications issues de comptes anonymes. L’objectif consistait à collecter un maximum d’indices contenus dans les messages. Le système a ensuite comparé ces éléments avec d’autres informations accessibles publiquement sur internet.

Le principe repose sur l’agrégation de détails apparemment insignifiants. Un utilisateur peut évoquer ses difficultés scolaires et raconter une promenade avec son chien nommé Biscuit dans le parc Mission Dolores. Pour un lecteur humain, ces informations paraissent anodines. Pour un modèle de langage, elles constituent des signaux exploitables.

L’IA analyse ces éléments, identifie les mots clés, puis recherche des profils publics où apparaissent des références similaires. En croisant plusieurs indices, le système peut associer un compte anonyme à une identité réelle avec une probabilité élevée.

Les chercheurs soulignent que cette méthode ne nécessite aucun piratage informatique. Elle repose uniquement sur l’exploitation de données ouvertes. La puissance de calcul et la capacité d’analyse des modèles de langage permettent simplement d’assembler très rapidement les fragments d’information disponibles en ligne.

Selon Simon Lerman et Daniel Paleka, les grands modèles de langage ont franchi un seuil important. Ils rendent ces opérations non seulement réalisables à grande échelle, mais aussi économiquement viables. Des tâches qui demandaient auparavant un analyste expérimenté peuvent désormais être partiellement automatisées.

News & alertes actualités cyber

Enquêtes, cyberveille, fuites, actu sécurité : recevez nos informations cyber là où vous êtes, chaque vendredi midi.

L’OSINT de masse devient accessible

Cette évolution inquiète plusieurs spécialistes de la cybersécurité. Le travail d’analyse OSINT, c’est-à-dire l’exploitation de sources ouvertes, reposait jusqu’ici sur des compétences spécifiques et un investissement important en temps.

Avec l’intelligence artificielle, une grande partie de cette recherche peut être accélérée. Dans certains cas, un modèle accessible publiquement et une simple connexion internet suffisent pour effectuer des corrélations complexes.

Les chercheurs alertent sur les usages potentiels de cette technologie. Des cybercriminels pourraient s’en servir pour mener des campagnes de phishing particulièrement crédibles. En identifiant précisément une cible, un attaquant peut personnaliser un message frauduleux au point de lui donner l’apparence d’une communication authentique.

Les services gouvernementaux pourraient également exploiter ces outils pour surveiller des militants ou des individus cherchant à s’exprimer anonymement. L’automatisation de la désanonymisation faciliterait alors la surveillance à grande échelle.

Les chercheurs rappellent cependant que ces systèmes restent imparfaits. Les grands modèles de langage produisent encore des erreurs d’interprétation. Dans certains cas, ils peuvent déformer le sens d’une phrase ou relier des informations qui n’ont aucun lien réel.

Ce phénomène peut entraîner des faux positifs. Une personne pourrait être associée par erreur à un compte anonyme. Le risque devient particulièrement sensible lorsque les publications concernent des sujets politiques ou des accusations publiques.

La question dépasse d’ailleurs largement les réseaux sociaux. Les experts indiquent que d’autres bases de données ouvertes pourraient également être exploitées par ces méthodes. Des statistiques publiques, des registres administratifs, des dossiers d’admission ou encore certaines bases médicales anonymisées contiennent parfois suffisamment d’indices pour permettre une réidentification.

À l’ère des modèles d’intelligence artificielle, certaines techniques d’anonymisation pourraient donc devenir insuffisantes.

Pour limiter ces risques, les chercheurs recommandent aux plateformes numériques de restreindre plus strictement la collecte massive de données. Ils suggèrent notamment d’imposer des limites techniques au téléchargement d’informations, de détecter les opérations de web scraping automatisé et de contrôler plus fermement l’exportation de données utilisateurs.

Du côté des internautes, la recommandation reste simple. Les spécialistes conseillent d’éviter la répétition de détails personnels trop précis dans des publications publiques. Des éléments apparemment anodins peuvent, une fois regroupés, former un véritable profil numérique.

À mesure que les modèles d’intelligence artificielle progressent, la frontière entre anonymat et identification devient ainsi un nouveau terrain stratégique pour la cybersécurité et le renseignement.

Dernier exemple que ZATAZ vous propose : reconstituer le visage flooté d’une photographie. Dans un darkweb, un pirate diffuse les photographies d’anciens collégues. L’un des visages est flooté. L’un des prompts inventé par le Service de veille ZATAZ permet de reconstituer les images caviardées.



Source link

Share This Article
Laisser un commentaire