Ad image

quand votre téléphone devient un cheval de Troie

Service Com'
Lu il y a 7 minutes


Un raz-de-marée d’appels frauduleux déferle sur les smartphones : derrière ces voix familières ou alarmantes, une intelligence artificielle redoutablement efficace, manipulée par des cybercriminels. ZATAZ vous a filmé une attaque, en temps réelle !

Ils imitent les voix humaines à la perfection, vous appellent par votre prénom, savent pour votre colis, votre banque, votre opérateur… Ces appels, qui paraissent anodins ou urgents, sont en réalité des tentatives de piratage. La nouveauté ? Ils sont désormais dopés à l’intelligence artificielle. Ce n’est plus un hacker malhabile qui tente sa chance à l’autre bout du fil, mais une machine capable de simuler une conversation naturelle, de rebondir à vos réponses, et surtout, de vous manipuler.

ZATAZ a mis en lumière une attaque filmée en temps réel, démontrant avec un réalisme glaçant à quel point les technologies d’IA peuvent être détournées à des fins malveillantes. Une menace bien réelle, qui transforme chaque smartphone en une porte d’entrée potentielle vers nos données les plus sensibles.

Des attaques polymorphes qui évoluent à grande vitesse

Les escroqueries par téléphone, connues depuis des décennies, ont radicalement changé de visage. Jadis reconnaissables à leur accent robotisé ou à leur structure répétitive, elles adoptent désormais les codes du langage humain grâce à des IA vocales extrêmement performantes. Grâce à des modèles comme ElevenLabs ou Vall-E, des voix peuvent être clonées en quelques secondes avec seulement quelques extraits audio. Le résultat est stupéfiant : la voix d’un proche ou d’un conseiller bancaire peut être reproduite avec une fidélité troublante comme on vous le montre dans notre vidéo exclusive d’une attaque IA filmée en temps réelle [côté pirate].

Le but ? Instaurer la confiance. Une fois cette première barrière psychologique franchie, la machine engage la conversation, vous demande de confirmer des informations, ou vous pousse à cliquer sur un lien envoyé par SMS. Parfois, elle vous incite à installer une application prétendument sécuritaire, mais qui cache en réalité un malware capable de siphonner vos données bancaires ou de prendre le contrôle de votre appareil.

Veille ZATAZ : adoptée et approuvée par 96 % de nos abonnés !

« Le vrai danger, c’est la personnalisation du discours. L’IA est capable d’adapter son ton, ses mots, en fonction de vos réponses », explique un expert en cybersécurité de chez ZATAZ. Dans les vidéos publiées par le média spécialisé, on observe des attaques où l’IA interagit en temps réel, corrige ses erreurs, improvise. L’illusion est presque parfaite.

Une sophistication croissante grâce aux données volées

Pour que ces appels soient aussi ciblés, les pirates s’appuient sur des bases de données massives, récupérées illégalement via des fuites sur des sites marchands, des applications ou des services publics. Ces informations — numéros de téléphone, noms, adresses, préférences de consommation — sont ensuite injectées dans des algorithmes d’IA qui créent un profil psychologique et comportemental de la victime.

À partir de là, l’IA peut simuler une conversation crédible : elle sait où vous habitez, quel opérateur téléphonique vous utilisez, voire même le nom de votre conseiller bancaire. La frontière entre réel et virtuel devient floue, et la vigilance s’effondre.

ZATAZ alerte notamment sur une recrudescence d’attaques se faisant passer pour des services de livraison [repris dernièrement par les autorités et médias], dans lesquelles les victimes sont appelées pour « confirmer » un colis en attente. Une fausse urgence est créée, incitant l’utilisateur à cliquer rapidement sur un lien frauduleux ou à divulguer des informations personnelles.

Grâce à l’intelligence artificielle, un pirate peut aujourd’hui mener des attaques téléphoniques en masse, personnalisées, et d’une redoutable efficacité, sans jamais décrocher son téléphone.

Des attaques filmées en direct : la preuve par l’image

Pour éveiller les consciences, ZATAZ vient de publier sur sa chaîne Youtube une vidéo dans laquelle un expert du sujet simule un appels IA en temps réel. On y voit l’efficacité du système : la voix paraît humaine, les réponses sont naturelles, les hésitations même sont simulées.

Veille ZATAZ : adoptée et approuvée par 96 % de nos abonnés !

Dans l’une des séquences les plus troublantes, une IA se fait passer pour un employé de banque signalant un « comportement suspect » sur le compte d’une entreprise. L’appel semble crédible, le langage utilisé est celui des centres d’appels traditionnels. À l’autre bout du fil, la personne visée répond, posant des questions. L’IA les comprend. Le tout via une faux numéro de téléphone qui s’affiche dans l’écran !

Cette démonstration met en lumière un basculement inquiétant. Le piratage n’est plus réservé aux mails douteux ou aux SMS truffés de fautes d’orthographe. Il est vocal, interactif, intelligent.

Vers une guerre cognitive de l’information ?

Ce phénomène s’inscrit dans une tendance plus large : l’usage de l’IA à des fins de manipulation psychologique et de désinformation. Après les deepfakes vidéo, qui ont déjà semé le doute dans plusieurs contextes politiques, les deepcalls — ces appels vocaux artificiels — deviennent la nouvelle arme des hackers malveillants.

Certaines attaques expérimentales vont même plus loin : elles simulent la voix d’un enfant en détresse, appelant ses parents à l’aide, pour créer un choc émotionnel. Une stratégie odieuse mais redoutablement efficace, qui montre que la guerre cybernétique ne se joue plus uniquement sur les claviers, mais aussi dans nos émotions.

La démocratisation de l’IA, bien qu’extraordinaire dans ses apports pour la médecine, l’éducation ou l’industrie, ouvre aussi une brèche que les criminels n’ont pas tardé à exploiter. Et ce n’est qu’un début.

Vous voulez suivre les dernières actualités sur la cybersécurité ? Pour rester informé sur les enjeux de cybersécurité, abonnez-vous à la newsletter de ZATAZRejoignez également notre groupe WhatsApp et nos réseaux sociaux pour accéder à des informations exclusives, des alertes en temps réel et des conseils pratiques pour protéger vos données.



Source link

Share This Article
Laisser un commentaire