
Avec l’amélioration des outils d’intelligence artificielle (IA), les usages se multiplient en entreprise. Mais les risques inhérents à l’utilisation de ces outils sont bien présents, alerte la DGSI dans une note, comme la divulgation de données confidentielles ou les biais et hallucinations.
Deepfake, fuite de donnée confidentielle, non prise en compte des biais algorithmiques… Dans sa note de décembre adressée aux entreprises, la DGSI alerte sur les risques d’ingérences étrangères liés aux outils d’intelligence artificielle (IA) en raison de comportements à risques ou de dérives. Ces risques, déjà clairement identifiés, continuent d’affecter les entreprises. La DGSI appuie donc son propos avec trois cas d’entreprises anonymisées.
Divulgation de données confidentielles
Une multinationale française a vue des salariés utiliser «un outil d’IA générative grand public développé par une société étrangère» pour traduire des documents confidentiels. Ces salariés utilisaient l’outil de façon régulière pour diverses tâches. Derrière ces usages il existe un risque réel de fuite de données : les versions gratuites des outils d’IA génératives utilisent les données fournies par les utilisateurs pour entraîner leurs modèles. Samsung l’a par exemple appris à ses dépens peu après le lancement de ChatGPT par OpenAI. L’entreprise coréenne a découvert que des données sensibles, comme du code source, ont été divulguées par des employés de la société utilisant ChatGPT.
D’autres risques sont inhérents à l’utilisation de ces agents conversationnels, rappelle la DGSI. D’une part, les données des utilisateurs versées dans ces outils sont souvent stockées dans des serveurs à l’étranger et donc soumises à des lois étrangères. D’autres part, la connexion des applications d’IA générative à des outils externes, via des API ou des plugins, souvent moins sécurisés, augmente les vulnérabilités et favorise les cyberattaques.
Pour pallier ce problème, les entreprises peuvent développer des outils internes ou souscrire aux abonnements proposés par les offreurs de solutions. Mais surtout, il faut former les salariés à ces risques car la pratique du «shadow IT», soit l’usage d’outils d’IA sans en informer son entreprise, est persistante.
Multiplication des risques de deepfake
La DGSI évoque aussi le cas d’une entreprise victime d’une tentative d’escroquerie par l’usage de l’IA. Le visage et la voix de dirigeant ont été usurpés et copiés pour passer un appel vidéo au responsable d’un site industriel de ce groupe. Ce dernier est devenu méfiant lorsque l’appelant lui a demandé de procéder à un transfert de fonds. Il a alors alerté la direction de la société qui a confirmé la tentative d’escroquerie par deepfake.
Si le nom de l’entreprise concernée n’est pas divulgué, cette histoire fait écho à une tentative similaire racontée à L’Usine Nouvelle par le cuisiniste Schmidt. Son directeur des systèmes d’information Daniel Freyd relate «une arnaque au président avec usurpation de l’identité de [notre] directeur général». L’escroc a contacté le comptable de Schmidt via Whatsapp mais ce dernier a rapidement détecté l’arnaque et appelé la sécurité informatique.
«Nous avons assisté aux échanges et cela était impressionnant car c’était un appel vidéo avec usurpation de l’image et de la voix, détaille Daniel Freyd. Et c’était il y a deux ans déjà.» L’entreprise a déposé plainte. Son directeur des systèmes d’information rappelle alors l’importance de la prévention et de la formation auprès des salariés. «Il faut parler de ces risques et faires des tests», ajoute-t-il.
Dans sa note la DGSI liste d’autres risques de cyberattaques favorisées par l’utilisation d’outils d’IA comme la génération automatique de contenus malveillants (phishing, faux sites web, etc.), la personnalisation rapide des attaques, l’empoisonnement de données, etc.
Sensibilisation des Français
Enfin, le dernier cas concerne une société ayant entièrement délégué l’évaluation de ses potentiels partenaires commerciaux à un outil d’IA développé par une entreprise étrangère. Cet exercice de due diligence vise à limiter les risques financiers, juridiques et réputationnels. Mais l’entreprise s’est fiée uniquement aux évaluations de cet outil sans prendre en compte les biais et hallucinations inhérents aux modèles d’IA. En outre, la DGSI rappelle que «les IA formulent leurs résultats sur la base de la réponse la plus probable à apporter statistiquement parlant et pas nécessairement la plus pertinente, ni exacte, dans le contexte de la question posée».
Pour limiter l’ensemble de ces risques inhérents aux outils d’IA, la DGSI dresse une liste de recommandations génériques comme favoriser l’usage d’outils d’IA français, privilégier l’utilisation de solutions en local et former les équipes. Concernant l’IA générative, elle ajoute des bonnes pratiques, comme ne pas leur soumettre des données personnelles ou encore faire preuve de vigilance quant aux réponses apportées par ces outils et face aux risques de manipulations de l’information. La sensibilisation des salariés, et plus largement de l’ensemble des Français, est primordiale.


