
Alda Mari, directrice de recherche du CNRS à l’Institut Jean Nicod, est lauréate de la médaille de l’innovation 2025 du CNRS pour l’implémentation de ses travaux en linguistique formelle dans le logiciel Intact de détection et d’évaluation des crises écologiques. Par l’analyse sémantique des réseaux sociaux, ce logiciel détecte les situations de crises environnementales et aide à cibler la réponse humanitaire appropriée.
L’Usine Nouvelle – Vous être lauréate de la médaille de l’innovation 2025 du CNRS pour vos travaux implémentés dans le logiciel Intact. Pouvez-vous expliquer à quoi sert ce logiciel ?
Alda Mari – Intact est né suite à un appel du ministère de l’Intérieur en 2017, soit deux ans après les attentats. Le colonel à la tête du projet avait conscience que les réseaux sont une mine d’informations. Intact est un outil de veille sur ces réseaux sociaux pour les crises écologiques ou les désastres naturels, qui opère avant, pendant et après la crise. Le but est de comprendre tout ce qui a trait à ces événements prévus, comme les tempêtes et les ouragans, ou non prévus, comme un incendie.
Pendant la crise, cela aide à définir quels secours envoyer, où et quand. Les gens sont extrêmement coopératifs. Il y a une efficacité discursive de la part des personnes qui postent sur les réseaux sociaux. Nos modèles conçus pour des conversations coopératives s’appliquent tels quels. À la fin de la crise, Intact aide à évaluer l’action des pouvoirs publics. Mais les discours sur les réseaux sociaux se délitent un peu et on entre dans de la subjectivité.
Pouvez-vous détailler les modèles d’IA derrière ce logiciel ?
C’est un logiciel de traitement du langage naturel. Mais là où les logiciels classiques repèrent des mots clés, Intact se focalise sur l’ensemble du message ainsi que les implicites. Notre logiciel se base sur différents types de contenus pour définir des postes d’intérêt et détecter l’urgence dans les crises écologiques lorsqu’elle n’est pas dite. Par exemple, si quelqu’un dit «ma fille est sous les décombres» il faut réussir à comprendre l’urgence dans cette phrase, sans qu’aucun des mots pris séparément ne la dise.
Comment faire le lien avec vos propres recherches ?
Depuis 2013, je travaille sur des notions qui ont trait à la vérité et à l’évaluativité. Toute ma recherche consiste à définir un modèle pour la subjectivité et de l’évaluativité en tant qu’appréciation subjective de la réalité. Cette appréciation se détecte à travers les structures syntaxiques, les structures sémantiques ou les structures prosodiques. Les êtres humains sont très sensibles aux informations associées aux marqueurs de subjectivité et, dans notre recherche théorique, nous en avons proposé des modèles formels. Sur les réseaux sociaux, nous analysons le texte uniquement et nous avons adapté ces modélisations pour l’encodage d’un logiciel : nous les avons systématisées, simplifiées et appliquées à ces discours. L’Institut de recherche en informatique de Toulouse et son enseignante-chercheuse Farah Benamara ont contribué au développement du logiciel.
Ces modèles peuvent-ils être utilisés au-delà des crises écologiques ?
Nous entraînons l’IA à prendre en compte des crises qui ne sont pas écologiques à proprement parler, mais qui concernent l’environnement dans lequel nous vivons. Par exemple, nous avons travaillé sur l’éboulement d’un immeuble à Marseille pour apprendre à l’IA à prendre en compte ces données ainsi que sur l’incendie de Lubrizol et ses conséquences. Et avec des acteurs intéressés par cette licence, nous menons une veille sur des marchés de Noël. A terme, ce logiciel pourrait aussi aider des industriels ou des entreprises. Les secteurs de l’assurance et des banques aiment avoir la vision de ce qui se passe sur certaines zones avant d’investir.
Est-ce que vous pourriez analyser la réputation d’une entreprise ?
Intact est lié à un aspect crise car c’est un cas dans lequel nous avons vraiment de la coopérativité, des faits très clairs. A l’inverse, la réputation d’une entreprise est quelque chose de subjectif et peut souffrir de la manipulation d’information, tout comme les opinions. Je débute des recherches sur la construction d’une opinion ou la manipulation. Le futur du traitement automatique du langage porte en grande partie sur ces sujets. Les situations d’incertitudes, comme les rumeurs ou les croyances, sont difficiles à gérer.
Deux étudiants travaillent sur ces sujets. L’une sur l’utilisation des preuves sur les réseaux sociaux : lorsque quelqu’un s’exprime, a t-il des preuves suffisamment fortes ? Comment sait-on si on a des preuves ou non ? L’autre, sur la différence entre des discours destinés à construire la vérité et ceux destinés à construire le consensus. Des discours véridiques ou des discours non-véridiques, c’est sur ça que portent mes recherches actuellement : essayer d’appliquer un modèle sur des vérités plus objectives et des vérités plus subjectives.


