
L’intelligence artificielle (IA) est déjà en mesure de décider d’agir, mais le monde n’ose pas permettre que l’être humain soit marginalisé lorsqu’il s’agit de prise de décision militaire, selon le Dr Robin Blake du Département de sciences politiques de l’Université de Pretoria.
S’exprimant lors du premier jour de la conférence Africa Aerospace and Defence (AAD) 2024 sur la guerre future, organisée par defenceWeb, Blake a déclaré qu’il existait des applications dans lesquelles l’IA pourrait être exceptionnellement utile. En utilisant la boucle OODA (Observe, Orient, Decide and Act) du colonel de l’US Air Force John Boyd, conçue par le commandant des pilotes de chasse pendant la guerre de Corée pour développer la prise de décision au combat, Blake a déclaré que la capacité de l’IA à collecter des données, à les traiter et à reconnaître des modèles, prédisant potentiellement ce qui allait se passer, pourrait accélérer considérablement le processus.
Cependant, les humains devaient être impliqués dans la décision de savoir quoi faire et comment agir, car l’IA ne pouvait fournir ni l’intuition ni le contexte émotionnel qui étaient si essentiels pour comprendre les conséquences des actes de guerre.
« L’élimination des humains ne répond pas à la compréhension contextuelle de la complexité et de l’imprévisibilité de la situation », a-t-il déclaré.
Dans les situations critiques, l’intuition et l’expérience humaines étaient de plus en plus importantes pour prendre la bonne décision, ce que l’IA ne pouvait pas encore aider car elle n’avait pas encore la capacité de comprendre les émotions.
Ainsi, les décisions prises uniquement par l’IA pourraient être sujettes à des biais algorithmiques et hérités, conduisant à une mauvaise interprétation des données et à une mauvaise identification des cibles. Un autre risque était le manque de données sur le terrain, ce qui entraînait la compromission de données fiables et en temps réel et l’utilisation de données insuffisantes ou erronées par le modèle d’IA pour tirer des conclusions.
L’IA, a-t-il ajouté, est cependant bien placée pour aider à soutenir les décisions prises par les humains, en simulant des scénarios dans lesquels des décisions doivent être prises et en produisant des évaluations des risques.


