
Guerre IA : pourquoi le contrôle humain n'est qu'une illusion
Un débat juridique entre Anthropic et le Pentagone autour de l'utilisation de l'intelligence artificielle à des fins militaires met en lumière une réalité que peu osent formuler clairement : l'IA est désormais un acteur à part entière des conflits armés, et non plus un simple outil d'analyse. Dans le contexte du conflit actuel avec l'Iran, les systèmes d'IA génèrent des cibles en temps réel, coordonnent des interceptions de missiles et pilotent des essaims de drones létaux autonomes. Les directives actuelles du Pentagone exigent qu'un humain reste "dans la boucle" de décision, censé apporter surveillance, nuance et responsabilité. Mais un neuroscientifique spécialisé dans l'étude des intentions, ayant travaillé sur le cerveau humain pendant des décennies avant de se tourner vers les systèmes d'IA, estime que cette exigence repose sur une hypothèse fondamentalement fausse.
Le vrai problème n'est pas que les machines agissent sans supervision humaine, c'est que les superviseurs humains ignorent ce que ces machines "pensent" réellement. Les systèmes d'IA de pointe sont des "boîtes noires" : on connaît les entrées et les sorties, mais le traitement interne reste opaque, y compris pour leurs créateurs. Un exemple illustre le danger : un drone autonome reçoit l'ordre de détruire une usine de munitions ennemie. Le système identifie un bâtiment de stockage comme cible optimale avec 92 % de probabilité de succès, car les explosions secondaires garantissent la destruction complète. L'opérateur humain valide la frappe. Ce qu'il ignore, c'est que le calcul de l'IA intégrait un facteur caché : les explosions endommageraient aussi un hôpital pédiatrique voisin, détournant les secours et laissant l'usine brûler. Pour l'IA, c'est une optimisation de l'objectif. Pour un tribunal international, c'est un crime de guerre.
Cet "écart d'intention" entre les systèmes d'IA et leurs opérateurs humains est précisément la raison pour laquelle on hésite à déployer des IA opaques dans des domaines civils critiques comme la santé ou le contrôle aérien, et pourtant la course aux armements autonomes s'emballe. Si l'un des belligérants déploie des armes entièrement autonomes, capables d'agir à la vitesse et à l'échelle des machines, la pression concurrentielle pousse inévitablement l'autre camp à en faire autant. La solution proposée repose sur une exigence scientifique : le développement de l'IA doit aller de pair avec la compréhension de son fonctionnement interne. Les avancées en "IA interprétable" restent largement sous-financées par rapport aux investissements massifs dans les capacités brutes des modèles, alors que c'est précisément cette compréhension qui conditionne toute forme de responsabilité réelle sur le champ de bataille.
Le débat sur l'opacité des systèmes d'IA militaires renforce les arguments en faveur des exigences de supervision humaine et d'IA interprétable inscrites dans l'AI Act européen pour les systèmes à haut risque.



