Pour planifier et exécuter les frappes qui pleuvent sur l’Iran depuis le 28 février, les Etats-Unis et Israël semblent avoir utilisé l’intelligence artificielle. C’est ce que rapporte notamment «The Guardian» ce mardi 3 mars, ainsi que les informations de «sources proches des opérations du Pentagone» réunies par le «Wall Street Journal» et le média Axios. «La rapidité et l’ampleur de la militarisation de l’IA par les USA font craindre une mise de côté de la prise décision humaine», s’inquiète le média britannique.
Depuis 2024, on sait que l’armée israélienne a utilisé plusieurs outils IA – ses logiciels «Evangile» et «Lavender» – pour surveiller et répertorier une liste de milliers de cibles stratégiques à éliminer à Gaza, car supposément liées au Hamas ou au Jihad islamique palestinien. Quant aux Etats-Unis, ils se seraient servis de Claude, l’IA conversationnelle d’Anthropic, pour «raccourcir la chaîne de destruction», c’est-à-dire identifier la cible stratégique visée et faire approuver administrativement et juridiquement la frappe plus rapidement que ne pourrait le faire l'humain.
Anthropic fait face à Trump
Anthropic est pourtant en conflit ouvert avec le gouvernement américain depuis quelques jours. Pour des raisons d’éthique, l’entreprise a décidé de ne pas laisser le Pentagone utiliser son IA à des fins de surveillance de masse ou pour automatiser des attaques mortelles.
Conséquence? Donald Trump a annoncé vendredi dernier sa décision de «ne plus faire affaire» avec Anthropic à l’issue d’une période de transition de six mois. «Leur égoïsme met en danger des vies américaines, nos troupes et la sécurité nationale», a accusé le président des Etats-Unis sur son réseau social Truth. Il a ajouté, en majuscules: «Les Etats-Unis ne laisseront jamais une entreprise de gauche radicale et woke dicter à notre grande armée comment combattre et gagner des guerres!»
Ciblage assisté ou décidé par l’IA
C’est justement la manière qui interroge. Les spécialistes interrogés par le «Guardian» estiment que cette technologie permet aux armées d’accélérer considérablement la sélection des cibles à bombarder, en traitant d’importantes quantités de données en très peu de temps. L’Iran a également confirmé en 2025 utiliser l’IA dans l’identification de cibles pour ses missiles et ses drones. C’est vraisemblablement toujours le cas, même si ses capacités technologiques restent limitées.
Professeur d’éthique, de technologie et de société à l’université Queen Mary de Londres, David Leslie y voit le signe d’une «nouvelle ère de la stratégie et des technologies militaires». Il exprime au «Guardian» son inquiétude de voir les humains chargés de ces frappes être détachés des conséquences et faire preuve de «déchargement cognitif» au profit de la machine à laquelle l’effort de réflexion est laissé.
Les frappes américaines et israéliennes ont certes atteint leur cible principale: le Guide suprême Ali Khamenei et plusieurs hauts responsables et membres des Gardiens de la Révolution ont été tués. Mais une frappe qui leur est attribuée a aussi touché une école de jeunes filles au sud, tuant au moins 165 personnes dont de nombreux enfants, selon le bilan de l’Iran. Ni les Etats-Unis, ni Israël n'ont confirmé cette frappe, et le secrétaire d'Etat américain Marco Rubio a indiqué que le Pentagone menait une enquête.
Une attaque qualifiée par l'UNESCO de «grave violation du droit international humanitaire». L'ONU rappelle qu'«en droit international humanitaire, les établissements scolaires sont considérés comme des biens civils et bénéficient d’une protection renforcée». Quant à la riposte de la République islamique, elle a fait plusieurs victimes, dont des civils: plus de 13 dans les pays du Golfe et au moins neuf en Israël, à l'heure actuelle.
Concurrence sur l’effort de guerre
Pour Anthropic, le contrat avec le ministère de la Défense ne représentait que 200 millions de dollars, soit une fraction du chiffre d’affaires de la société californienne – 14 milliards de dollars en rythme annualisé. Mais après le clash avec le gouvernement américain, la société mère de Claude a perdu plusieurs partenariats avec d’autres services de l’administration Trump.
Son concurrent Open AI, à l’origine de ChatGPT, s’est faufilé dans la brèche vendredi, en signant un accord avec le Pentagone pour l’utilisation de ses outils à des fins militaires. En réaction, plusieurs internautes ont lancé un mouvement de boycott et de désabonnement du logiciel. Ce lundi 2 mars, le CEO d’Open AI Sam Altman a annoncé une série de modifications dans les termes de ce contrat, sans pour autant évoquer de limites à l’utilisation dans une guerre extérieure.
«Nous avons travaillé avec le ministère de la Guerre pour ajouter quelques éléments à notre accord afin de clarifier nos principes», a écrit le patron sur X. Selon le patron de ChatGPT, un des ajouts stipule que les systèmes d’Open AI ne doivent pas être utilisés «intentionnellement» à des fins de «surveillance» des citoyens américains et qu’ils «ne seraient pas utilisés par les agences de renseignement du ministère de la Guerre», notamment l’Agence de sécurité nationale américaine (NSA).