
Les progrès technologiques des drones utilisés en Ukraine ont accéléré une tendance qui pourrait bientôt amener les premiers robots de combat entièrement autonomes sur le champ de bataille, inaugurant une nouvelle ère dans la guerre.
Plus la guerre dure, plus il est probable que des drones seront utilisés pour identifier, sélectionner et attaquer des cibles sans assistance humaine , selon des analystes militaires, des combattants et des chercheurs en intelligence artificielle (IA) .
Cela signifierait une révolution dans la technologie militaire aussi profonde que l'introduction de la mitrailleuse. L'Ukraine dispose déjà de drones d'attaque semi-autonomes et d'armes anti-drones alimentées par l'IA. La Russie prétend également posséder des armes IA, bien que de telles affirmations ne soient pas prouvées. Mais il n'y a aucun cas confirmé d'une nation engageant des robots qui ont tué des humains en toute autonomie.
Les experts disent que ce n'est peut -être qu'une question de temps avant que la Russie ou l'Ukraine, ou les deux, ne les déploient.
"De nombreux États développent cette technologie", a déclaré Zachary Kallenborn, analyste de l'innovation en armement à l'Université George Mason. "De toute évidence, ce n'est pas si difficile."
Le sentiment d'inévitabilité s'étend aux militants, qui ont essayé pendant des années d'interdire les drones tueurs, mais estiment maintenant qu'ils doivent se contenter d'essayer de restreindre l'utilisation offensive de ces armes.

Le ministre ukrainien de la transformation numérique, Mykhailo Fedorov, convient que les drones létaux entièrement autonomes sont la « prochaine étape logique et inévitable » dans le développement des armes. Il a déclaré que l'Ukraine faisait "beaucoup de recherche et de développement dans cette direction".
"Je pense que le potentiel pour cela est grand dans les six prochains mois ", a déclaré Fedorov à l'Associated Press dans une récente interview.
Le lieutenant-colonel ukrainien Yaroslav Honchar, co-fondateur de la société d'innovation de drones de combat à but non lucratif Aerorozvidka, a déclaré dans une récente interview près des lignes de front que les combattants humains ne peuvent tout simplement pas traiter les informations et prendre des décisions aussi rapidement que les machines.
Les chefs militaires ukrainiens interdisent actuellement l'utilisation d'armes létales totalement indépendantes, bien que cela puisse changer, a-t-il noté.
"Nous n'avons pas encore franchi cette ligne, et je dis 'encore' parce que je ne sais pas ce qui se passera dans le futur", a déclaré Honchar, dont le groupe a été le fer de lance de l'innovation en matière de drones en Ukraine, transformant des drones commerciaux bon marché en armes mortelles.
La Russie pourrait obtenir une IA autonome de l'Iran ou d'autres pays . Les drones explosifs à longue portée Shahed-136 fournis par l'Iran ont endommagé des centrales électriques ukrainiennes et terrorisé des civils, mais ils ne sont pas particulièrement intelligents. L'Iran a d'autres drones dans son arsenal qui, selon lui, intègrent l'IA.
Sans trop de peine, l'Ukraine pourrait rendre ses drones semi-autonomes totalement indépendants pour mieux survivre aux brouillages électroniques sur le champ de bataille , selon les fabricants occidentaux.
Parmi ces drones figurent le Switchblade 600 de fabrication américaine et le Warmate de fabrication polonaise, qui nécessitent tous deux actuellement qu'un humain choisisse des cibles via un flux vidéo en direct. L'IA termine le travail. Les drones, techniquement connus sous le nom de «munitions flânantes», peuvent se cacher pendant plusieurs minutes au-dessus d'une cible, attendant un tir net.

« La technologie permettant de réaliser une mission totalement autonome avec le Switchblade existe déjà », précise Wahid Nawabi, PDG d'AeroVironment, son constructeur. Cela nécessitera un changement de politique - retirer les humains du circuit décisionnel - quelque chose qui, selon ses calculs, est dans trois ans.
Les drones peuvent déjà reconnaître des cibles, telles que des véhicules blindés, à l'aide d'images cataloguées. Mais il y a des désaccords sur la question de savoir si la technologie est suffisamment fiable pour garantir que les machines ne se trompent pas et ne tuent pas les non-combattants.
L' AP a demandé aux ministères ukrainien et russe de la Défense s'ils avaient utilisé des armes autonomes à des fins offensives et s'ils s'engageraient à ne pas les utiliser si l'autre partie en faisait de même. Aucun d'eux n'a répondu.
Si l'un des deux camps attaquait avec une IA complète, ce ne serait même pas la première fois.
Un rapport non concluant de l'ONU indique que des systèmes autonomes létaux (ou "robots tueurs") ont fait leurs débuts dans le conflit interne libyen en 2020 , lorsque des drones Kargu-2 de fabrication turque en mode entièrement automatique ont tué un nombre inconnu de combattants.

Un porte-parole de STM, le fabricant, a déclaré que le rapport était basé sur des informations "spéculatives et non vérifiées" et "ne devrait pas être pris au sérieux". Il a dit à l' AP que le Kargu-2 ne peut pas attaquer une cible tant que l'opérateur ne le lui a pas dit.
L'IA entièrement autonome est déjà utilisée dans la défense de l'Ukraine. Fortem Technologies a fourni à l'armée ukrainienne des systèmes de chasse aux drones qui combinent de petits radars et des drones, tous deux alimentés par l'IA. Les radars sont conçus pour identifier les drones ennemis, que les drones éliminent ensuite en lançant des filets dessus, le tout sans intervention humaine.
Le nombre de drones IA est en augmentation. Israël les exporte depuis des décennies. Leurs drones Harpy peuvent rester dans les airs jusqu'à neuf heures en attendant qu'un système radar anti-aérien s'allume pour les détruire.
D'autres exemples incluent l'hélicoptère de combat sans pilote Pez Puffer-3 de la Chine . La Russie travaille depuis longtemps sur un drone sous-marin appelé Poséidon équipé d'IA et d'ogives nucléaires. Les Néerlandais testent un robot terrestre armé d'une mitrailleuse de calibre .50.
Honchar estime que la Russie, dont les attaques contre des civils ukrainiens ont montré peu de respect pour le droit international , aurait déjà utilisé des drones autonomes si elle en avait.
« Je ne pense pas qu'ils aient eu des scrupules », a reconnu Adam Bartosiewicz, vice-président de WB Group, fabricant du Warmate.

L'IA est une priorité pour la Russie . Le président Vladimir Poutine a déclaré en 2017 que celui qui maîtrise cette technologie dominera le monde. Dans un discours prononcé le 21 décembre, il a exprimé sa confiance dans la capacité de l'industrie russe de l'armement à ajouter l'IA aux machines de guerre, soulignant que "les systèmes d'armes les plus efficaces sont ceux qui fonctionnent rapidement et pratiquement en mode automatique".
Les responsables russes affirment déjà que leur drone Lancet peut fonctionner en toute autonomie.
"Il ne sera pas facile de savoir si et quand la Russie franchira cette ligne", a déclaré Gregory C. Allen, ancien directeur de la stratégie et de la politique au Centre conjoint pour l'intelligence artificielle du Pentagone.
Passer un drone télécommandé en autonomie complète peut être imperceptible . À ce jour, les drones capables de fonctionner dans les deux systèmes fonctionnent mieux lorsqu'ils sont pilotés par une personne, a déclaré Allen.
La technologie n'est pas si compliquée, a déclaré le professeur Stuart Russell, l'un des principaux chercheurs en IA de l'Université de Californie à Berkeley. Au milieu des années 2010, Russell a consulté ses collègues et ils ont convenu que les étudiants diplômés pourraient construire un drone autonome en un seul semestre "capable de localiser et de tuer un individu, par exemple, à l'intérieur d'une propriété", a-t-il déclaré.
Jusqu'à présent, les tentatives visant à établir des normes internationales de base pour l'utilisation des drones militaires ont échoué. Neuf ans de pourparlers informels des Nations Unies à Genève ont fait peu de progrès, et les grandes puissances, dont les États-Unis et la Russie, s'opposent à un moratoire. La dernière session, tenue en décembre, s'est achevée sans qu'un nouveau tour n'ait été programmé.
Les responsables de Washington disent qu'ils n'accepteront pas de moratoire car on ne peut pas faire confiance aux développeurs de drones rivaux pour les utiliser de manière éthique.

Toby Walsh, un universitaire australien qui milite contre les robots tueurs, espère parvenir à un consensus sur certaines limites, notamment l'interdiction des systèmes qui utilisent la reconnaissance faciale et d'autres données pour identifier ou attaquer des individus ou des catégories de personnes.
"Si nous ne faisons pas attention, elles vont proliférer beaucoup plus facilement que les armes nucléaires ", a déclaré Walsh, auteur de "Machines Behaving Badly". "Si vous pouvez faire en sorte qu'un robot tue une personne, vous pouvez lui en faire tuer 1 000."
Les scientifiques craignent également que les terroristes ne modifient les armes avec l'IA . Dans un scénario redouté, l'armée américaine dépense des centaines de millions de dollars pour écrire des programmes informatiques pour faire fonctionner des drones d'attaque. Si le programme est volé et copié, les terroristes reçoivent la même arme.
À ce jour, le Pentagone n'a pas clairement défini "une arme IA autonome" ni autorisé l'utilisation d'une seule arme de ce type par les troupes américaines, a déclaré Allen, l'ancien responsable du ministère de la Défense. Tout système proposé doit être approuvé par le chef d'état-major interarmées et deux secrétaires adjoints.
Mais cela n'a pas empêché le développement de telles armes aux États-Unis. La Defense Advanced Research Projects Agency (DARPA), les laboratoires militaires, les institutions universitaires et le secteur privé ont tous des projets en cours.
Le Pentagone a mis l'accent sur l'utilisation de l'IA pour aider les combattants humains. L'armée de l'air étudie des stratégies dans lesquelles les drones forment des escadrons pour les pilotes. L'ancien secrétaire adjoint à la Défense, Robert O. Work, le moteur de l'idée, a déclaré dans un rapport le mois dernier que "ce serait une folie de ne pas poursuivre un système autonome" une fois que les systèmes alimentés par l'IA dépasseraient les humains , un seuil qui, a-t-il déclaré. , il a été franchi en 2015 lorsque la vision par ordinateur a dépassé celle des humains.
Les humains ont déjà été exclus de certains systèmes de défense. Le bouclier antimissile Iron Dome d'Israël est autorisé à tirer automatiquement , même si une personne est dite en attente et peut intervenir si le système se trompe de cible.
Plusieurs pays et toutes les branches de l'armée américaine développent des drones capables de frapper en essaims mortels synchronisés, a déclaré Kallenborn, l'analyste de George Mason.
Les guerres futures se transformeront-elles en combat jusqu'au dernier drone ?
C'est ce qu'avait prédit Poutine lors d'une conférence télévisée en 2017 avec des étudiants en ingénierie : "Lorsque les drones d'un côté seront détruits par les drones de l'autre, vous n'aurez d'autre choix que de vous rendre".
(Avec des informations d'AP)
Continuer à lire: