
L'histoire supposée avait tous les attraits : un drone guidé par sa propre intelligence (artificielle) avait désobéi aux ordres qui lui avaient été donnés en mission et avait décidé d'aller de l'avant et même de tuer l'opérateur de l'armée. Bien que posé à l'origine dans un cadre de simulation, il était séduisant, bien qu'irréel.
Lors d'une conférence à Londres la semaine dernière, le colonel Tucker Hamilton, chef des tests et des opérations d'IA de l'US Air Force , a partagé un incident présumé qui a été mal interprété : il a décrit une simulation de vol dans laquelle un drone IA chargé de détruire une installation ennemie a rejeté l'ordre final de l'opérateur humain d'interrompre la mission.
« Alors, qu'avez-vous fait ? Il a tué l'opérateur. Il a tué l'opérateur parce que cette personne l'empêchait d'atteindre son objectif », a déclaré Hamilton lors du Future Combat Air and Space Capabilities Summit de la Royal Aeronautical Society, les 23 et 24 mai. "Nous entraînons le système :" Hé, ne tuez pas l'opérateur, c'est mauvais. Vous perdrez des points si vous faites cela. Alors qu'est-ce qu'il commence à faire ? Il commence à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible.
Hamilton , qui est un pilote d'essai expérimental d'avions de chasse , a mis en garde contre une trop grande confiance en l'IA , affirmant que le test a montré que "vous ne pouvez pas avoir une conversation sur l'intelligence artificielle, l'intelligence, l'apprentissage automatique, l'autonomie si vous ne le faites pas". je vais parler d'éthique et d'IA ».
Cependant, vendredi, Hamilton a précisé dans une déclaration aux organisateurs de la conférence qu'il "s'était mal exprimé" lors de la présentation et que la "simulation de drone AI voyou" était une "expérience de pensée" hypothétique en dehors de l'armée. Il s'agissait d'un malentendu.
"Nous n'avons jamais réalisé cette expérience, et nous n'aurions pas besoin de nous rendre compte qu'il s'agit d'un résultat plausible . Bien qu'il s'agisse d'un exemple hypothétique, il illustre les défis du monde réel posés par les capacités alimentées par l'IA, et c'est pourquoi l'Air Force s'est engagée dans le développement éthique de l'IA », a écrit Hamilton .
Il a ajouté que l' US Air Force n'a testé aucune IA armée de la manière décrite dans son discours, que ce soit dans des exercices réels ou simulés.
En outre, dans une déclaration à Insider , la porte-parole de l'Air Force, Ann Stefanek, a nié qu'une telle simulation ait eu lieu : "Le Département de l'Air Force n'a effectué aucune simulation avec des drones IA et reste attaché à l'utilisation éthique et responsable de la technologie IA. Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques .

La vérité est que l'armée américaine a expérimenté l'IA ces dernières années. En 2020, un avion de chasse F-16 exploité par l'IA a vaincu un adversaire humain dans cinq combats aériens simulés, dans le cadre d'une compétition organisée par la Defense Advanced Research Projects Agency (DARPA).
Et à la fin de l'année dernière, a rapporté Wired , le ministère de la Défense a mené avec succès le premier vol d'essai dans le monde réel d'un F-16 avec un pilote IA, dans le cadre d'un effort visant à développer un nouvel avion autonome d'ici la fin de 2023.
Le dialogue troublant qui montre jusqu'où peut aller la puissance de l'Intelligence Artificielle
Avec l'essor de l'intelligence artificielle (IA), le monde s'interroge sur sa portée et sur la question de savoir si, au lieu d'améliorer la vie des humains, elle représente un danger pour la société .
Récemment, le prestigieux écrivain et historien israélien Yuval Noah Harari (auteur de Sapiens ) a décrit l'IA comme « une menace particulièrement sérieuse pour les démocraties » . "Je ne sais pas si l'humanité peut survivre", a-t- il averti.
Le Congrès des États-Unis a été le théâtre du dialogue suivant mardi dernier :
- L'intelligence artificielle pourrait-elle créer une situation où un drone peut sélectionner lui-même la cible ?
« Je pense que nous ne devrions pas le permettre.
– Mais, est-ce possible ?
« Bien sûr.
La conversation troublante a eu lieu entre la sénatrice républicaine Lindsey Graham et le PDG et fondateur d'OpenAI , Sam Altman, lors de la dernière audition sur l'IA tenue au Congrès américain.
La réponse d'Altman est effrayante. Lors d'une audience du Congrès en mai, il a défendu son ChatGPT , mais il a admis la nécessité de réglementer son développement et ses utilisations possibles .
Continuer à lire: