
Le terme « Intelligence artificielle (IA) » est devenu populaire, passant des domaines scientifiques et académiques au langage courant. C'est déjà un lieu commun, un nom qui semble irréversible, et que je ne crois en aucun cas pouvoir changer, car il est déjà installé. Je souhaite apporter quelques précisions et attirer l'attention sur la nature de cet outil, que l'on suppose presque inconsidérément intelligent et artificiel sans l'être. À mon avis, c’est ce qui le rend plus dangereux. Ce qui est dangereux avec l’IA, c’est justement qu’elle n’est ni intelligente ni artificielle .
Le nom a été utile et facile à comprendre pour désigner un outil, un système informatique avancé , basé sur « la science et l'ingénierie qui font agir les machines de manière intelligente », selon la définition classique de celui qui l'a introduit il y a soixante-sept ans. , le scientifique et mathématicien américain John McCarthy , considéré comme l'un de ses pères. En 1956, un groupe de scientifiques et d’experts se sont réunis au Dartmouth College, dans le New Hampshire, pour explorer la possibilité de créer des machines capables d’avoir un comportement intelligent « semblable à celui des humains ».
Il doit être clair qu’il s’agit d’un outil d’automatisation de tâches et de traitement de données à grande échelle , utilisable dans les manifestations les plus diverses de nos vies. Il est constitué d'un ensemble de techniques et de technologies conçues pour effectuer des tâches spécifiques avec une rapidité, une précision et une portée supérieures à celles effectuées par un être humain. Mais il est limité par la programmation et les données avec lesquelles il travaille et s'entraîne. D'ailleurs, il produit des résultats étonnants et facilite la prise de décision, la recherche scientifique, la science des données, la médecine, le droit, l'art, l'accès à l'information, le transport en véhicules aériens ou terrestres autonomes, la construction, l'agriculture, les assistants virtuels, les robots collaboratifs et bien d'autres encore. candidatures actuelles et à venir. De plus en plus utilisé dans l’éducation, la création artistique et le monde universitaire. Avec le développement de l’IA générative, l’IA ouverte, dont l’expression la plus populaire est ChatGPT dans ses différentes versions, son impact est vite devenu massif. Mais aussi la prolifération de fausses nouvelles dangereuses, orales, écrites et illustrées. Son application discutable au développement d’armes nucléaires sophistiquées et « autonomes » est l’une des plus grandes préoccupations générées par cet instrument.
Pourquoi n’est-il pas intelligent ou artificiel ?
Selon la définition généralement acceptée, il s’agit d’une science et d’une ingénierie qui « font » que les machines – lisent les ordinateurs – agissent « intelligemment ». Autrement dit, ils pourraient avoir un comportement intelligent « semblable à celui des humains ». Il est donc clair que ce n’est pas la même chose que l’intelligence humaine. Voyons.
Premièrement, si l’on s’en tient à ce que la communauté scientifique et la pensée philosophique considèrent comme les attributs de l’intelligence, on constate que les attributs fondamentaux qui distinguent l’être humain ne sont pas présents dans l’outil informatique que l’on appelle « Intelligence Artificielle ». En effet, considérons quelques-uns des principaux attributs caractéristiques de l'intelligence humaine : la conscience de soi , c'est-à-dire se comprendre, être conscient de soi et de sa relation avec le monde ; capacité à porter des jugements éclairés sur des situations réelles ; résoudre des problèmes de différents degrés de complexité ; pensée logique; capacité à apprendre, mémoriser, accumuler et traiter des connaissances et des expériences ; adaptabilité; capacité d'abstraction; développement du langage en tant qu'expression de ses propres idées ; créativité pour générer des idées originales et innovantes; émotivité; aptitudes sociales.
Certains de ces attributs de l’intelligence peuvent être présents dans l’IA, comme la résolution de problèmes complexes ; capacité à apprendre, mémoriser, accumuler et traiter des connaissances (mais pas des expériences) ; développement du langage (mais pas pour l’expression de ses propres idées). Cependant, il ne compte pas et ne peut pas compter sur des fondamentaux tels que la conscience de soi, la capacité d'abstraction, la génération d'idées originales, l'émotivité et les compétences sociales .
Deuxièmement : on ne peut pas dire qu’il s’agit d’une forme d’intelligence « artificielle », puisque tout ce qu’elle génère est le produit d’une action humaine délibérée, qui vise certains résultats. L’IA peut sembler intelligente pour exécuter certaines fonctions, même avec une plus grande vitesse, précision et amplitude que si elle était exécutée par un être humain, mais il lui manque la compréhension profonde, la conscience et la créativité de l’intelligence humaine, puisque tout ce que l’IA génère vient et dépend de la programmation, les données, le logiciel avec lequel il est alimenté et le matériel qui l'héberge . Même si les capacités logicielles et matérielles (par exemple l’informatique quantique) ont en elles-mêmes le potentiel de générer des développements progressifs et continus d’outils (« apprendre à partir des données »), cela dépendra toujours de la programmation et des flux de données fournis par les humains.

Pourquoi alors considérons-nous l’IA comme dangereuse et potentiellement menaçante pour l’humanité ?
D’abord parce que si certaines fonctions sont confiées à l’IA pour être exécutées automatiquement et de manière autonome – par exemple son application à l’usage d’armes nucléaires dans certaines circonstances prédéterminées, comme l’introduction contestée dans les LOIS (Lethal autonomes armes) – l’armement autonome qui, faute de discernement, de rationnement et d'émotivité, y compris d'intuition, ne serait pas capable de prendre une décision différente de celle préfigurée si les circonstances changeaient au dernier moment. Il convient de rappeler ici le cas de Stalislav Petrov, un officier russe qui a évité une guerre nucléaire avec les États-Unis, en sentant que les données fournies par les systèmes d'alerte nucléaire russes sur un missile prétendument lancé par les États-Unis contre le territoire soviétique était erroné. Cette information a permis une réponse soviétique en utilisant des missiles nucléaires contre le territoire américain, ce qui aurait déclenché une catastrophe. Petrov a douté de l'information, sur la base de son intuition et de son raisonnement logique, et a décidé de ne pas faire de rapport jusqu'à ce qu'il ait reconfirmé les données, ce qui lui a finalement permis d'éviter la réponse automatique de l'URSS. C’est ce qu’on appelle « le cas de l’homme qui a sauvé le monde ». Avec le système LAW, cette catastrophe nucléaire aurait eu lieu.
La même chose pourrait se produire dans les interventions chirurgicales robotisées, dans les alertes en cas de catastrophe, dans le traitement des données, dans l’administration municipale, etc. si les décisions sont transmises à des machines qui ne sont pas intelligentes, sans contrôle ni intervention humaine.
Deuxièmement, parce que les systèmes et les données avec lesquels fonctionne l'outil sont le produit de décisions humaines, de l'intentionnalité humaine, avec tout leur poids de jugements et de préjugés, même sans être délibérément introduits ainsi. Il a déjà été testé, par exemple, dans des systèmes de reconnaissance faciale à des fins de détection de délits, qui échouent jusqu'à 95 %, ou dans l'application de tests de sélection, etc. La machine agit avec les mêmes paramètres éthiques, préjugés, animosités et discriminations présents dans les informations fournies par les programmeurs. Comme le soulignent Roser Martínez et Joaquín Rodríguez, de l'Université autonome de Barcelone (« Le côté obscur de l'intelligence artificielle » mai 2020, Revue Idees, du Centre d'étude des questions contemporaines de la Generalitat de Catalogne), il y a est un mythe selon lequel les machines peuvent adopter des comportements éthiques et moraux s'ils sont correctement codifiés. Mais il est évident qu’une machine ne peut pas avoir d’éthique, de morale ou d’intuition qui lui soient propres. En tout cas, il peut avoir l’éthique de celui qui l’a codifié. Ce sera une simulation de l'éthique du programmeur, une réplique de l'ingénieur ou une combinaison des données trouvées dans le cloud.
Où mettre l’accent sur la gouvernance et la réglementation ?
Compte tenu des risques, des menaces, mais aussi du potentiel positif de cet outil, il est difficile de déterminer le type de gouvernance et le degré de régulation qu'il est de toute façon clairement nécessaire d'entreprendre. Des experts, des universitaires, des scientifiques, des hommes politiques de différentes organisations, universités et groupes de réflexion participent à cette analyse approfondie. Le Millennium Project vient de publier un rapport contenant les idées et les opinions de 55 experts et dirigeants du secteur, le Sénat américain traite la question de manière réglementaire, l'UE y participe également, le Conseil de sécurité et le secrétaire général du Les Nations Unies encouragent la création d'une Agence ou d'un système de gouvernance de l'IA, pour lequel un groupe d'étude a été convoqué pour définir cette initiative et une décision est adoptée lors du Sommet du Futur de 2024. Du secteur privé, les plateformes Google, Microsoft et OpenAI , dans une tentative d'autorégulation, viennent d'annoncer la création du Frontier Model Forum pour guider le développement de cet outil.
On est conscient du danger que représente un outil ayant un tel impact et un tel potentiel. Les avertissements selon lesquels elle pourrait déborder, prendre des décisions par elle-même et dépasser l’intelligence humaine sont peu plausibles. Ce qui peut déborder et constituer une menace stratégique et existentielle, c'est sa programmation trompeuse et perverse , ainsi que son utilisation contraire à la sécurité et aux droits de l'homme. Autrement dit, par décision humaine. Par conséquent, nous devons décider où placer l'accent sur la gouvernance et la régulation, en étant clair sur sa nature, un système automatique avec pouvoir humain, qui n'est ni intelligent ni artificiel, à qui il faut interdire de confier certaines tâches critiques et sensibles, et être autre les demandes sont dûment réglementées. Cela signifie que la recherche et le développement du système doivent avoir des paramètres précis, suffisants, contraignants et encadrés, fondés sur un consensus international de la communauté scientifique, universitaire, politique et sociale dans le cadre des Nations Unies.