
Dans un monde saturé d’innovations, l’intelligence artificielle (IA) promet des miracles tout en flirtant avec les limites éthiques et sécuritaires. L’IA, titan de l’ère moderne, se déploie dans des domaines aussi divers que la défense, la santé ou l’environnement, entraînant avec elle une dualité inquiétante : une force créatrice d’un côté, une source potentielle de destruction de l’autre . Dans ce contexte, des débats houleux ont lieu, soulignant la nécessité d’une forme de gouvernance capable d’exploiter ce pouvoir et d’en démocratiser les bénéfices.
Dilemmes éthiques de l’autonomie artificielle : l’IA sur le champ de bataille
Face à ces défis, les principes éthiques proposés pour régir l’IA, bien qu’utiles, présentent d’importantes lacunes. Réduire l'intervention humaine , l'objectif principal de l'IA selon l'IEEE, contredit l'idée même d'une IA digne de confiance , qui favorise la surveillance et l'action humaines. Cette contradiction pose la question de ce qui fait de nous des humains et de la place que nous accordons à l’IA dans notre société.

À la recherche d’une régulation internationale de l’IA
Parallèlement, dans les couloirs silencieux des institutions universitaires et des organisations internationales, une tout autre bataille se livre : celle de la régulation de l’IA. Des penseurs comme le Dr Jimena Viveros mettent en garde contre la nécessité de réglementer l’utilisation de systèmes d’armes autonomes pour empêcher les États de s’exonérer de leurs responsabilités pour les actes illégaux commis par ces machines. Cette réflexion s’inscrit dans un mouvement plus large visant à développer un cadre juridique international pour l’IA, dans lequel prévaudraient les principes de responsabilité, d’équité et de respect des droits de l’homme. Ils l’emporteraient, même si nous ne savons pas très bien comment exactement. En effet, à l’échelle mondiale, on tourne autour du pot et les négociations sur la question des armes létales autonomes ont tendance à échouer.
Cependant, des entités telles que les Nations Unies approfondissent ces questions, cherchant des moyens de mettre en place une gouvernance mondiale de l’IA qui garantisse une répartition équitable des ressources et des connaissances. La proposition d’un « AI CERN », suggérée dans un projet de rapport du Conseil consultatif sur l’IA, pointe vers la création d’une infrastructure mondiale pour la collaboration dans la recherche et le développement de l’IA. Cette approche met en garde contre le risque de « militarisation de l’IA », mentionné dans le rapport, soulignant l’importance d’une vision partagée, comme celle défendue par le Dr Jimena Viveros, membre éminent dudit organe consultatif et seul mexicain dans sa composition.

L'UNESCO et le cadre éthique de l'IA
L'UNESCO, de son côté, a lancé le 5 février 2024 un observatoire permettant aux pays membres de rendre compte de leurs efforts depuis la signature de la Recommandation sur l'éthique de l'IA en novembre 2021. Gabriela Ramos, l’objectif est « d’aligner ces développements impressionnants avec nos objectifs en tant que sociétés et êtres humains ». Parmi eux, selon la recommandation de l'UNESCO , 194 pays ont signé l'interdiction selon laquelle un système d'IA peut prendre une décision de vie ou de mort en application du principe de proportionnalité et de sécurité. Il semble donc paradoxal que le débat sur les armes létales autonomes continue de se dérouler dans ce contexte.
Pourtant, le paradoxe est réel. L'article 2 du règlement européen sur l'intelligence artificielle stipule explicitement que les règles qu'il contient ne s'appliquent pas aux systèmes d'IA s'ils sont commercialisés à des fins militaires . Cette exclusion pourrait être justifiée par le fait que les affaires militaires ne relèvent pas de la compétence de l'UE. Mais le marketing l’est lorsqu’il est lié au marché intérieur.
Il est indéniable que toutes ces initiatives sont confrontées à des défis majeurs, notamment la fragmentation des efforts réglementaires internationaux et l’absence de consensus sur les risques et les opportunités de l’IA. Le spectre d’une course aux armements en matière d’IA entre puissances mondiales plane également, alimentant les craintes d’une escalade militaire incontrôlable.

Les limites du droit international concernant les armes autonomes
Or, on sait que l’utilisation de robots tueurs autonomes est incompatible avec le droit international , qui requiert un jugement humain contextuel, comme le souligne Mme. Maya Brehm dans une étude très claire et contrairement à ce que prétend, par exemple, les Forces de défense israéliennes.
Si des textes tels que les Conventions de Genève, qui promeuvent les principes d'humanité, de distinction, de proportionnalité, de précaution et de chaîne de commandement, n'ont pas suffi à interdire explicitement la création d'armes létales autonomes, il convient de se demander si notre approche réglementaire est à la hauteur. la tâche. La réponse à cette question cruciale façonnera l’avenir de notre société, déterminant si l’IA deviendra un outil d’émancipation ou un instrument de domination encore plus prononcée qu’aujourd’hui.

RESsemblance : Philippe Prince Tritto est issu d'un parcours académique comprenant une licence en Génie Electrique et Informatique Industrielle de l'Institut Universitaire de Technologie de Troyes et une licence en Droit de l'Université Jean Moulin Lyon 3. Il est un expert reconnu à l'intersection de l'intelligence. artificiel et droit, avec 13 ans d'expérience, et a travaillé aussi bien dans le secteur privé en Legaltech que dans le secteur public en transformation numérique.
Il est titulaire d'un Master en Droit du Numérique de l'Université Toulouse 1 Capitole. Il complète sa formation par un doctorat en cours en intelligence artificielle à l'Universidad Panamericana. Il est membre de la Société Mexicaine d'Intelligence Artificielle et a dirigé des projets innovants sur les chatbots pour la profession juridique, les réseaux de neurones artificiels pour l'évaluation des risques liés à la vie privée, la génération de contrats avec l'intelligence artificielle, la détection automatique de concepts juridiques dans les textes juridiques, la jurisprudence. et dossiers judiciaires, entre autres.
À l'Universidad Panamericana, il est enseignant-chercheur et co-fondateur du Laboratoire de Droit et Intelligence Artificielle, qui étudie les défis et les opportunités de l'intelligence artificielle dans le monde du droit, tant du côté réglementaire que dans l'automatisation des tâches juridiques.
Son parcours se caractérise par une approche critique, minutieuse et résolument empirique, soulignant l'importance de la formation scientifique en droit. Philippe est un défenseur de la dignité humaine, de l'égalité des sexes, de la protection de l'environnement, de la liberté d'expression et de pensée et de l'action humaine, des sujets qu'il relie fréquemment à sa spécialisation en intelligence artificielle. Son approche pédagogique intègre une vision critique de l'éthique dans la technologie, soulignant l'importance du droit et du monde universitaire pour offrir de la clarté contrairement aux incertitudes posées par la domestication de l'éthique.
Il est l'auteur de 11 publications, tant académiques que dans des journaux populaires. Il a été conférencier dans de nombreux forums nationaux et internationaux et est consulté tant par des organisations publiques internationales que par des entreprises Big Tech pour soutenir la réglementation et l'éthique dans le développement de systèmes d'intelligence artificielle.
Réseaux
• LinkedIn : https://www.linkedin.com/in/phprince/
•X/Twitter : https://twitter.com/PhPrince_
• Chaîne YouTube : https://www.youtube.com/@PhilippePrinceTritto
• Serveur Discord : https://discord.gg/zphSYqNyQ4
• Chaîne Telegram : https://t.me/+7MDBgSCv-CAzZmIx
• Chaîne WhatsApp : https://whatsapp.com/channel/0029VaFPNGKAInPkjublVp2J