Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Des machines morales ? Éthique et intelligence artificielle

Publié le 13.04.2024
Intelligence artificielle

La notion d'« algorithme moral » fait référence aux systèmes informatiques conçus pour prendre des décisions éthiques en utilisant des règles et des principes prédéfinis pour guider une action donnée. Or, l'intentionnalité est une qualité associée à l'intelligence consciente, faisant généralement référence à la propriété ou à la capacité de l'esprit à se diriger vers des objectifs et des objets spécifiques, internes ou externes, matériels ou immatériels. Les algorithmes , quant à eux, sont des séquences d'instructions logiques qui effectuent des tâches spécifiques basées sur des données d'entrée et des règles préétablies. Ils ne possèdent pas de conscience, d’intelligence ou d’intentions au sens où nous les entendons dans le contexte humain.

L’IA est donc un ensemble d’algorithmes, différent d’une entité psychophysique intelligente, étant donné que l’intelligence est indissociable de la conscience en tant que perception responsable et individuelle de sa propre existence, de ses états et de ses actes, cette conscience étant la réalité psychique de cette intelligence. Par conséquent, l’intelligence ne peut pas être identifiée à un algorithme capable de traduire des textes, de jouer aux échecs ou de diagnostiquer des pathologies, encore mieux qu’un humain, mais elle n’est rien de plus que le résultat de l’analyse de millions de cas et du calcul statistique de la meilleure option pour chaque circonstance. . Fondamentalement, la soi-disant intelligence artificielle n'est rien de plus que du big data , ou différentes manières de regrouper les efforts de millions de personnes à travers des algorithmes également produits par des personnes, mais ce n'est pas quelque chose en soi. Il lui manque une ontologie. C'est du calcul, mais pas de l'intelligence et encore moins de la réflexion, semblable à la différence entre syntaxe et sémantique.

Ainsi, les algorithmes moraux sont conçus pour simuler certains aspects de la prise de décision éthique qui ressemblent à l’intentionnalité, reflétant des principes moraux prédéfinis. Plus précisément, si la notion d’intentionnalité implique la capacité d’agir dans un but conscient et orienté vers un objectif spécifique, les algorithmes moraux, même s’ils peuvent être programmés pour considérer des principes éthiques et prendre des décisions basées sur ceux-ci, manquent de conscience et de subjectivité. Selon Luciano Floridi, qui a proposé la notion d'« agents moraux artificiels » pour les systèmes intelligents capables de prendre des décisions éthiques de manière autonome, il affirme que ces agents ne sont pas des sujets d'intention mais plutôt dans le sens de posséder une forme d'autonomie et d'action, mais fondamentalement, ce sont des artefacts reproductifs et non cognitifs, ni exhaustifs ni conatifs. Et cela signifie qu’il leur manque l’expérience subjective qui caractérise l’intentionnalité humaine. Ainsi, l’IA et les algorithmes moraux ne seraient pas des tentatives d’imiter l’intelligence ou l’éthique humaines mais de s’en passer, étant donné que ce qui compte n’est pas le comportement intelligent ou éthique mais le résultat.

Cependant, Wendell Wallach et Colin Allen, entre autres chercheurs, soutiennent que les algorithmes moraux peuvent simuler certains aspects de l'intentionnalité en présentant ce qu'ils appellent « l'intentionnalité fonctionnelle », dans laquelle les actions de la machine semblent orientées vers un but en raison de sa conception et de sa programmation, bien qu'il existe aucune conscience derrière eux. Ces algorithmes moraux sont utilisés dans des véhicules autonomes programmés pour agir dans des situations d'urgence, comme choisir entre différents plans d'action pour minimiser les dommages en cas d'accident. Ces systèmes peuvent être programmés pour donner la priorité à la sécurité des occupants ou des piétons du véhicule, ce qui reflète certains principes éthiques, bien qu'il n'y ait pas d'intentionnalité consciente de l'artefact derrière ces décisions, mais du programmeur.

De même, les assistants virtuels tels que Siri, Bixby ou Alexa, constitués d'algorithmes qui doivent manipuler les données sensibles des utilisateurs de manière éthique, sont conçus pour protéger la confidentialité des informations des utilisateurs, en montrant un comportement qui reflète des principes éthiques même sans intentionnalité autonome. derrière leurs actions. Les algorithmes de prise de décision dans le domaine de la santé peuvent aider les professionnels dans des situations d'urgence telles que l'allocation de ressources limitées ou la détermination du meilleur traitement pour un patient. Mais ces systèmes, généralement conçus pour considérer l'équité, la bienfaisance et la non-malfaisance, sont également programmés selon les principes des écoles de bioéthique avec d'autres variables telles que les variables utilitaires orientant les ressources et les décisions adaptées à une tranche d'âge ou priorisant par pronostic la qualité de vie ou avec des arguments économiques. Mais ils ne possèdent certainement pas d’intentionnalité au sens humain du terme.

En d’autres termes, à l’instar de l’IA en ce qui concerne l’intelligence humaine, les algorithmes moraux peuvent simuler certains aspects fonctionnels de l’intentionnalité à travers leur conception et leur programmation, mais ils manquent de conscience et de subjectivité. Leur capacité à prendre des décisions éthiques repose sur des règles prédéfinies fondées sur des principes éthiques programmés plutôt que sur l’intentionnalité.

D'autre part, il y a la notion renouvelée d' émergencenisme , issue de l'idée de singularité définie par Raymond Kurzweill, Jürgen Schmidhuber et Yuval Harari, comme le changement radical explosif, soudain et définitif, issu de phénomènes et d'interactions complexes d'où des phénomènes imprévisibles. et des résultats imprévisibles peuvent survenir. Dans le contexte de l’intelligence artificielle et de l’éthique, l’émergence suggère que certains comportements et caractéristiques, comme l’intentionnalité, pourraient émerger de systèmes complexes de manière non linéaire. C’est-à-dire sans relation directe et proportionnelle entre cause et effet et dont le résultat ne s’exprime pas comme la somme de ses descripteurs. Cette idée est analogue à la théorie qui suggère que la conscience humaine est apparue comme une émergence non linéaire, résultat d’un système neuronal complexe.

Il est certain que les systèmes complexes et leurs interactions génèrent des résultats non linéaires, ce qui signifie que de petits changements dans les conditions initiales ou les interactions entre les composants peuvent conduire à des résultats différents et imprévisibles. Les algorithmes d’IA peuvent également apprendre et s’adapter à partir des retours de l’environnement. Et si ces systèmes sont conçus pour optimiser les objectifs éthiques, ils pourraient développer des comportements plus sophistiqués lorsqu’ils interagissent avec des situations et d’autres agents moraux dans des environnements sociaux complexes, se nourrissant de leurs conséquences. Selon l’émergence, cela pourrait produire des résultats imprévisibles, notamment des formes spontanées de coopération, de négociation et de résolution de conflits qui reflètent des principes éthiques.

Mais ce n’est rien d’autre que la transpolation de la non-linéarité physico-mathématique au contexte de l’intelligence artificielle, sans preuve, suggérant sous un argument similaire à la création ex-nihilo, que des algorithmes moraux complexes, grâce à une interaction dynamique avec l’environnement, pourraient générer des comportements éthiques qui aller au-delà de ce qui était prédéfini dans ses règles et sa programmation originale.

Si tel était le cas, la production d’agents moraux soulèverait des questions radicales sur leur statut juridique. Pour Murray Shanahan et David Gunkel, qui affirment la possibilité d'une certaine forme de conscience autonome dans les systèmes avancés d'intelligence artificielle ou les robots, en particulier ceux qui font preuve d'apprentissage, ils les considèrent comme des sujets ayant des intentions similaires, mais pas identiques, à celles des humains. En fait, l’IEEE Global Initiative a élaboré des lignes directrices éthiques et des normes juridiques pour le développement et l’utilisation de systèmes autonomes et d’agents intelligents. À l'extrême, cela signifie la prise en compte éventuelle des droits, de la culpabilité et de la responsabilité pénale de ces systèmes , en dehors du fabricant ou du programmeur. Ce sont là quelques problèmes qui se posent dans le domaine de l’éthique et de la philosophie de l’intelligence artificielle, compte tenu de la possibilité de considérer certaines machines comme sujets d’intention.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.