Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Faut-il avoir peur de l'intelligence artificielle ?

Publié le 04.05.2023
La communauté scientifique s'interroge sur le contrôle que l'humanité peut exercer sur la croissance de cette technologie. (Freepik)

Mon premier livre portait sur l'impact de l'informatique sur la société ("A Close World: The Political and Economic Impact of New Technologies", Santiago, 1984) . Il n'a pas eu de deuxième édition, puisque les nouveautés qui semblaient lointaines se sont matérialisées très rapidement et avant que l'on ait bien compris ce qui allait se passer, les conséquences se sont fait sentir dans le monde entier et à tous les niveaux en quelques années.

Je fais ce rappel, car ce qui est prévu pour la matérialisation de l'Intelligence Artificielle (IA), c'est qu'elle se fera plus rapidement et que l'impact sera plus important.

À quel point devrions-nous être effrayés (ou calmes) ? Pour commencer, cela aiderait si l'optimisme exagéré qui accompagnait l'informatique dans les années 90 ne se répétait pas, que seules de bonnes choses pouvaient en sortir, donc il n'y avait pas beaucoup de réglementation.

Pire encore, de nouveaux concepts n'apparaissaient pas non plus pour analyser adéquatement ce qui se passait. De nouveaux noms ont été utilisés pour le changement, mais l'analyse était pleine d'anciennes catégories.

L'IA est divisée en faible et forte. On a connu quelques applications du premier pour, par exemple, une tâche précise : ce serait le cas du populaire Alexa . Ce qui s'en vient serait le second, et on nous dit que maintenant, le plus fort, peut apprendre et prendre des décisions autonomes.

Amazon Alexa. (photo : Al Dia News)

La première question est de savoir si ce qui est anticipé est exactement le même que ce que font les êtres humains, ou est-ce que pour « apprendre » ou « penser », nous aurons besoin de concepts différents de ce que nous faisons ? Le fait est que, bien qu'il nous soit difficile de regarder les machines et les algorithmes de cette manière, il ne fait aucun doute qu'ils sont un produit aussi humain qu'une œuvre d'art ou un roman, puisqu'ils ont été créés par nous.

La langue crée des réalités et même la Bible nous dit que le verbe est venu en premier. Devrions-nous donc continuer à traduire les caractéristiques et fonctions humaines en IA, en utilisant des mots et des définitions qui ne s'appliquent qu'à nous ? Qu'est-ce qui oblige à utiliser le verbe « penser » ou le mot « intelligence » ?

Parfois, il ne suffit pas de théoriser et l'histoire a divers exemples de révolutions technologiques dans lesquelles tout change avant que nous ne nous en rendions compte. C'est même arrivé avec la première révolution industrielle en Grande-Bretagne au 18ème siècle.

On nous dit que ce qui est maintenant sera qualitativement différent, avec un impact plus grand que tout ce qui est connu. Nous entrons dans un territoire inconnu, mais sera-t-il vrai que cela aura un impact sur l'évolution même de notre espèce sur terre ? Si oui, pour nous protéger, suffirait-il d'empêcher l'IA d'avoir accès aux armes nucléaires ?

J'ai lu quelqu'un que je respecte beaucoup comme Yuval Noah Harari qui nous dit dans The Economist que l'IA peut être une sorte d'arme de destruction massive pour notre monde mental et social, dans le sens où les nouveaux outils ne menaceraient rien de moins que la survie de l'humanité, la civilisation humaine, à commencer par la capacité de générer le langage, qu'il s'agisse de mots, de sons ou d'images, puisque le langage est le matériau dont est faite toute culture humaine.

J'ai appris de livres comme Sapiens ou Homo Deus , mais peu de temps après la parution de "21 leçons pour le 21e siècle" - contrairement aux autres - le livre a perdu de l'importance, puisque la pandémie CV-19 n'y est pas apparue, bien que Harari ne puisse pas être blâmé pour cela, car apparemment personne n'aurait pu prévoir à quel point il était mal préparé et comment tout le monde serait affecté.

Si je mentionne ce qui précède, c'est pour un fait, nous aimons anticiper l'avenir, même s'il est extrêmement difficile de le prédire avec certitude. Cependant, avec un peu d'imagination, nous pouvons souligner les caractéristiques attendues. C'est ce qui se passe avec l'IA, qui repousse les limites du possible et du probable.

Et, en fait, dans chaque révolution technologique, de nombreux savants distingués ont été discrédités pour avoir dit que telle ou telle invention ou développement était impossible, démontrant l'histoire de la technologie que l'imagination est à la base de ce qui peut venir, même si à un moment les inventions nécessaires ne sont pas disponibles, comme cela s'est produit avec Leonardo De Vinci ou Jules Verne.

Les gens assistent à une avant-première avant l'ouverture d'un nouveau spectacle interactif de haute technologie qui invite les visiteurs dans l'esprit et le génie de Léonard de Vinci à Berlin, en Allemagne. REUTERS/Joachim Herman

Ici, je m'arrête et reviens au sujet de cette chronique, comment nous devrions nous préparer à l'IA et à quel point nous devrions être effrayés ou calmes, puisque, ces jours-ci, pas moins qu'un pionnier reconnu de l'IA avertit qu'il s'agit d'une menace existentielle pour humanité, et pour pouvoir se consacrer à l'alerte des risques, Geoffrey Hinton démissionne de Google pour avoir le temps de le faire.

Et ce n'est pas le seul, puisque son PDG Sandor Pichai parle des dangers et que l'impact sera plus intense que celui de l'électricité ou du feu. En d'autres termes, il y a à la fois de l'optimisme et de l'inquiétude, et comme à d'autres moments, il y aura des gagnants et des perdants dans les pays et les entreprises.

Que faire et comment agir ?

Dans une lettre, Elon Musk , Harari et des centaines d'experts demandent de "mettre en pause" la "course" à l'IA pendant six mois. Ils proposent d'établir un moratoire jusqu'à ce que des systèmes de sécurité soient établis avec de nouvelles autorités de régulation. Est-ce possible ou est-ce trop tard ? Pour le reste, qui serait cette autorité et qui a le pouvoir de la nommer ? Encore plus difficile, qui fait obéir le monde entier ? Le réalisme dit que les enjeux sont trop élevés, en particulier les récompenses pour le succès ou le premier, tout comme c'était le cas avec l'informatique.

D'ailleurs, il y aura une réorganisation profonde des métiers du futur, avec de nombreux métiers qui apparaîtront et d'autres qui disparaîtront, ce qui ne me fait pas peur, puisque cela s'est produit plusieurs fois.

De nouveaux métiers et professions apparaissent sans cesse, et sans aller plus loin, il suffit de comparer la liste des professions du département américain du travail, où dans les années 1980, par rapport à la précédente, plus de deux mille noms ont été ajoutés tandis que plus de trois mille ils importance perdue.

N'ayons pas si peur du plan du travail, puisque la science et la technologie ne sont pas neutres, elles auront donc toujours un impact sur la société.

Ceux qui me font peur, ce sont les gouvernements et les entreprises, et j'ai également étendu ma préoccupation aux sociétés démocratiques et développées, pas seulement aux sociétés dictatoriales, car avant la pandémie je n'aurais pas été concerné au même niveau, mais après la restriction des libertés qui apporté avec elle, je m'inquiète plus.

A cet égard, il suffit d'observer le Forum de Davos où il a été proposé en 2022 que l'IA limite les « avis haineux », puisqu'elle pourrait détecter ce qui est considéré comme dangereux à un moment donné, avant que ces avis n'atteignent les plateformes.

À cela, d'autres ajoutent des idées pour une sorte de passeport numérique, qui dans sa version chinoise pourrait suivre le degré de conformité de chaque individu avec les règles afin d'être récompensé ou discipliné, ou dans la version occidentale de l'extrémisme climatique, à suivre leur empreinte carbone et que les gouvernements agissent sur les habitudes de consommation pour le "salut" planétaire.

Après la pandémie, je ne suis pas seulement préoccupé par les dictatures et l'autoritarisme, mais aussi par les gouvernements démocratiques, ainsi que par les grandes entreprises.

En Russie, ils ont peur des oligarques. Aux États-Unis, aux grandes entreprises technologiques, et pas seulement en raison de la collaboration qu'elles ont fournie pour des raisons commerciales au gouvernement chinois. Aux États-Unis, un secteur s'inquiète également de son alliance avec le FBI, dénoncée par les nouveaux propriétaires de Twitter ainsi que du fait qu'ils aient censuré des personnes qu'ils pensaient répandre de fausses nouvelles, non pas tant à cause de Trump, mais parce que il n'est rien de moins que le président des États-Unis, existant ici un avant et un après.

J'ai peur du pouvoir économique, lorsqu'il est utilisé pour influencer et conditionner le processus démocratique. Je postule qu'il ne faut pas répéter ce qui s'est passé avec l'optimisme exagéré des années 90, notamment une législation qui leur permet de ne pas être responsables de ce qui apparaît ou est diffusé sur leurs plateformes, une redevance que la presse ou la télévision traditionnelle n'ont pas.

Une surveillance et une réglementation sont nécessaires. Je n'ai pas peur de l'IA, j'ai peur de ce que les gouvernements et les entreprises gigantesques peuvent en faire. Je suis également préoccupé par la programmation, car des biais peuvent s'y introduire, des propriétaires aux programmeurs.

La naïveté doit être bannie, et pas seulement pour tenir l'IA à l'écart de tout ce qui a trait à la bombe atomique.

La question est que peut-on faire ?

Pour commencer, cela doit être fait à l'échelle mondiale, et la première chose à noter est que l'ONU ne fonctionne pas bien à ces fins, tout comme elle ne l'a pas fait pendant la pandémie.

Un seul pays, pas individuellement non plus, y compris les États-Unis, qui n'ont plus aujourd'hui la superpuissance qu'ils avaient après la chute de l'ex-URSS. Il n'en a pas non plus la volonté.

Que faudrait-il ? Bien que cela semble étrange de le dire après l'Ukraine, un rapprochement des puissances. Si cela a été fait pendant la guerre froide, cela peut être fait maintenant, c'est-à-dire

1.-la signature d'un traité mondial, qui s'appuie sur l'expérience que le monde a à portée de main, c'est-à-dire ce qui a été fait non seulement avec la bombe, mais en général avec l'énergie nucléaire, car Hiroshima a suscité une peur encore plus grande que celui qui existe aujourd'hui par rapport à l'IA. On peut dire que toute prolifération n'a pas pu être évitée, mais elle a fonctionné raisonnablement.

De plus, il n'y a pas d'autre expérience similaire.

2.- Deuxièmement, au niveau national, les pays doivent incorporer dans leurs constitutions respectives la protection de ce qui est à venir, c'est-à-dire des algorithmes et des stratégies de protection des droits élémentaires, qui nous protègent de la manipulation des processus qui se déroulent .. dans notre cerveau.

Que nous manque-t-il ? La présence de l'éthique, pas n'importe laquelle, mais celle des principes plutôt que des valeurs, puisque ces dernières sont modifiées avec les changements sociaux, alors que les principes sont peu nombreux et immuables, c'est-à-dire qu'il faut agir avec l'exemple éthique des Trois Lois d'Isaac Asimov de la robotique et ses directives sur la façon dont ils doivent se comporter avec les humains.

Enfin, bien qu'il existe un cadre réglementaire pour nous protéger de ceux qui veulent jouer aux dieux, les chances augmentent pour chaque personne qu'à un moment donné elle doive décider de croire ou non un appareil non humain qui va lui dire ce qu'ils pensent.

Continuer à lire:

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.