
Dans le paysage intellectuel de Berkeley, en Californie, marqué par la ferveur académique, trône une entité qui n'est pas dédiée à la connaissance humaine : le Machine Intelligence Research Institute . Là, son co-fondateur, Eliezer Yudkowsky , un individu qui a remis en question les perceptions conventionnelles du progrès technologique, forge son dernier présage avec un mélange de gravité professionnelle et de frustration personnelle palpable.
Vêtu de la simplicité d'un polo gris, se balançant sur sa chaise de bureau, Yudkowsky, chercheur et écrivain américain spécialisé dans la sécurité de l'intelligence artificielle (IA) , apparaît comme l'incarnation d'un penseur pris entre deux mondes : celui tangible que nous habitons et celui tissé numériquement par des récits dystopiques. Dans une conversation avec The Guardian , il révèle un sombre pronostic pour l'humanité, non pas de l'ordre de décennies, mais de plusieurs années ; une prédiction qui teinte sa voix d’un ton d’urgence à peine voilé.
« Si vous me mettiez contre le mur », confesse-t-il avec une clarté désarmante, « et si vous me forciez à attribuer des probabilités aux choses, je dirais que notre calendrier actuel ressemble plus à cinq ans qu’à cinquante ans. Cela pourrait prendre deux ans, cela pourrait prendre dix ans. Les implications de ses propos, telles qu'interprétées par Tom Lamont, auteur de l'article dans le journal britannique, esquissent une fin catastrophique : une apocalypse induite par la machine , digne des visions cinématographiques de Terminator ou de Matrix .
Depuis sa position d'enquêteur principal, Yudkowsky articule un récit où les intelligences artificielles évolueront jusqu'à ce qu'elles soient sur le point d'assumer une intelligence supérieure, trop complexe pour être contenue par de simples mortels. Son conseil est pictural et dérangeant : n'imaginez pas un cerveau fabriqué par l'homme dans une boîte, conseille-t-il. Pour comprendre où les choses vont, dit-il dans l’interview, essayez de visualiser « une civilisation extraterrestre qui pense mille fois plus vite que nous », dans de très nombreuses cases, presque trop nombreuses pour que nous puissions les démonter de manière réalisable, n’est-ce pas ? décide même de le faire.

Face à l'indifférence de l'humanité, il a lancé l'année dernière un appel à l'action dans une tribune dans Time , proposant la fermeture des fermes informatiques où ces IA sont cultivées et entraînées. En clair, cela suggère même la possibilité de frappes aériennes ciblant les centres de données non conformes.
Malgré les sombres avertissements de Yudkowsky, d'autres experts cités dans l'article, comme Brian Merchant et Molly Crabapple, se concentrent sur d'autres types de doutes, par exemple sur l'impact de la déstabilisation de l'emploi , plutôt que sur atteindre l'extrême d'une menace existentielle . « La technologie n’est pas quelque chose introduit par un dieu céleste qui veille sur nos intérêts. « Le développement technologique est conditionné par l’argent, le pouvoir et, en général, par les intérêts de ceux qui ont le pouvoir et non par ceux qui ne l’ont pas », a déclaré Crabapple, artiste et écrivain américain, au Guardian.

Cette histoire, bien qu’enracinée dans les préoccupations actuelles concernant l’intelligence artificielle et son potentiel à remodeler – ou à détruire – notre existence, rappelle les récits historiques sur le choc entre progrès et autodestruction ; entre le désir ambitieux des êtres humains de transcender leurs propres limites et la possibilité bien réelle de se retrouver piégé dans un cauchemar de leur propre création.
La voix quelque peu pessimiste de Yudkowsky, bien que peut-être marginalisée dans le large spectre du débat technologique, nous rappelle de manière inquiétante l'époque où la raison et l'arrogance humaine s'entrelacent dans une danse incertaine, avec le potentiel de nous emmener vers l'aube la plus brillante ou vers le le plus sombre des crépuscules.
Ainsi, alors que le monde poursuit sa marche inexorable vers un avenir incertain , des personnalités comme Yudkowsky nous obligent à affronter des questions fondamentales : quel genre de monde construisons-nous ? Et à quel prix ? L’histoire, remplie de leçons souvent ignorées, se retrouve une fois de plus à la croisée des chemins, mettant l’humanité au défi de choisir entre l’espoir et l’orgueil , entre le salut et l’autodestruction.
Dans ce tableau d’incertitude et de controverse, nous débattons entre génie et paranoïa. Pendant ce temps, la vague de l’IA progresse de manière incontrôlable, posant un défi à la fois à l’imagination et à la prudence. Serons-nous à la hauteur du défi ?

Eliezer Yudkowsky (Chicago, 1979) est un chercheur spécialisé dans la sécurité de l'IA et la théorie de la décision. Co-fondateur du Machine Intelligence Research Institute (MIRI), il développe des stratégies pour garantir que l'IA est sûre et bénéfique pour l'humanité.