
Tout comme les statistiques d'accidents montrent que les êtres humains ne sont pas doués pour conduire des voitures, la frustration que beaucoup de gens ressentent à l'égard de la gestion publique et de la représentation politique semble être un indicateur que nous ne sommes pas non plus excellents à gouverner . Face à cette inefficacité persistante, on peut se poser, dans un exercice de curiosité, les questions suivantes : les institutions d’un gouvernement représentatif pourraient-elles s’améliorer si l’on déléguait certains éléments de gestion à une IA ? Prendraient-ils de meilleures décisions en matière de politique publique ? La réponse spontanée de la plupart des gens peut être non. Mais avant de clore complètement la question, poursuivons notre enquête.
Lorsque nous décidons pour qui voter (que ce soit un président, un représentant ou un sénateur), nous le faisons en pensant au candidat qui prendra des décisions similaires à celles que nous prendrions. C'est l'essence même de la démocratie représentative. Supposons que les décisions prises par notre élu soient mesurées de manière exhaustive et comparées à celles prises par un programme qui a étudié nos préférences. Tout comme Instagram et TikTok peuvent décrypter de manière très précise et personnalisée quel contenu divertit chaque personne, un programme peut éventuellement interpréter et exprimer notre vision politique plus précisément que ce représentant humain. C’est-à-dire que, dans des centaines de problèmes divers, la décision prise coïncide avec celle que nous voudrions, alors que cette coïncidence est bien moindre avec la personne pour laquelle nous votons actuellement. Accepterions-nous de déléguer notre vote au programme qui nous représente le mieux, ou y a-t-il des questions qui ne peuvent pas être laissées entre les mains des machines ?
En même temps, ce n’est pas le seul domaine dans lequel la technologie commence à transformer la démocratie. L’IA devient également un outil puissant entre les mains des humains pour manipuler les décisions de vote et influencer le résultat des élections. L’historien et philosophe israélien Yuval Noah Harari a récemment affirmé que l’IA représentait un danger pour le système démocratique tel que nous le connaissons : « Il s’agit particulièrement d’une menace pour les démocraties plutôt que pour les régimes autoritaires, car les démocraties dépendent du débat public. La démocratie est essentiellement une conversation. Les gens se parlent. Si l’IA prend le relais, la démocratie est terminée .
La conversation est la fabrique d'idées, c'est le lieu où l'on construit des opinions et des croyances, où l'on définit ce que l'on fait et ce que l'on ne fait pas, ce qui nous semble bon ou mauvais et en qui nous accordons notre confiance. La véritable liberté d’établir chacun de ces éléments sans manipulation ni ingérence est au cœur de presque toutes les notions de république ou de démocratie représentative. Et l’IA conversationnelle, au service d’intérêts particuliers, a le potentiel de s’immiscer dans cet espace de conversation publique, et ainsi de le mettre sous contrôle. C’est l’un des grands dilemmes que nous pose la technologie : les mêmes algorithmes qui pourraient être la solution au problème de l’échec de la représentation politique peuvent être ceux qui accentuent notre vulnérabilité à la manipulation des humains qui veulent occuper ces postes.
Si l’on sent que ces technologies pourraient éroder les fondements mêmes du système démocratique, il est inévitable de se demander : l’utilisation de l’IA pour manipuler les idéologies ou pour orienter le débat public est-elle acceptable ? Et si ce n’était pas le cas, sera-t-il possible d’imposer des réglementations limitant les abus ? Ici apparaît un autre grand défi. Même si l’on comprend qu’il est nécessaire d’introduire des réglementations pour protéger les institutions démocratiques, il n’est pas clair qui a le pouvoir de le faire. D’une part parce que dans chaque pays ce sont justement les acteurs du système politique qui sont les bénéficiaires potentiels de ces mécanismes manipulateurs. D’autre part, parce que l’ingérence peut être encouragée et exécutée conformément aux intérêts de groupes privés ou de nations étrangères. La clé est que l’IA ne reconnaît pas les frontières traditionnelles. Ni ceux des gouvernements, ni ceux des pays.
Enfin, le problème le plus complexe dans l’introduction des IA dans le service public et l’exercice du gouvernement est l’énorme difficulté de définir précisément les objectifs qui guident leurs décisions. Ils finiront sûrement par devenir excellents pour atteindre les objectifs que nous leur avons fixés. Mais quels devraient être ces objectifs ? L'obstacle essentiel réside dans la diversité et l'éclectisme de la définition du « bien commun ». Du point de vue de la droite, la priorité est probablement de garantir la propriété privée et une faible intervention de l’État. Pour une vision plus à gauche, l’objectif principal est de générer une société avec moins d’inégalités. Ainsi, même si à l’avenir nous voulons déléguer les décisions gouvernementales à l’IA, il y aura des algorithmes de droite, du centre et de gauche, et de multiples variantes au sein de chaque espace idéologique. Il est probable que dans les années à venir, les machines commenceront à jouer un rôle croissant dans la prise de décision en matière de politiques publiques. Mais nous ne pourrons pas éviter de décider quelle est notre idée du bien commun et quels objectifs nous préférons privilégier pour construire la société à laquelle nous aspirons.