
Qu’est-ce qui nous attend pour l’avenir de l’IA ? En cette année 2024, nous nous trouvons face à un tournant dans le développement de l’intelligence artificielle, qui non seulement transforme rapidement nos technologies, mais reconfigure également les sociétés, les économies, les cultures et les structures de travail à l’échelle mondiale. Le défi pour les régulateurs est de trouver un équilibre délicat entre la réduction des risques et l’encouragement de l’innovation technologique.
Croissance et tendances de l’IA en 2024
À l’approche de 2024, l’intelligence artificielle poursuit son expansion rapide, se démarquant particulièrement dans des domaines tels que l’apprentissage automatique, la robotique et le traitement du langage naturel. Ces technologies atteignent non seulement des niveaux d’efficacité plus élevés, mais deviennent également plus accessibles et applicables à un large éventail d’utilisations. De son intégration dans des appareils personnels, avec des exemples tels que ChatGPT, Copilot, Gemini, Mistral et Llama3 , lancement récent de la société Meta, jusqu'à ses applications dans l'éducation, dans le secteur médical, et même dans le domaine de la culture et des arts, médias et divertissement, l’IA a personnalisé l’expérience utilisateur en créant de nouveaux contenus qui étaient auparavant impensables sans intervention humaine. Dans l’ensemble, l’utilisation de l’IA remodèle l’économie mondiale, générant des avantages concurrentiels significatifs pour les entreprises qui adoptent rapidement cette technologie. Ce changement a généré un débat intense sur la nécessité de politiques promouvant une transition juste permettant aux humains de s’adapter aux changements.
Défis réglementaires
L’une des questions les plus complexes auxquelles sont confrontés les gouvernements est de savoir comment réglementer efficacement l’IA. D’un côté, il est nécessaire de mettre en œuvre des réglementations qui protègent la vie privée des individus et atténuent les risques liés à l’utilisation de l’IA, mais de l’autre, nous cherchons à éviter des réglementations trop strictes qui pourraient étouffer l’innovation et le développement économique. Un exemple en est le récent règlement sur l'intelligence artificielle proposé par le Parlement européen, dont le texte original remonte à 2021 et dont la première lecture a eu lieu le 13 mars 2024, avec des corrections d'erreurs le 16 avril 2024. Ce règlement instaure une intelligence artificielle harmonisée. normes pour l’introduction sur le marché, la mise en service et l’utilisation de systèmes d’intelligence artificielle dans l’Union européenne.
Son objectif est de promouvoir l'adoption d'une intelligence artificielle fiable et centrée sur l'humain qui garantit un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux, notamment la démocratie, l'État de droit et la protection de l'environnement. Le règlement de l’UE classe l’IA en fonction de son risque et vise à protéger les personnes contre les effets néfastes des systèmes d’IA, tout en soutenant l’innovation. De plus, les systèmes de notation sociale ou d’IA manipulatrice sont interdits, classés comme risques inacceptables.
Le texte aborde les systèmes d’IA à haut risque et les systèmes d’IA à risque limité, soumis à des obligations de transparence, tout en garantissant que les utilisateurs sont conscients qu’ils interagissent avec l’IA. Cependant, et en réponse à l’innovation, la loi ne réglemente pas le risque minimum, qui s’exprime dans la plupart des applications de l’IA, comme les jeux vidéo. En revanche, les fournisseurs de modèles d’IA à usage général doivent se conformer à la directive sur les droits d’auteur et publier un résumé du contenu utilisé pour la formation.
2024 s’annonce comme une année chargée en approches réglementaires de l’IA. Aux États-Unis, l'IA est entrée dans le débat politique, qui a culminé avec le décret 14110 du président Biden, le 30 octobre 2023, pour le développement et l'utilisation sûrs, fiables et dignes de l'intelligence artificielle. Parmi ses objectifs, il ressort que « l’utilisation responsable de l’IA a le potentiel de contribuer à résoudre des défis ».
urgent tout en rendant notre monde plus prospère, plus productif, plus innovant et plus sûr. Dans le même temps, une utilisation irresponsable pourrait exacerber les préjudices sociaux tels que la fraude, la discrimination, les préjugés et la désinformation.
Conformément à ces initiatives, la Chine et le Brésil adaptent leur propre législation sur l’IA, reflétant un intérêt mondial pour l’établissement de cadres réglementaires solides pour cette technologie.
Cependant, la question se pose de savoir s’il est possible de réguler une technologie qui évolue constamment et croît à un rythme accéléré, puisque la réglementation doit être constamment mise à jour pour ne pas devenir rapidement obsolète. Il s’agit d’un défi supplémentaire que les gouvernements devront relever en réglementant l’IA.