
Face aux risques potentiels que pourrait représenter l’intelligence artificielle pour la sécurité mondiale, un important groupe de scientifiques spécialisés a décidé d’agir de manière responsable et avec une vision d’avenir.

Il convient de rappeler la définition de l'Université Complutense de Madrid, qui décrit les armes biologiques comme des entités vivantes ou leurs produits toxiques utilisés dans le but de provoquer une maladie, une incapacité ou la mort.
Face à cette réalité, la décision de ces scientifiques d’orienter leurs efforts vers le bien-être de l’humanité, en évitant le développement d’outils pouvant être utilisés pour causer des dégâts massifs, marque une étape importante en matière d’éthique et de responsabilité dans le domaine de l’intelligence artificielle.
Alors, l’IA est-elle capable de créer des maladies ?
Bien que l’application de l’intelligence artificielle dans le domaine des sciences biologiques offre des perspectives prometteuses en termes de progrès et de solutions aux problèmes mondiaux, une mauvaise manipulation ou une utilisation malveillante de cette technologie pourrait entraîner des conséquences négatives importantes au niveau biologique.
La capacité de concevoir des protéines à l'aide de l'IA ouvre la porte non seulement à des développements positifs tels que la création de nouveaux traitements médicaux et une meilleure réponse aux épidémies de maladies infectieuses, mais également à des applications potentiellement dangereuses, telles que la création d'agents pathogènes plus mortels ou résistants aux agents pathogènes existants. traitements.

L’utilisation non réglementée de l’IA dans la modification génétique pourrait entraîner des altérations imprévisibles des écosystèmes, affectant la biodiversité et provoquant des déséquilibres écologiques.
Utilisation responsable de l’IA
Face à ce scénario aux connotations quelque peu apocalyptiques, un groupe de chercheurs spécialisés en intelligence artificielle s’est réuni au sommet de l’Institute for Protein Design de l’Université de Washington le 25 octobre 2023 pour conclure un accord concernant l’utilisation de l’IA en biologie.
144 scientifiques, dont des biologistes et des experts en intelligence artificielle axés sur la création de nouvelles protéines et même Frances Arnold, prix Nobel de chimie 2018, se sont engagés à garantir que leurs études soutenues par l'intelligence artificielle se poursuivent d'une manière qui ne représente pas une menace significative pour la santé. la planète.

"En tant que scientifiques impliqués dans ces travaux, nous pensons que les avantages des technologies actuelles d'IA pour la conception de protéines dépassent de loin les risques potentiels et nous souhaitons nous assurer que nos recherches continuent de bénéficier à tous à l'avenir", déclare-t-il. déclaration signée par cette communauté scientifique.
L'engagement des scientifiques
Les chercheurs signataires de la déclaration ont convenu qu'il était nécessaire d'établir des règles concrètes afin qu'ils puissent orienter leurs travaux vers le bénéfice général de l'humanité.
"Nous mènerons des recherches pour le bénéfice de la société et nous nous abstiendrons de mener des recherches qui pourraient causer un préjudice général ou permettre une utilisation abusive de nos technologies", tel est le premier engagement de l'accord.
Les scientifiques montrent que cela peut être réalisé grâce à des recherches visant à créer de nouvelles connaissances et à promouvoir la santé et le bien-être.

De même, ils assurent qu'ils soutiendront « des efforts pour améliorer les méthodes par lesquelles son logiciel de conception de protéines est évalué afin de mieux identifier les risques. »
« Cela peut être mis en œuvre en s’engageant dans des recherches pour améliorer la compréhension théorique des risques ; participer à l'élaboration conjointe de cadres d'évaluation; évaluer de manière critique les performances des cadres d’évaluation actuels », expliquent-ils.
Bien que l’accord signé par plus de 100 scientifiques représente une étape importante, il reste à déterminer comment il sera effectivement appliqué dans la pratique.