
Alonso, professeur d'informatique et d'intelligence artificielle à l'Université de La Corogne et assistante du recteur pour les questions d'IA, raconte dans cette interview avec Infobae Espagne que depuis qu'elle a commencé à travailler dans ce domaine, elle fait plus de Après 30 ans, ce qu'il trouve particulièrement fascinant , c'est que les êtres humains sont capables de "reproduire certaines parties de l'intelligence grâce à des algorithmes complexes".
Question- Qu'est-ce que l'Intelligence Artificielle ? Considérez-vous cela comme une révolution ?
Réponse- L'IA est une partie de l'informatique qui vise à pouvoir créer des programmes ou des machines capables de se comporter comme un être humain, c'est-à-dire capables de raisonner, de comprendre le langage naturel ou ce qu'ils voient. C'est une révolution importante dans l'histoire, car elle ne produit pas seulement un changement dans les outils que nous utilisons, mais dans d'autres domaines tels que l'économie, le pouvoir géopolitique ou l'emploi , à travers de nouvelles réglementations que nous créons au fur et à mesure que nous progressons dans la mise en œuvre de la technologie.
Q- Quels risques l'IA comporte-t-elle ?
A- Nous avons vu que les outils doivent être évalués avec prudence car, lors de l'utilisation de données du monde réel, des biais se produisent parfois, qu'ils soient basés sur la race, le sexe ou la religion, et il peut y avoir des problèmes avec la vie privée, la sécurité ou avec certains autres droits fondamentaux. La transparence dans ce type de système est importante, il faut savoir qui est responsable, comment les données sont stockées et comment l'algorithme les utilise.
P- Il faut donc le réglementer...
R- L'Union européenne a déjà commencé à travailler sur une proposition d'IA qui respecte les droits de l'homme en 2018, avec les lignes directrices élaborées par le groupe d'experts de haut niveau sur l'IA et publiées en 2019. À partir de là, il y a eu différentes implications de l'UE, comme la loi sur les données [réglementation des données] et la loi sur l'IA [loi basée sur les niveaux de risque], et l'objectif est qu'elle puisse être publiée en janvier 2024. C'est pourquoi l'Espagne a proposé comme terrain d'essai de essayer de trouver un guide et que les entreprises de l'administration publique puissent vérifier que la loi est respectée.
Là où la législation européenne se concentre le plus, c'est sur les applications considérées comme à haut risque, celles qui ont à voir avec les ressources humaines ou les questions de santé, entre autres, car les applications considérées comme à faible et moyen risque porteront avec elles une sorte de label de qualité recommandé et le notez que vous interagissez avec une machine et non avec une personne, même si certaines seront directement interdites. En ce sens, la création de l'Agence espagnole de supervision de l'intelligence artificielle à La Corogne , qui sera la première en Europe, servira à superviser ces applications d'IA à haut risque.
Q- Quelles sont les opportunités ou bénéfices offerts par l'IA ? Sont-ils plus que des risques ?
A- Il y a plus d'opportunités que de risques. L'une des applications les plus abouties de ces dernières années, pour n'en citer qu'une, est Alpha Fold , un outil sorti par Google DeepMind , qui a contribué au progrès scientifique avec la carte protéomique la plus complète de l'être humain à ce jour, puisque cela nous permet de voir comment les protéines se replient [et donc de comprendre quelle est leur fonction]. Cela signifie que nous pouvons aller vers une médecine beaucoup plus prédictive et préventive.
Dans les questions d'apprentissage, par exemple, nous pouvons également voir comment chacun de nos élèves peut apprendre de manière plus individualisée et être en mesure de mieux les servir, ce qui serait impossible autrement car il y a beaucoup d'élèves et tous avec des capacités différentes. L'IA peut également aider à lutter contre le changement climatique, réduire les pesticides et les engrais ou optimiser la production industrielle, entre autres avantages.

Q- Est-il logique que les gens aient peur que les robots leur prennent leur travail ?
R- C'est logique qu'il y ait des gens qui aient peur du travail parce qu'il peut être détruit. Chaque fois qu'il y a eu une révolution, comme on l'a vu dans l'industrie, il y a des emplois qui disparaissent, mais de nouveaux apparaissent aussi. Tout indique que dans ce cas, la création d'emplois sera supérieure à la destruction qui se produit, non seulement en raison de l'IA, mais en raison de l'automatisation en général. il y aura de nouveaux emplois pour lesquels nous devrons nous inquiéter et prendre des mesures pour que cela puisse être prévu d'une manière ou d'une autre et que des décisions soient prises à cet égard.
On s'attend à ce que notre façon de travailler change, de sorte que les tâches que nous effectuons plus régulièrement puissent être effectuées plus efficacement par une machine, alors que nous devrons l'aborder d'une manière différente. Mais je vais donner un exemple : il y a 60 ans, les médecins avaient à peine des instruments et aujourd'hui ils ont à leur disposition beaucoup de tests basés sur des images, en Intelligence Artificielle, des chirurgies beaucoup plus précises peuvent être réalisées avec le robot Da Vinci et rien de tout cela a fait disparaître le métier , bien au contraire.
Q- Fin mars, plus de 1 000 experts ont signé un document pour demander un moratoire de six mois sur le développement de l'intelligence artificielle. Doit-on s'inquiéter ?
R- Je pense qu'en principe, il ne faut pas arrêter la recherche, car vous empêchez la technologie elle-même d'être celle qui remédie aux problèmes technologiques. Cette demande [des experts] pourrait répondre à un certain type d'intérêt , c'est pourquoi il est important que nous prenions soin de réglementer et il est important de le faire d'une manière qui fonctionne pour tout le monde, pas seulement pour les intérêts des grandes entreprises technologiques.
Q- En fait, en mai dernier, le créateur de ChatGPT lui-même, Sam Altman, a demandé au Congrès américain de réglementer le développement et l'utilisation de l'intelligence artificielle...
R- Altman a fait un investissement important. Il ne faut pas oublier qu'elle a réalisé en quelques jours ce que d'autres plateformes ont réalisé en quelques mois, et il y a là des intérêts économiques. Il faut réglementer non seulement en fonction des enjeux économiques, mais pour tout le monde. Les entreprises doivent avoir leur part de responsabilité, elles doivent aussi réglementer pour tester leurs produits et que lorsqu'ils vont sur le marché ils soient sérieux et sûrs.
Continuer à lire: