
Avec le développement actuel des intelligences artificielles et les capacités qu'elles ont acquises grâce à l'interaction avec les humains, certaines personnes ont exprimé leurs craintes quant à la pérennité de cette technologie . La raison principale est qu'en raison des films de science-fiction dans lesquels une intelligence artificielle pourrait dominer le monde, des mesures préventives sont prises à cet égard.
Bien que le PDG d'OpenAI, Sam Altman , affirme dans une récente interview que les modèles d'intelligence artificielle générative (ChatGPT, Midjourney, DALL-E et autres) n'ont aucune volonté propre et attendent plutôt une indication d'un humain, la vérité est que les scénarios les plus inquiétants ont comme protagonistes des IA autonomes, qui agissent automatiquement pour effectuer des tâches pour lesquelles elles ont été programmées .
Selon le magazine " Scientific American ", des cas ont été rapportés dans lesquels l'intelligence artificielle a été utilisée pour nuire à l'humanité : des systèmes qui recommandent des contenus inappropriés ou toxiques sur les réseaux sociaux , des drones militaires guidés par l'IA qui tuent des civils sans aucun raisonnement, ils sont juste isolés cas d'un problème qui pourrait s'aggraver si un sens de la « moralité » n'est pas développé dans ces systèmes .
Pour certains, indique la publication, les défis de l'intelligence artificielle se situent dans l'avenir et des travaux doivent être faits pour éviter d'éventuels scénarios qui pourraient affecter l'humanité . Cependant, certains scientifiques estiment que la priorité devrait être axée sur la résolution des problèmes actuels, qui sont déjà considérés comme nombreux.

Cynthia Rudin, chercheuse en intelligence artificielle à l'Université Duke, a déclaré : "Je pense que nous avons des problèmes bien pires en ce moment", car elle les considère plus réels qu'un avenir hypothétique, car jusqu'à présent, ces logiciels n'ont pas provoqué de catastrophes à grande échelle.
Cependant, Jan Leike, chercheur à OpenAI, affirme que la prévention d'un événement mondial généré par l'intelligence artificielle est déjà une préoccupation aujourd'hui et que des travaux sont en cours pour réduire les chances que cela se produise.
intelligence artificielle et morale
Bien que l'intelligence artificielle soit actuellement en phase de développement et nécessite plusieurs bases de données pour "apprendre" à générer ses résultats (et améliorer celles qui produisent déjà), il existe déjà des idées qui proposent que l'IA soit également nourrie de valeurs humaines . connaissances acquises par l'homme.

De cette façon, il est prévu que ce type de programmes puisse "prendre de meilleures décisions ", mais même ainsi, il y a l'idée qu'il est possible que ces "valeurs" puissent être utilisées de manière incorrecte, donc de nouveaux modèles seront recherchés pour être créés qui sont basés sur la sécurité plutôt que sur des systèmes moraux.
Besoin de "contact" humain
Le PDG d' OpenAI a déclaré dans une interview que, même avec les erreurs qui peuvent survenir lors de l'utilisation d'une technologie artificielle telle que ChatGPT , la meilleure façon de l'améliorer constamment est par l'apprentissage et le contact avec les humains. Pour Altman, c'est la meilleure façon de développer le potentiel de ces outils et, en même temps, pour les humains de s'adapter progressivement à leur utilisation.
« Il faut comprendre que ça ne sert à rien d'avoir tout dans un laboratoire . C'est un produit qu'il faut diffuser et qui prend contact avec la réalité et comporte des erreurs alors que les risques sont faibles", a-t-il assuré. Il a également indiqué qu'un portage progressif de GPT-3 vers GPT-4, puis vers d'éventuelles versions futures, est préférable au démarrage du processus à partir d'hypothétiques GPT-6 ou GPT-7.