
Le concept de boîte noire a été principalement associé aux aéronefs, étant un élément clé pour identifier les détails du fonctionnement de l'aéronef en cas d'accident. Un terme qui est transféré à l'intelligence artificielle bien qu'avec un objectif différent.
L'idée est de protéger les informations qui permettent le développement de l'IA et qui doivent être protégées des agents externes, en raison de l'importance et de la complexité des données stockées. Cependant, il comporte une série de risques dus au peu de contrôle des résultats qu'il peut générer.
Boîte noire IA
Tout modèle derrière une intelligence artificielle , comme le cas de GPT pour ChatGPT ou PaLM-2 pour Bard , possède des milliards de paramètres à partir desquels il apprend à générer des résultats.
Un processus qui peut être transparent ou caché, comme dans le modèle de la boîte noire, qui génère un résultat sans montrer comment cela a été fait, rendant ainsi tous les processus internes inconnus de l'utilisateur.
Ceci est fait, dans une large mesure, pour créer un espace dans lequel la propriété intellectuelle des développeurs est protégée, en évitant la divulgation d'informations sensibles sur l'opération.

L'utilisation de ce modèle ouvre la porte à une série de risques, par exemple, que ni les programmeurs ni les développeurs ne soient clairs sur le processus de génération des résultats, car cette étape par étape reste entre les mains de l'algorithme et l'utilisateur ne fait que saisir les données de la requête et attend un résultat.
Un exemple de cette situation est ce qui est arrivé à un groupe de chercheurs de Google , qui travaillaient sur un logiciel d'IA et ont vu comment le système apprenait une nouvelle langue par lui-même. "Nous avons constaté qu'avec très peu d'incitations en bengali, il peut désormais traduire tout le bengali", a déclaré James Maneka, responsable de la division IA de l'entreprise.
Tout cela se produit parce que lors de la réception d'une grande quantité de données, le modèle apprend constamment, l'algorithme interne évolue et acquiert de nouvelles connaissances sans avoir besoin de contrôle humain.
« Tu ne comprends pas très bien. Vous ne pouvez pas vraiment dire pourquoi [le robot] a dit cela ou pourquoi il s'est trompé. Nous avons des idées et notre capacité à les comprendre s'améliore avec le temps. Mais c'est là où nous en sommes actuellement », a déclaré le PDG de Google, Sundar Pichai.
Risques et opportunités
Le modèle de la boîte noire a été implémenté dans plusieurs systèmes d'intelligence artificielle actuels, et bien qu'il existe des risques dus au peu de contrôle du processus, les experts disent que c'est le début du développement et qu'il faut le saisir comme une opportunité.
— Je ne pense pas non plus que nous comprenions parfaitement comment fonctionne l'esprit humain. Je pense que ce développement devrait inclure non seulement des ingénieurs, mais aussi des spécialistes des sciences sociales, des éthiciens, des philosophes, etc. Ce sont les choses que la société doit comprendre à mesure que nous avançons », a déclaré Pichai.

Une ligne qui est également suivie par Ian Hogarth , co-fondateur de la société technologique Plural, qui assure que ce doit être le moment où la dilution est sociale, car l'IA va transformer la vie des gens et le dialogue doit être ouvert sur cet impact.
« Je pense qu'il a un potentiel remarquable pour transformer tous les aspects de nos vies. L'essentiel est que nous devrions avoir une discussion beaucoup plus publique sur la vitesse à laquelle ces systèmes progressent et à quel point ils sont différents des générations précédentes de logiciels », a-t-il déclaré à la BBC.
Certains des avantages de ce modèle sont la grande vitesse d'apprentissage et la génération de contenu, permettant le traitement de plus d'informations qu'un humain n'est capable de faire. De plus, il est mieux à même d'identifier les tentatives de fraude et peut mieux prédire les modèles qu'il trouve dans vos données. Des points qui donnent à la boîte noire une chance de continuer à être explorée.