
Que pensons-nous quand ils nous parlent d' Intelligence Artificielle (IA) ? Nous avons probablement tous des concepts différents basés sur les énormes avancées de cette technologie. Aujourd'hui, les banques, les entreprises, les sociétés de télécommunications et même l'industrie du divertissement ont déjà des cas d'utilisation. Et cette croissance, bien sûr, a également amené la discussion sur la question de savoir si l'IA devrait être - ou est - une boîte noire.
Il faut partir du fait que l'Intelligence Artificielle n'est pas une nouvelle technologie. Il est développé depuis plus de sept décennies et le besoin de modèles responsables fonctionne depuis des années.
Beaucoup disent que l'IA pourrait être considérée comme une boîte noire, n'ayant pas de visibilité sur les conclusions ou les données que cette technologie traite . Cependant, l'IA doit -et peut- être une boîte de verre, complètement transparente, dans la mesure où à la fois le fournisseur de technologie et l'utilisateur "alimentent" l'IA avec des données objectives et véridiques , et qu'en plus il y a de la visibilité comment l'outil est parvenu à cette conclusion , avec des modèles exempts de préjugés, transparents et équitables. Et le concept de régulation va précisément dans ce sens.
Dans le monde, aujourd'hui plusieurs pays ont déjà une réglementation ou sont en discussion pour établir une réglementation claire autour de l'IA. Le règlement cherche à définir les règles du jeu dans l'utilisation de l'IA, c'est le moyen de "marquer le terrain" sachant qu'il ne s'agit pas d'un obstacle à l'innovation, mais d'une opportunité de consensus sur la transparence , l'éthique et l'explicabilité. J'ai ? Et nous sommes tous les premiers à bénéficier, en tant que société, d'un cadre de protection de nos données personnelles.

L'IA utilise de grandes quantités d'informations pour apprendre et améliorer ses performances. L'humain doit être au centre de la technologie. Il s'agit d'avancer de manière responsable. Quel est l'impact sur les gens ? Cette question doit nous guider.
Pour construire une intelligence artificielle digne de confiance, par exemple, nous devons définir les piliers éthiques qui régissent le développement et la mise en œuvre de la technologie dans le monde : explicabilité, équité, robustesse, transparence et confidentialité. Notre pays ne fait pas exception.
La réglementation de l'IA intègre la responsabilité de plusieurs parties prenantes. Pour avancer avec cet engagement, une synergie des efforts entre les gouvernements, les organisations et les individus est nécessaire. Au sein de cette collaboration, les entreprises jouent un rôle clé en assumant la conception de l'IA de manière responsable dans le micro-monde de leur propre entreprise. Une conception qui touche non seulement la technologie, mais aussi la manière dont elle est mise en œuvre, l'éducation à son sujet et la gestion des talents impliqués.
Continuer à lire: