Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Melina Masnatta : « L'avenir de l'IA dans l'éducation dépend de principes éthiques et de valeurs humaines »

Publié le 24.03.2024
Melina Masnatta a cofondé les organisations Enki (dédiée à l'intelligence artificielle et à l'enseignement) et Girls in Technology (axée sur l'écart numérique entre les sexes).

« À ce stade, nous savons que l’avenir de l’intelligence artificielle n’est pas seulement conçu avec des codes et des algorithmes, mais aussi avec des principes éthiques, des décisions politiques et des valeurs humaines. » Ces mots résument l'une des idées centrales de Melina Masnatta dans son nouveau livre Éduquer à des temps synthétiques : passion pour l'enseignement, désir d'apprendre (Galerna). L'auteur y intègre les voix d'enseignants, de familles, de spécialistes, de décideurs et d'ONG, ainsi que des expériences et des cas innovants provenant de différentes parties du monde, pour étudier comment le système éducatif est redéfini suite à l'émergence de l'IA .

Masnatta est un entrepreneur dans le domaine de la technologie, de l'éducation et de la diversité ; Elle a cofondé les organisations Girls in Technology et Enki et est directrice adjointe du programme de troisième cycle Intelligence artificielle et genre à l'UBA. Dans une interview avec Infobae , il affirme que l'avenir du système éducatif est en jeu dans la capacité de l'école à apprendre aux enfants à se poser des questions éthiques et innovantes, en mettant au premier plan l'éducation comme expérience de rencontre.

–Que signifie penser cette époque comme une « époque synthétique » ?

–L’idée du synthétique a pour moi deux pivots. D’une part, nous vivons dans un scénario numérique qui recherche la synthèse, et parfois c’est une synthèse réductionniste : l’algorithme tend vers le hashtag et non vers des pensées plus complexes. En revanche, le synthétique est non organique, celui qui est créé artificiellement . Nous pouvons penser cette époque comme synthétique à partir du réductionnisme, mais aussi de la complexité du nouveau scénario, qui nous confronte à des possibilités antagonistes : d’un avenir hyper-technologique à une panne numérique due à la crise climatique. Dans le livre, je récupère des données qui indiquent que ChatGPT utilise environ un demi-litre d'eau toutes les 5 invites (instructions), ce qui est extrêmement élevé.

Face à ces possibilités, l'école est tiraillée entre le potentiel du futur et les limites du présent , étant donné que dans de nombreux endroits l'accès à la technologie est encore impossible. Je crois que l'éducation doit s'approcher du nouveau, mais je crois aussi à la récupération de ce qui nous a amené là où nous sommes : il ne faut pas tout jeter par-dessus bord. Le sous-titre du livre (« passion pour l'enseignement, désir d'apprendre ») naît de la réflexion d'un enseignant, qui a posé une question clé : dans ce scénario synthétique, qui réveillera votre désir d'apprendre, votre passion pour l'enseignement ?

–Dans le livre, vous affirmez que l’IA pose le défi au système éducatif de mettre les principes et les valeurs humains au premier plan. Comment « l’humain » est-il redéfini dans l’éducation ? Quels aspects de l’humain l’école devrait-elle privilégier ?

–Nous sommes dans un moment de découverte, de commencement à voir une technologie qui nous était invisible. D’une part, je crois qu’il ne faut pas perdre de vue la persistance des privilèges : le manque d’alphabétisation et la non-scolarisation touchent encore des millions de garçons et de filles, tout comme le manque d’accès aux technologies. Cela dit, nous savons que les IA génératives ne sont plus seulement capables de détecter des modèles, mais également de produire du contenu écrit, des images, des audios et des vidéos. Je crois que ce qui peut nous différencier en tant qu'humains, c'est la créativité, la divergence, la capacité critique, le désir et la passion . Et surtout poser les meilleures questions , les plus philosophiques, celles qui ont à voir avec le pourquoi et le pourquoi .

Le système éducatif a une responsabilité au bout du chemin. Il y a une dernière personne responsable : le gestionnaire, le superviseur, le ministère. Face à un cas de harcèlement sur les réseaux sociaux, l’école est la seule institution à apporter une réponse, contrairement à l’entreprise technologique qui tiendra l’utilisateur pour responsable. L'aspect humain au sein de l'école amène l'exercice de responsabilités, que n'ont pas les entreprises et les gourous technologiques, car le pouvoir se confond grandement avec la capacité de faire . La logique de tous les technologues qui veulent fixer l’ordre du jour est de briser les règles, les accords et les responsabilités.

En même temps, la transgression est quelque chose de proprement humain. Il existe de nombreux cas de personnes qui enfreignent les règles pour innover, ce qu’une IA n’oserait pas faire. Il y a une forme de créativité.

Donc, bilan : l'humain se joue dans le temps, dans la question philosophique, dans la responsabilité et dans la transgression. Toutes ces composantes apparaissent dans le livre dans les voix et les expériences des protagonistes du système éducatif : enseignants, étudiants, décideurs, gestionnaires. Nous devons tous assumer la responsabilité de ces défis, de ce que nous consommons : notre « régime cognitif ».

–Parfois la « lenteur » de l’école à s’adapter aux changements est remise en question, on répète que l’école est restée au 20ème siècle mais a des élèves du 21ème siècle… cette lenteur peut-elle être une richesse de l’école, dans la mesure où cela n'implique pas de refuser le dialogue avec le présent ?

– Il me semble que c’est nodal. En parlant avec les enseignants et les administrateurs, apparaît d'abord ce besoin de réflexion , la question de savoir pourquoi je dois me précipiter pour mettre en œuvre une application technologique sans savoir ce qui se cache derrière ni ce qui peut arriver. Dans de nombreux cas, nous constatons que plus les enseignants utilisent l’intelligence artificielle, plus ils sont prudents dans leur utilisation. On entend parfois l'idée préconçue selon laquelle « les enseignants ne veulent pas innover », mais ce n'est pas le cas. Il est essentiel qu’il y ait ce que l’on appelle « l’ humain dans la boucle », une personne qui filtre, supervise, prend des décisions et apporte des suggestions. Nous ne pouvons pas sortir de là, et cela implique aussi d’autres temps qui ne sont pas technologiques.

« Éduquer à des temps synthétiques » s'articule autour d'une série de questions divisées en trois axes : le système éducatif, les protagonistes et le dialogue entre les deux dans ce nouveau scénario.

–Vous avez travaillé sur la fracture numérique ; vous avez cofondé et dirigé l’organisation Girls in Technology. Quelles nouvelles formes d’inégalités apportent ces temps synthétiques et comment l’école peut-elle y intervenir ?

–Je crois que la question est celle de la technologie la plus puissante : ne cessons de nous demander qui a conçu une telle application, pourquoi faut-il faire autant d’efforts cognitifs pour s’y adapter. Cela s’explique sûrement parce que ce n’est pas une personne comme vous qui a conçu cela : c’est là que l’on commence à voir la question des inégalités. Une conception qui n’a pas pris en compte les personnes analphabètes, neurodivergentes, appartenant à une autre culture ou d’un autre âge. Au Japon , qui est une Mecque technologique, l'aspect générationnel est très présent dans la conception des technologies, car ils ont une population plus âgée ; Là, les applications sont super accessibles.

Parfois, nous ne réalisons pas que la technologie nous éduque aussi . Il n’y a jamais qu’une seule façon de penser les choses, mais nous constatons que les algorithmes comportent le risque de promouvoir une pensée unique et unificatrice . L'idée de personnalisation est un peu délicate : je vous donne l'impression de vous proposer quelque chose de personnel, mais je ne fais pas quelque chose de différent pour chaque personne, mais je vous insère plutôt dans un motif, dans le but de regrouper.

Aujourd’hui, la technologie est la grande école, mais c’est une école dangereuse : elle est façonnée par les préjugés de ceux qui la conçoivent, qui ont une formation. Ce ne sont pas des équipes diversifiées, tout ce qui les intéresse, c'est de les rendre publiques et de les faire sortir rapidement. Il y a une phrase que l'on dit beaucoup dans le monde technologique, et dont je ne sais pas si elle serait possible dans le monde éducatif : « Il vaut mieux demander pardon que demander la permission ». Cela entre en tension avec l’idée de responsabilité. C’est une vision qui pense uniquement en termes de consommateurs et non de citoyens.

–Souvent, l’environnement numérique nous est présenté comme naturel, comme quelque chose qui est donné et non comme quelque chose qui a été construit. Est-ce un défi de l'éducation que de pouvoir dénaturer cet environnement, de nous aider à voir qu'il pourrait en être autrement ?

–Oui, cela nous coûte cher, car l’ expérience utilisateur nous donne l’impression qu’elle est organique, alors qu’en réalité elle est synthétique.

Aujourd'hui, les IA peuvent nous surveiller et enregistrer notre activité dès le moment où nous entrons dans la classe, voir le degré d'engagement dans la classe. Nous nous dirigeons vers un scénario où les entretiens d’embauche ne seront plus nécessaires : en nous surveillant simplement, les entreprises pourraient accéder à notre historique de performances. Non seulement ils verront votre empreinte numérique, mais ils pourront également savoir à quel point vous vous concentrez et à quel point vous participez. Et toutes ces informations restent ensuite entre les mains des grands conglomérats , car ce que veulent les startups, c'est vendre aux trois ou quatre plus grandes entreprises.

En mars 2023, j'ai participé à BettUK, le plus grand événement éducatif et technologique au monde. L'une des principales préoccupations était de trouver une solution au défi posé par l'IA, et la proposition d' EdSafe , un groupe mondial d'enseignants dédiés à la promotion de l'utilisation sûre de l'IA dans l'éducation, a été très populaire. Ce groupe a rédigé un manifeste pour demander, entre autres, aux entreprises technologiques de vous dire ce que vous courez en danger en utilisant certaines technologies, ce qu'il adviendra de vos données. Les entreprises le savent, mais elles ne le disent pas. Cela m’a semblé essentiel car on a très rarement cette visibilité et cette dénaturation. Aujourd’hui, le seul réseau social qui vous dit qu’il peut avoir des conditions addictives est TikTok, et vous le lisez à peine, car vous acceptez rapidement les termes et conditions. Ce n'est que maintenant qu'Instagram le rend plus sophistiqué et vous permet de savoir si vous avez passé plus d'un certain temps.

D’un autre côté, je trouve très intéressante la réforme éducative que le Japon a mise en œuvre en 2023, qu’ils ont appelée « Brave Change ». Le nouveau programme est très simple, avec seulement cinq matières : arithmétique commerciale, lecture, éducation civique, informatique et langues. L'idée est de former des étudiants dès le plus jeune âge dans le cadre d' une citoyenneté mondiale , de former des jeunes à la capacité de questionnement, à la pensée socratique, à la capacité de dénaturer ce qu'ils consomment.

Aujourd'hui, nous parlons déjà d' hallucinations artificielles , qui posent un défi crucial, en particulier pour les personnes ayant moins d'expérience en matière d'éducation, qui peuvent avoir moins de capacité de « filtrage » et ont tendance à croire que le numérique est réel. Récemment, le CTO (Chief Technology Officer) de ChatGPT a averti qu'il y a des gens qui commencent à avoir des hallucinations artificielles, de faux souvenirs . On voit là aussi l’importance de pouvoir dénaturer ce que l’on voit dans l’environnement numérique.

–Dans le livre, vous sauvez des expériences éducatives qui privilégient l’importance de la rencontre, qui font place aux émotions et aux défis liés à la santé mentale. Est-ce aussi une manière de mettre l’humain au premier plan, sans pour autant ignorer la centralité de l’apprentissage ?

–Nous revenons aujourd’hui à des méthodologies pédagogiques qui mettent en avant la rencontre, l’expérience en temps réel. À l’ère de la post-vérité, où je ne sais plus si une vidéo est réelle ou non, le moment de l’expérience en personne devient tout à fait nécessaire. Au fond, nous sommes toujours à la recherche de ce qui nous marque. L'éducation est avant tout une rencontre humaine . Cette rencontre est la condition de possibilité pour que l’expérience d’apprentissage se produise. Un directeur m'a dit qu'après la pandémie, ce qui se passe à l'école doit être super significatif, parce que si les adolescents ne partent pas, il y aura des ruptures, il y aura des cas très graves de santé mentale.

–À l'école et à l'université, le défi se pose d'entrer en dialogue avec la culture des enfants, de « s'adapter » aux formats auxquels ils sont habitués. Dans quelle mesure existe-t-il une voie pour l’avenir de l’éducation ? Est-il souhaitable qu’une classe ressemble à TikTok ?

–Je pense qu’une chose se situe au niveau primaire, où la captation de l’attention et la place de l’autorité sont différentes. Mais au niveau universitaire , il existe certaines possibilités. Dans le livre je cite le cas d'un professeur qui a développé le concept de « café, croissant, petit-déjeuner et connaissance », où il choisit un concept et avec quelques outils d'IA freemium il crée de courtes vidéos avec des avatars , au format TikTok. Ainsi, pendant que les élèves se préparent pour le cours, en prenant un café avec un croissant, ils regardent la vidéo et ce professeur s'assure qu'ils ont déjà un ancrage théorique pour commencer le cours. Cela fonctionne pour lui parce que cela les rend accros, mais vient ensuite le cours, ce qui est le plus important. Et si la vidéo n’est pas là, il perd une place dans la « grille » d’attention de ses élèves. Je pense qu’il y a un point là : le format est très prégnant, et il est important de montrer que vous comprenez cette culture. Mais le format ne peut pas manger de connaissances, car cette technologie n'a pas été conçue avec un objectif pédagogique , mais avec la logique de vendre et d'arriver plus vite.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.