
La mise en œuvre d'outils technologiques tels que l'intelligence artificielle générative dans les établissements d'enseignement représente une grande avancée dans les méthodes d'enseignement, cependant, la sécurité et l'intégrité des étudiants sont un facteur qui doit être pris en compte dans l'équation.
Le ministère de l'Éducation d'Australie du Sud , lorsqu'il a décidé d'apporter l'IA générative aux étudiants, s'est demandé comment il devrait le faire de manière responsable.
La principale préoccupation était de contribuer à protéger les étudiants contre les contenus potentiellement dangereux ou inappropriés qui pourraient se refléter dans le résultat d'un grand modèle de langage, compte tenu de leur formation sur de vastes étendues non filtrées d'Internet, a déclaré Simon Chapman , directeur de l'architecture numérique du département. .
"Il n'y a aucune barrière de sécurité quant à la façon dont les étudiants peuvent interagir avec ces outils", a-t-il ajouté.

Dans ce contexte, le gouvernement australien a décidé d'expérimenter EdChat , un chatbot alimenté par l'intelligence artificielle, associé à Azure AI Content Safety . Ce dernier système servait de barrière bloquant les contenus non adaptés aux étudiants.
Près de 1 500 étudiants et 150 enseignants de huit lycées ont testé la capacité du robot à enquêter sur tout, de la division cellulaire à l'intrigue de Of Mice and Men de John Steinbeck. Le ministère est encore en train d'évaluer les résultats, mais le système Microsoft a reçu de bonnes notes.
Les fonctionnalités de sécurité intégrées d' EdChat ont bloqué les requêtes de saisie inappropriées et filtré les réponses nuisibles, permettant aux enseignants de se concentrer sur les avantages pédagogiques de la technologie plutôt que sur la surveillance du contenu, a déclaré le directeur de l'architecture numérique du département d'éducation.

Azure AI utilise des modèles de langage et de vision avancés pour aider à détecter les contenus haineux, violents, sexuels et d’automutilation. Lorsque les modèles détectent un contenu potentiellement dangereux, ils le signalent avec un score de gravité estimé. Cela permet aux entreprises et aux organisations de personnaliser le service pour bloquer ou signaler du contenu en fonction de leurs politiques.
En interne, Microsoft a mis en œuvre Azure AI Content Safety pour protéger les utilisateurs de ses propres produits basés sur l'IA. Cette technologie a joué un rôle crucial dans le lancement responsable d'innovations liées à la messagerie dans des produits tels que Bing , GitHub Copilot , Microsoft 365 Copilot et Azure Machine Learning .
« L'un des principaux avantages d'Azure AI Content Safety est sa configurabilité », a déclaré Sarah Bird, chef de produit du groupe partenaire chez Microsoft.
Les politiques peuvent être ajustées pour s'adapter à l'environnement et aux cas d'utilisation spécifiques à chaque environnement. Une plate-forme axée sur les jeux, par exemple, est susceptible d'établir des normes différentes pour des choses comme le langage violent par rapport à une plate-forme destinée à l'enseignement en classe.

La prolifération de l’intelligence artificielle dans le contexte éducatif a révolutionné la manière d’aborder l’enseignement et l’apprentissage. La personnalisation de l’apprentissage est l’une des facettes les plus importantes de cette transformation, car l’IA permet d’adapter les contenus et les stratégies pédagogiques pour répondre aux besoins individuels de chaque élève.
Les tuteurs virtuels basés sur l'IA fournissent un soutien constant, répondant aux questions et clarifiant les concepts à tout moment. De plus, il facilite l’évaluation automatisée des tâches et des examens, fournissant ainsi un retour d’information immédiat. En analysant de vastes ensembles de données éducatives, il aide également les établissements à identifier des modèles de performance et à prendre des décisions fondées sur les données.
Dans le contexte de l’enseignement à distance, l’IA a stimulé la croissance de l’enseignement en ligne en proposant des plateformes et des ressources numériques efficaces.
Malgré ses avantages, la diffusion de l’intelligence artificielle dans l’éducation présente des menaces potentielles , telles que la confidentialité des données et la nécessité d’une surveillance adéquate.