
Les 1 000 ans d’histoire du système judiciaire anglais n’ont pas empêché la décision selon laquelle l’intelligence artificielle pourrait être utilisée par les juges pour les accompagner dans la préparation de leurs peines.
Les cours et tribunaux d’Angleterre ont autorisé les juges à utiliser l’IA dans la production et l’évaluation de décisions de justice. Pour ce faire, ils ont développé un guide pour maintenir certains cadres et garantir que les informations privées ne soient pas exposées ou que des décisions soient prises en laissant de côté l'éthique juridique.
« Ce guide est la première étape d’un ensemble de travaux futurs proposés pour soutenir le pouvoir judiciaire dans ses interactions avec l’IA. Tous les travaux seront revus à mesure que la technologie continue de se développer », ont-ils publié dans le rapport.

Toutefois, cela ne s’est pas fait sans poser de questions. Le deuxième juge le plus ancien d'Angleterre et du Pays de Galles, Master of the Rolls Geoffrey Vos, a souligné l'importance d'une utilisation prudente de l'IA par les juges. Il a déclaré que, même si les juges peuvent utiliser cet outil, ils doivent sauvegarder la confiance du public et « assumer l'entière responsabilité personnelle de tout ce qu'ils produisent » dans leur interaction avec les outils disponibles.
Pour sa part, Ryan Abbott, professeur de droit à l'Université de Surrey, a souligné que la technologie peut perturber l'évolution des décisions judiciaires, sachant qu'il existe des doutes quant à sa mise en œuvre dans d'autres domaines.
« L’IA et le système judiciaire sont des sujets qui préoccupent particulièrement les gens, et c’est un domaine dans lequel nous sommes particulièrement prudents lorsqu’il s’agit de tenir les humains informés. Je pense donc que l’IA pourrait perturber l’activité judiciaire plus lentement que dans d’autres domaines et nous procéderons avec plus de prudence dans ce domaine », a-t-il déclaré à l’AP.
Comment l’IA peut être utilisée dans les décisions de justice
Les juges et les magistrats peuvent désormais utiliser des outils tels que ChatGPT pour rédiger des jugements et des décisions, avec des lignes directrices établies pour leur utilisation responsable.
Dans ses directives, le ministère judiciaire a souligné l'importance de protéger les informations confidentielles et privées lors de l'interaction avec les plateformes d'IA, en exhortant à éviter de saisir des données non publiques dans les chatbots et à désactiver l'historique des discussions lorsque cela est possible.

« Ces informations sont ensuite disponibles pour être utilisées pour répondre aux requêtes des autres utilisateurs. En conséquence, tout ce que vous écrivez pourrait devenir public. Vous devez désactiver l’historique des discussions sur les chatbots IA si disponible », détaille le rapport.
Ils mettent également en garde contre la possibilité d’une divulgation accidentelle d’informations sensibles par certaines plateformes d’IA, soulignant la nécessité de rejeter les autorisations qui accordent l’accès à des informations sensibles sur les appareils mobiles et la responsabilité immédiate en cas de divulgation accidentelle.
La controverse a été encore alimentée par la révélation selon laquelle le juge Briss, membre de la Cour d'appel d'Angleterre et du Pays de Galles, a utilisé ChatGPT pour résumer des théories juridiques. Bien que dans certains cas, ce processus puisse être efficace, des situations peuvent également survenir dans lesquelles des échecs se produisent et cela s'avère contre-productif pour le domaine juridique.
Pour cette raison, le guide demande aux juges de vérifier « l’exactitude des réponses de l’IA avant de prendre des décisions qui modifient le cours de la vie des gens ». En tenant compte du fait que ChatGPT et Bard préviennent que les résultats qu'ils génèrent ne doivent jamais être considérés comme des conseils juridiques ou ceux qui prennent des décisions dans des affaires judiciaires, puisque ces chatbots aident uniquement à rechercher des informations ou à rédiger des textes.