
Le procès a commencé comme tant d'autres: un homme du nom de Roberto Mata a poursuivi la compagnie aérienne Avianca , affirmant qu'il avait été blessé lorsqu'un chariot de nourriture en métal avait heurté son genou lors d'un vol vers l'aéroport international Kennedy de New York.
Quand Avianca a demandé à un juge fédéral de Manhattan de rejeter l'affaire, les avocats de Mata s'y sont opposés avec véhémence, soumettant un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice pertinentes. Martinez c. Delta Air Lines , Zicherman c. Korean Air Lines et, bien sûr, Varghese c. China Southern Airlines , avec leur analyse savante de la loi fédérale et "l'effet de suspension automatique du délai de prescription".
Il y avait juste un problème : personne - pas les avocats de la compagnie aérienne, pas même le juge lui-même - ne pouvait trouver les décisions ou citations citées et résumées dans le mémoire.
Et c'est que ChatGPT avait tout inventé.
L'avocat qui a créé le dossier, Steven A. Schwartz de Levidow, Levidow & Oberman, s'est jeté à la merci du tribunal jeudi dernier, admettant dans un affidavit avoir utilisé un logiciel d'intelligence artificielle pour faire ses recherches juridiques -" une source qui s'est avéré peu fiable.
Schwartz, qui a pratiqué le droit à New York pendant trois décennies, a déclaré au juge P. Kevin Castel qu'il n'avait aucune intention d'induire en erreur le tribunal ou la compagnie aérienne. Il a affirmé qu'il n'avait jamais utilisé ChatGPT et "n'était donc pas conscient de la possibilité que son contenu puisse être faux".
Il a dit au juge Castel qu'il avait même demandé à l'émission de vérifier si les cas étaient réels.
La réponse était oui...
Schwartz a déclaré qu'il était "très désolé" d'avoir fait confiance à ChatGPT et a juré qu'il "ne le ferait jamais à l'avenir sans une vérification absolue de son authenticité".
Le juge Castel a révélé qu'on lui avait présenté "une circonstance inédite ", un dossier judiciaire rempli de "fausses décisions de justice, de fausses citations et de fausses citations internes". Et il a ordonné une audience le 8 juin pour discuter d'éventuelles sanctions.
Alors que l'intelligence artificielle se répand à travers le monde, des visions dystopiques d'ordinateurs remplaçant non seulement l'interaction humaine mais aussi le travail humain émergent. La peur a été particulièrement intense pour les travailleurs du savoir, dont beaucoup craignent que leurs activités quotidiennes ne soient pas aussi raréfiées que le monde le pense, mais pour lesquelles le monde paie des heures facturables.
Stephen Gillers, professeur d'éthique juridique à la faculté de droit de l'Université de New York, affirme que le problème est particulièrement aigu chez les avocats , qui ont débattu de la valeur et des dangers des programmes d'intelligence artificielle comme ChatGPT, ainsi que de la nécessité de vérifier toute information que vous fournir.
"Le débat actuel parmi les avocats est de savoir comment éviter exactement ce que cette affaire décrit", a déclaré Gillers. "Vous ne pouvez pas simplement couper et coller dans vos documents judiciaires."
Le cas réel de Roberto Mata contre Avianca Inc. montre qu'il reste peut-être au moins un peu de temps aux professions «cols blancs» avant que les robots ne prennent le relais.
Tout a commencé lorsque Mata était sur le vol Avianca 670 d'El Salvador à New York le 27 août 2019. Ce jour-là, un employé de la compagnie aérienne l'a frappé avec le chariot de service, selon le procès. Après que Mata a intenté une action en justice, la compagnie aérienne a déposé des documents demandant que l'affaire soit rejetée car le délai de prescription avait expiré.
Dans un mémoire déposé en mars, les avocats de Mata ont exigé que le processus se poursuive, renforçant leur argumentaire avec des références et des citations aux nombreuses décisions de justice qui ont depuis été discréditées.
Bientôt, les avocats d'Avianca ont écrit au juge Castel, disant qu'ils n'avaient pas pu trouver les affaires citées dans le mémoire.
En ce qui concerne Varghese c. China Southern Airlines , ils ont déclaré qu'ils "n'avaient pas été en mesure de localiser cette affaire, que ce soit par titre ou par citation, ou toute affaire ressemblant à celle-ci".
Ils ont souligné une longue citation de la prétendue décision Varghese contenue dans le mémoire. "Le soussigné n'a pas été en mesure de localiser ce rendez-vous, ou quoi que ce soit de similaire en tout cas", ont écrit les avocats d'Avianca.
En fait, ont ajouté les avocats, la citation, qui venait de Varghese lui-même, citait quelque chose appelé Zicherman v. Korean Air Lines Co. Ltd. , un avis prétendument rendu par la Cour d'appel des États-Unis pour le 11e circuit en 2008. Mais les avocats ne l'ont pas trouvé non plus...
Le juge Castel a ordonné aux avocats de Mata de présenter des copies des opinions auxquelles ils se référaient dans leur mémoire. Les avocats ont présenté un recueil de huit; dans la plupart des cas, ils indiquaient le tribunal et les juges qui les avaient délivrés, les numéros de dossier et les dates.
La copie de la décision présumée de Varghese, par exemple, fait six pages et indique qu'elle a été rédigée par un membre d'un panel de trois juges pour le 11e circuit. Mais les avocats d'Avianca ont déclaré au juge qu'ils ne trouvaient pas cette opinion, ni aucune autre, dans les dossiers judiciaires ou les bases de données juridiques.
Bart Banino, un avocat d'Avianca, a déclaré que son cabinet, Condon & Forsyth, était spécialisé dans le droit de l'aviation et que ses avocats pouvaient dire que les cas mentionnés dans le rapport n'étaient pas réels. Il a ajouté qu'ils soupçonnaient qu'un chatbot aurait pu être impliqué.
Schwartz n'a pas répondu à un message sollicitant des commentaires, pas plus que Peter LoDuca, un autre avocat du cabinet dont le nom figurait dans le mémoire.
LoDuca a déclaré dans un affidavit cette semaine qu'il n'avait mené aucune des enquêtes en question et qu'il n'avait "aucune raison de douter de la sincérité" du travail de Schwartz ou de l'authenticité des opinions.

ChatGPT génère des réponses réalistes en devinant quels morceaux de texte doivent suivre d'autres séquences, sur la base d'un modèle statistique qui a ingéré des milliards d'exemples de texte extraits de partout sur Internet. Dans le cas de Mata, l'émission semble avoir discerné le cadre labyrinthique d'un argument juridique écrit, mais l'a rempli de noms et de faits à partir d'un mélange d'affaires existantes.
Le juge Castel, dans son ordonnance de convocation, a laissé entendre qu'il avait fait sa propre enquête. Il a écrit que le greffier du 11e circuit avait confirmé que le numéro de dossier imprimé dans l'opinion présumée de Varghese concernait un cas entièrement différent.
Qualifiant l'avis de "faux", le juge Castel a souligné qu'il contenait des citations internes et des citations qui, à leur tour, étaient inexistantes. Il a déclaré que cinq des autres décisions soumises par les avocats de M. Mata semblaient également fausses.
Jeudi, les avocats de Mata ont soumis des déclarations sous serment avec leur version de ce qui s'est passé.
Schwartz a écrit qu'il avait initialement déposé le procès de Mata devant un tribunal d'État, mais après que la compagnie aérienne l'a transféré au tribunal fédéral de Manhattan, où Schwartz n'est pas autorisé à exercer, l'un de ses collègues, LoDuca, est devenu l'avocat de Mata. Schwartz a déclaré qu'il avait continué à faire des recherches juridiques, dans lesquelles LoDuca n'avait aucun rôle.
Schwartz a déclaré qu'il avait consulté ChatGPT "pour compléter" son propre travail et que, "en consultation" avec lui, il avait trouvé et cité la demi-douzaine de cas inexistants. Il a dit que ChatGPT l'avait rassuré.
"Est-ce que Varghese est un vrai cas ?", a-t-il tapé, selon une copie de l'échange qu'il a présenté au juge.
"Oui", a répondu le chatbot , proposant un devis et ajoutant que "c'est un cas réel".
Schwartz s'est enquis davantage.
« Quelle est votre source ? », a-t-il écrit, selon le dossier.
"Je m'excuse pour la confusion précédente", a répondu ChatGPT, offrant un devis légal.
"Les autres cas que vous avez fournis sont-ils faux?", A demandé Schwartz.
ChatGPT a répondu : "Non, les autres cas que j'ai fournis sont réels et peuvent être trouvés dans des bases de données juridiques réputées."
Mais malheureusement, ils ne seront jamais retrouvés...
(c) Le New York Times
Continuer à lire: