
Monsieur le juge,
Dans les voitures étiquetées XXX je viens dire :
1. Je m'excuse pour le mémoire déposé en réponse au procès contre mon client ZZZ
2. Toute la jurisprudence qui y est citée pour la défense de mon client est absolument fausse, comme vous l'avez déjà découvert
3. Le brief répondant à la demande a été préparé "en collaboration avec ChatGPT".
4. Ce document remplace le précédent. Il a été préparé par moi sans la collaboration de ChatGPT.
La technologie progresse chaque jour apportant presque toujours du bien-être aux humains, mais aussi, parfois, des soucis.
Nous partons du postulat qu'en principe, le principe de pleine liberté s'applique aux entreprises quant à leurs capacités de développement technologique.
Cependant, les administrations conservent toujours des pouvoirs réglementaires si l'intérêt général ou public pourrait être considéré comme compromis avec une quelconque conséquence liée aux développements de l'IA. Cela se produit dans tous les systèmes juridiques.
Nous sommes confrontés à des outils ou des outils qui peuvent être utilisés de différentes manières et à des fins différentes, pour faire du bien ou pour nuire et peuvent également causer des dommages non intentionnels , tant au niveau personnel que social. L'important est donc l'utilisation que nous faisons de ces outils.
Réglementer ou ne pas réglementer : telle est la question
La mise sur le marché de ces outils, les rendant largement accessibles, et la mise en évidence des risques qui peuvent en découler, ont généré un débat public sur la nécessité d'en réglementer la création, la diffusion et l'utilisation.
La régulation éventuelle soulève un certain nombre d'aspects à considérer et à discuter : est-ce suffisant avec l'autorégulation, ou faut-il légiférer ? Dans ce cas, la réglementation pourrait provenir d'administrations infranationales, nationales ou, peut-être, d'une organisation internationale. Dans tous les cas, il faudra évaluer la concurrence pour sa mise en œuvre effective, afin d'éviter que le règlement ne devienne une simple déclaration sans réel impact.
Une autre question juridique à discuter - et d'une grande importance - est l' équilibre entre l'utilisation des nouvelles technologies et les principes généraux du droit, la protection de l'intérêt public et d'autres droits, tels que la liberté d'expression, le droit à la vie privée, la libre entreprise et la propriété intellectuelle, pour ne citer que quelques-uns des domaines où des conflits et des dommages se sont déjà produits. Chaque jour, nous en recevons des nouvelles.

Jusqu'à présent , l'autorégulation des entreprises technologiques a été l' option prédominante , même si aujourd'hui ce sont les dirigeants de ces entreprises qui demandent aux autorités de réglementer la production, le développement, la distribution et l'utilisation de ces outils. Comme dans le célèbre poème de Goethe L'apprenti sorcier, la créature devient incontrôlable.
L'Union européenne discute de l'adoption d'une directive qui réglementera les outils d'intelligence artificielle (IA) et les plateformes sociales. De son côté, le Sénat des États-Unis a tenu une série d'auditions en vue de préparer une réglementation fédérale. Au niveau des États, des lois ont déjà été adoptées pour réglementer - et dans de nombreux cas limiter - l'utilisation de certains outils particuliers, par exemple la technologie de reconnaissance faciale.
Reste à savoir dans quelle mesure les règles générales approuvées au niveau national auront un réel impact, puisque les plateformes sont déployées depuis d'autres juridictions. Compte tenu de ce problème, des organisations telles que l'UNESCO ont élaboré des normes internationales, mais nous estimons que l'approbation de normes internationales contraignantes prendra beaucoup plus de temps.
La modération des contenus sur les réseaux sociaux est un enjeu clé. Facebook, Twitter et d'autres entreprises ont pris sur eux de modérer les contenus postés par les utilisateurs pour éviter, par exemple, les propos haineux, l'incitation à la violence raciste ou la pédophilie.
Cette modération est principalement automatisée grâce à l'utilisation d'algorithmes, bien que dans certains cas résiduels, la décision soit entre les mains des humains. Qu'est-ce qui est considéré comme un discours de haine ? Quelles images violent les normes établies par les entreprises ? Qu'est-ce qui peut être posté, dit et qu'est-ce qui ne l'est pas ? La réponse à ces questions génère des discussions intenses car toute réglementation à cet égard peut affecter la liberté d'expression.
Les outils d'IA sont formés sur des quantités massives de données . Dans le cas de ChatGPT , par exemple, tout ce qui est écrit et publié et tout le contenu Internet jusqu'en 2021. Beaucoup de ces documents sont soumis au droit d'auteur et sont la propriété intellectuelle de leurs auteurs. Les auteurs ont-ils le droit de réclamer le paiement des droits, la citation correcte de la source et la non-altération du contenu original ? Il semble que oui, mais c'est un peu difficile dans la pratique. Certaines actions en justice ont déjà été engagées pour défendre ces droits . Un autre aspect que la réglementation des outils d'IA devrait prendre en compte
Le règlement devrait également traiter de la responsabilité pour les dommages causés par l'utilisation de ces technologies. Qui est responsable lorsque ChatGPT attribue faussement à une personne la commission d'un crime et pas seulement cela, mais joint un lien vers des articles de journaux faux ou inexistants à l'appui de la déclaration ? Les entreprises ont tendance à rejeter la responsabilité sur "l'algorithme". Le problème, c'est qu'ils ont créé et commercialisé des systèmes qui à maintes reprises « hallucinent » -c'est ainsi que s'appellent désormais ces gaffes algorithmiques-.
Pour cette raison, la prise de décision ne devrait pas être déléguée à ces outils, mais certains États le font déjà, affectant souvent la vie, la propriété, la liberté et l'avenir des personnes. Ainsi, l'éventuel règlement devrait garantir, comme pour toute autre forme de pouvoir de décision : transparence, contrôle, révision (devant un éventuel organe administratif - aujourd'hui inexistant - et plus tard devant la Justice) et possibilité de rectification.
ChatGPT écrit, mais ne comprend pas ce qu'il écrit
Revenons à notre avocat au début et précisons que l'affaire est réelle et que le dossier a été déposé devant un tribunal de New York. Il est très important de préciser que ChatGP T n'est pas un logiciel de réflexion. Il s'agit d'un modèle de langage (Large Language Model en anglais), un algorithme formé avec une immense quantité de données afin qu'il prédise avec une précision saisissante quel mot suit un autre dans une phrase, produisant ainsi des textes avec une bonne facture linguistique.
ChatGPT est un bon jouet pour la syntaxe, mais incapable de sémantique. Il « sait » écrire, mais il ne « comprend » pas ce qu'il écrit. Et parfois, il écrit des bêtises ou invente carrément des choses folles ou répond par de fausses affirmations.
L'avocat de New York, au lieu de faire confiance à ChatGPT comme son "collaborateur", aurait dû vérifier le contenu du mémoire avant de le déposer. S'il n'avait coché qu'une seule des références jurisprudentielles, il se serait rendu compte qu'elle n'existait pas et aurait pu douter du reste du travail de son « collaborateur ». C'est ce qui a fait le juge.
Au-delà de ce qui peut être fait par le biais de la réglementation, il est clair que nous devrions tous nous éduquer davantage sur la numérisation qui est de plus en plus présente dans nos vies, pour utiliser avec prudence les outils appelés "intelligence artificielle".
Continuer à lire: