
Pour ceux qui ne sont pas familiers avec la science-fiction, Iron Man est une armure technologiquement avancée qui aide son inventeur, le milliardaire Tony Stark , à sauver le monde dans l'univers Marvel .
Dans le film original Terminator , un assassin doté d'une intelligence artificielle est renvoyé dans le temps pour assassiner Sarah Connor . Tous deux représentent les émotions que l’IA peut susciter, de l’enthousiasme suscité par le potentiel de la technologie à la crainte qu’elle puisse nuire à l’humanité.
Selon Borden, les humains et l’IA peuvent se compléter en combinant leurs forces. Les gens sont meilleurs en jugement, en inférence, en compassion et en persuasion, tandis que l’IA est vraiment douée pour rassembler, résumer et analyser des informations.
« L'IA va-t-elle remplacer les avocats ? » a demandé Borden. "Non, mais les avocats qui utilisent l'IA vont remplacer ceux qui ne l'utilisent pas", a-t-il répondu.
Les humains sont inquiets. Près de quatre employés américains sur dix se disent préoccupés par le fait que l’IA pourrait prendre en charge tout ou partie de leurs fonctions à l’avenir, selon une enquête de l’ American Psychological Association.
Ces craintes donnent lieu à des litiges. Selon les experts, plus de 100 poursuites liées à l’IA sont en cours dans le système juridique, allant de la propriété intellectuelle à l’amplification de contenus dangereux en passant par la discrimination. Le rythme des litiges liés à l’IA devrait s’accélérer dans les années à venir.

Les affaires en cours incluent des poursuites pour violation du droit d'auteur intentées par des dizaines d'écrivains contre OpenAI et des poursuites intentées par un groupe d'artistes talentueux contre des sociétés d'IA telles que Stability AI , Midjourney et DeviantArt .
Les experts juridiques affirment que les litiges en matière de propriété intellectuelle ne sont que la première vague de litiges en matière d’IA à parvenir devant les tribunaux. Les cas axés sur l'exactitude des données, la sécurité et les outils d'emploi sont susceptibles d'être les suivants.
Ce printemps, une déclaration conjointe de la Commission américaine pour l’égalité des chances en matière d’emploi et d’autres agences a averti que les organisations publiques et privées devraient utiliser l’IA de manière responsable pour prendre des décisions liées à l’emploi.
"Si vous réfléchissez à la façon dont ces modèles ont été formés, ils ont été formés avec des milliards d'exemples de la façon dont les êtres humains se sont exprimés dans le texte dans le cas de grands modèles de langage et de ce qui a été numérisé au cours des 60 dernières années. os, », dit Borden. « Eh bien, certaines de ces choses sont objectivement exactes, justes, équilibrées et non toxiques. Et d'autres ne le sont tout simplement pas", a-t-il ajouté.
Les entreprises, en particulier les multinationales, devront composer avec un paysage réglementaire incertain en matière d’IA pendant encore au moins quelques années. Il est peu probable qu’une législation fédérale de grande envergure sur l’intelligence artificielle soit adoptée avant l’élection présidentielle de 2024, ce qui exercerait une pression sur les États, les agences fédérales et les régulateurs pour qu’ils comblent le vide.
La loi de l'Union européenne sur l'IA , quant à elle, est une proposition basée sur les risques qui a fait l'objet de critiques de la part de grandes entreprises telles que Heineken et Airbus .
"Si vous pouvez comprendre une phrase, vous la comprendrez mieux que moi, et je pense que vous comprendrez une phrase mieux que les personnes qui l'ont écrite", déclare Tom Siebel , PDG et fondateur de la société AI Enterprise. C3.ai.

Quoi qu’il en soit, la loi européenne sur l’IA n’entrera probablement pas en vigueur avant 2025 au plus tôt. "Nous sommes plus susceptibles de recevoir des conseils des tribunaux qu'une grande déclaration d'un législateur", a déclaré Jordan Jaffe , associé du bureau de San Francisco de Wilson Sonsini Goodrich & Rosati .
"C'est un véritable désastre", déclare Brad Newman , associé résident en litige au bureau de Baker McKenzie à Palo Alto, en Californie . « Je suis un grand défenseur d'une législation fédérale rationnelle sur l'IA , favorable à l'innovation et à la protection. Je pense que le Congrès commence à comprendre.
Les États et les villes des États-Unis commencent déjà à agir, ce qui ajoute à la complexité de toute entreprise opérant à travers le pays. Une loi de l’Illinois exige que les candidats soient informés si l’IA est utilisée pour analyser leurs entretiens.
La ville de New York a une loi similaire. "L'État à surveiller en particulier est la Californie ", a déclaré Duane Pozza , associé du cabinet d'avocats Wiley Rein LLP . En vertu de sa législation sur la protection de la vie privée, le Golden State peut créer des règles régissant la prise de décision automatisée.
Le 30 octobre, l’administration Biden a annoncé un décret de grande envergure établissant de nouvelles règles pour la sécurité de l’IA. L'ordonnance partageait des orientations sur la confidentialité, l'équité, les principes de soutien aux travailleurs et la promotion de la concurrence américaine dans l'innovation en matière d'IA. "La Maison Blanche a contribué à garantir l'engagement volontaire des différents agents du secteur autour de la gestion de l'IA", explique Pozza.
"Je pense que la surréglementation est tout aussi mauvaise que la sous-réglementation", a déclaré Danny Tobey , président du département IA de DLA Piper . « Les entreprises devraient vraiment se concentrer sur les différences entre l'IA générative et l'IA traditionnelle. »
L’IA traditionnelle est plus facile à maîtriser et a des objectifs plus restreints, comme l’IA prédictive, tandis que l’IA générative peut presque tout faire et exposerait les entreprises à des risques plus importants. En l’absence de directives réglementaires claires et alors que les litiges se poursuivent devant les tribunaux, les entreprises doivent décider comment protéger leur réputation tout en investissant des milliards de dollars dans l’IA.
"La haute direction doit être responsable de l'utilisation matérielle de l'IA dans l'entreprise", a déclaré Newman. Il conseille aux entreprises de nommer un directeur de l’Intelligence Artificielle pour comprendre comment elle est utilisée, d’établir une politique transparente et légale, et de ne pas simplement confier des outils d’IA aux data scientists.

Newman affirme que les entreprises doivent également effectuer des tests constants – avant et après le déploiement – pour garantir que l’IA est équitable, ne viole pas les lois sur la confidentialité et n’est pas discriminatoire. Les entreprises doivent également informer leurs employés et clients de leur utilisation de l’IA.
L’IA générative, qui est davantage utilisée comme outil créatif, présente notamment des risques en matière de confidentialité, de secrets commerciaux, de propriété intellectuelle et de qualité.
"Vous pouvez imaginer une situation dans laquelle vous souhaitez utiliser l'IA générative et qui n'est pas rigoureusement examinée par un humain avant sa mise en service", explique Jaffe. "Il est nécessaire d'avoir des garde-fous à cet égard."
Pozza a déclaré que les entreprises doivent avoir des politiques claires sur la manière dont l'IA générative est utilisée. « L'importance d'une politique tient en grande partie au fait que les employés et les sous-traitants souhaitent utiliser cette technologie pour des choses nouvelles et intéressantes, mais la direction doit avoir le contrôle sur l'utilisation qu'elle en fait, afin de pouvoir réduire le type de risques juridiques et de conformité. » dit Pozza. "Toute personne impliquée dans le cycle de vie de l'IA doit être consciente que son utilisation pourrait entraîner une responsabilité potentielle."
Selon les experts, les dirigeants, y compris le responsable de la protection de la vie privée ou le responsable de l’information, doivent établir une gouvernance solide de l’IA , ainsi que d’autres comités ou structures internes pour examiner les nouvelles utilisations de l’IA et gérer la conformité. Le conseil d'administration et le PDG jouent également un rôle fondamental.
Certaines entreprises tentent d’intégrer l’IA dans les structures de gouvernance existantes, même si les experts préviennent que l’intelligence artificielle générative constitue une avancée technologique qui nécessite des cadres de gouvernance uniques.
Plus tôt cette année, l' Institut national des normes et technologies a publié un cadre populaire de gestion des risques liés à l'IA . Les opportunités et les risques présentés par l’IA doivent être pris en compte, avec une matrice de risques évaluant le risque faible, moyen et élevé du déploiement de l’ IA . Une IA plus proche de la prise de décisions concernant les clients et les employés serait considérée comme un cas d’utilisation à plus haut risque.
Et même si les experts juridiques s’inquiètent naturellement des risques de l’IA , nombreux sont ceux qui affirment que les entreprises et les régulateurs ne devraient pas perdre de vue la manière dont l’IA peut améliorer la vie, lorsqu’elle est utilisée de manière éthique et responsable.
"Il est très important pour moi que les avocats ne soient pas considérés comme des obstacles à l'IA", déclare Tobey. « Notre point de vue est que le droit doit être considéré comme un outil d'aide aux entreprises. »
Son collègue du DLA Piper , Borden, est du même avis. "C'est comme la deuxième révolution industrielle, où les entreprises qui ont compris l'effet transformateur des nouvelles technologies et qui s'y sont vraiment penchées sont celles qui ont décollé et sont devenues les dirigeants du monde."
(c) 2023, Fortune