
Mustafa Suleyman se souvient du moment capital où il a réalisé le potentiel de l'intelligence artificielle. Nous étions en 2016 – une époque paléolithique selon les normes de l'IA – et DeepMind , la société qu'il avait cofondée et qui avait été rachetée par Google en 2014, avait opposé sa machine d'IA, AlphaGo , à un champion du monde de Go, la stratégie incroyablement difficile. jeu. AlphaGo a effectué des milliers de permutations, éliminant rapidement le malheureux humain. Abasourdi, Suleyman comprit que la machine avait « des perceptions apparemment surhumaines », dit-il dans son livre sur l'IA, « The Coming Wave ».
Le résultat n’est plus surprenant, mais les implications le sont. Un peu plus d'un an après que le logiciel ChatGPT d'OpenAI ait contribué à sensibiliser le public à l'IA générative, les entreprises, les investisseurs et les régulateurs se demandent comment façonner la technologie conçue pour les surmonter. Les risques exacts de cette technologie font encore l’objet de débats et les entreprises qui la dirigeront n’ont pas encore été déterminées. Il existe cependant un point d’accord : l’IA est transformatrice . "Les gens ont beaucoup de mal à imaginer le niveau d'innovation", a déclaré Vinod Khosla, fondateur de la société de capital-risque Khosla Ventures de la Silicon Valley, qui a été l'un des premiers investisseurs dans OpenAI. « Choisissez un domaine : livres, films, musique, produits, oncologie. Cela ne s'arrête tout simplement pas.
Si 2023 était l’année où le monde s’est réveillé face à l’IA, 2024 pourrait être l’année où ses limites juridiques et techniques seront testées (et peut-être dépassées). DealBook s'est entretenu avec des experts en IA des effets réels de ce changement et de ce à quoi s'attendre l'année prochaine.
Les juges et les législateurs interviendront de plus en plus
L’avalanche de réglementations sur l’IA ces derniers mois risque de faire l’objet d’un examen minutieux. Cela inclut le décret du président Joe Biden d'octobre, qui, s'il est ratifié par le Congrès, pourrait obliger les entreprises à garantir que leurs systèmes d'intelligence artificielle ne peuvent pas être utilisés pour fabriquer des armes biologiques ou nucléaires, à intégrer des filigranes dans le contenu généré par l'IA et à divulguer les clients étrangers. au gouvernement.
Lors du Sommet sur la sécurité de l’IA au Royaume-Uni en novembre, 28 pays, dont la Chine – mais pas la Russie – ont convenu de collaborer pour prévenir les « risques catastrophiques ». Et lors de négociations marathon en décembre, l'Union européenne a rédigé l'une des premières tentatives globales au monde visant à limiter l'utilisation de l'intelligence artificielle, qui, entre autres dispositions, restreint la reconnaissance faciale et les deepfakes et définit la manière dont les entreprises peuvent utiliser l'IA. Le texte final doit être présenté début 2024 et les 27 pays membres du bloc espèrent l'approuver avant les élections au Parlement européen de juin.
Avec cela, l’Europe pourrait finir par créer des règles mondiales en matière d’IA , obligeant toute entreprise exerçant des activités sur son marché de 450 millions d’habitants à coopérer. "Cela rend la vie plus difficile aux innovateurs", a déclaré Matt Clifford, qui a contribué à l'organisation du sommet sur l'IA au Royaume-Uni. "Ils doivent envisager de répondre à une très longue liste de choses qui inquiètent les Bruxellois."
Il existe de nombreuses inquiétudes, notamment sur la possibilité que l’IA remplace un grand nombre d’emplois et renforce les préjugés raciaux existants.
Certains craignent de submerger les entreprises d’IA de réglementations
Clifford estime que les lois existantes en matière de lutte contre la fraude et de protection des consommateurs rendent redondantes certaines parties de la législation européenne, la loi sur l'IA. Mais l'architecte en chef de l'UE, Dragos Tudorache, a déclaré que l'Europe "n'aspirait pas à devenir un régulateur mondial" et qu'il avait maintenu un dialogue étroit avec les membres du Congrès américain pendant les négociations. "Je suis convaincu que nous devons rester synchronisés autant que possible", a-t-il déclaré.
Les gouvernements ont de bonnes raisons de s’attaquer à l’IA : même des outils simples peuvent servir à des fins obscures. "Le microphone a permis à la fois les conférences de Nuremberg et les Beatles", a écrit Suleyman, actuellement PDG d'Inflection AI, une startup qu'il a cofondée l'année dernière avec Reid Hoffman, co-fondateur de LinkedIn. Il craint que l’IA ne devienne « incontrôlable et incontrôlable » une fois qu’elle surpassera les humains. "Homo technologicus pourrait se retrouver menacé par sa propre création."
Les capacités de l’IA vont monter en flèche
Il est difficile de déterminer quand ce point de bascule pourrait arriver. Jensen Huang, co-fondateur et PDG de Nvidia, dont la domination dans les puces d'IA a triplé le cours de ses actions depuis le 1er janvier 2023, a déclaré lors du DealBook Summit fin novembre qu'« il y a beaucoup de choses que nous pouvons encore faire ». Je ne le fais pas.
Khosla estime que le progrès clé de l’IA en 2024 sera le « raisonnement », qui permettra aux machines de produire des résultats beaucoup plus précis, et qu’en 2025, « l’IA surpassera le raisonnement des membres intelligents de la communauté. Les machines d'IA seront de plus en plus capables de suivre plusieurs étapes logiques et d'effectuer une réflexion probabiliste, comme l'identification d'une maladie sur la base de données spécifiques, a déclaré Khosla.
Des investissements de plusieurs millions de dollars seront nécessaires
Rien de tout cela ne sera bon marché, et la question est désormais de savoir quelles entreprises seront capables de créer des activités d’IA véritablement durables. Sur les 175 072 brevets d’IA déposés entre 2012 et 2022, plus de la moitié l’ont été au cours des trois dernières années, selon la Deutsche Bank. En 2024 et 2025, la banque prévoit une forte augmentation du nombre d’entreprises utilisant l’IA pour les ressources humaines, le marketing, les ventes et le développement de produits. C'est déjà le cas : les cabinets d'avocats, par exemple, ont commencé à utiliser des contrats générés par l'IA, réduisant ainsi les heures de travail des avocats. « Le moment est venu pour une explosion de l'innovation dans le domaine de l'IA », prédisait-il en mai dernier.
À mesure que ces innovations se développent, la collecte de fonds augmente. La startup française d'IA Mistral AI - considérée comme un concurrent européen d'OpenAI - a levé plus de 500 millions de dollars en 2023. Plus de 200 millions de dollars sont venus du géant du capital-risque de la Silicon Valley Andreessen Horowitz, dans le cadre d'un tour de table qui a valorisé Mistral, avec seulement sept mois d'existence, à 2 milliards de dollars.
Mais cela pourrait ne pas suffire pour créer un système d’IA à usage général du type de celui alimenté par ChatGPT et que Mistral a en tête. "Il devient de plus en plus clair que les énormes sommes d'argent nécessaires pour être compétitif", déclare Clifford. "Si vous souhaitez construire un modèle à usage général, le montant du capital nécessaire peut être si important qu'il rend la tâche très difficile au capital-risque traditionnel."
© Le New York Times 2023