
Son prédécesseur, ChatGPT, a captivé et impressionné le public avec sa capacité étonnante à générer une écriture élégante, déclenchant une vague virale d'essais universitaires, de scripts et de conversations, même s'il ne pouvait générer que du texte et s'appuyait sur une génération antérieure de technologie qui n'a pas à la pointe de la technologie depuis plus d'un an.
GPT-4, d'autre part, est un système de pointe capable de créer non seulement des mots, mais également de décrire des images en réponse à de simples commandes tapées par une personne. Lorsqu'une image d'un gant de boxe est montrée suspendue au-dessus d'une bascule en bois avec une balle sur le côté, par exemple, une personne peut demander ce qui se passera si le gant tombe, et GPT-4 répondra qu'il frapperait la bascule et envoyer la balle voler
Le lancement a couronné des mois d'excitation et d'anticipation à propos d'un programme d'IA, connu sous le nom de grand modèle de langage, qui, selon les premiers testeurs, avait une capacité remarquablement avancée à raisonner et à apprendre de nouvelles choses.
Les développeurs ont promis mardi dans un article de blog que la technologie pourrait encore révolutionner le travail et la vie . Mais ces promesses ont également alimenté l'inquiétude quant à la manière dont les gens pourront concourir pour des emplois externalisés vers des machines étrangement raffinées ou faire confiance à l'exactitude de ce qu'ils voient en ligne.
Les responsables du laboratoire de San Francisco ont déclaré que la formation "multimodale" de GPT-4 sur le texte et les images lui permettrait d'échapper à la boîte de discussion et d'émuler plus complètement un monde de couleurs et d'images, surpassant ChatGPT dans ses "capacités de raisonnement avancées". Une personne peut envoyer une image à GPT-4 et elle la légendera.
Microsoft a investi des milliards de dollars dans OpenAI dans l'espoir que sa technologie devienne une arme secrète pour son logiciel de travail, son moteur de recherche et ses autres ambitions en ligne. Mais les boosters d'IA disent qu'ils ne peuvent qu'effleurer la surface de ce qu'une telle IA peut faire, et que cela pourrait conduire à des modèles commerciaux et à des entreprises créatives que personne ne peut encore prédire.

Les progrès rapides de l'IA, associés à l'énorme popularité de ChatGPT, ont alimenté une course aux armements de plusieurs milliards de dollars sur l'avenir de la domination de l'IA et ont transformé les nouvelles versions de logiciels en d'énormes spectacles.
OpenAI et Microsoft, qui ont lancé à la fin de l'année dernière un chatbot alimenté par GPT sur son outil de recherche Bing, ont agi de manière agressive pour contrer Google et d'autres pionniers de l'IA, convaincus que ces outils pourraient s'avérer cruciaux pour les industries du futur.
Mais la frénésie a également suscité des critiques selon lesquelles les entreprises exploitent rapidement une technologie non testée, non réglementée et imprévisible qui pourrait induire les gens en erreur, saper le travail des artistes et causer des dommages dans le monde réel.
Les modèles de langage de l'IA offrent souvent en toute confiance de mauvaises réponses , car ils sont conçus pour cracher des phrases convaincantes, et non des faits réels. Et parce qu'ils ont été formés aux textes et aux images d'Internet, ils ont également appris à imiter les préjugés humains de race, de sexe, de religion et de classe.
De tels systèmes ont inspiré un optimisme sans bornes quant au potentiel de cette technologie, certains voyant dans leurs réponses un sentiment d'intelligence ou de sensibilité presque à égalité avec les humains. Cependant, les systèmes, comme les critiques et les chercheurs en intelligence artificielle s'empressent de le souligner, répètent simplement les modèles et les associations trouvés dans vos données d'entraînement sans une compréhension claire de ce que vous dites ou quand c'est faux.
Malgré son manque de fiabilité, la Silicon Valley voit un énorme potentiel économique dans ce type d'IA en raison de la facilité d'utilisation de ces modèles. N'importe qui peut taper ce qu'on appelle un "message" en anglais simple dans une boîte de discussion, permettant aux personnes qui ne savent pas écrire de code de communiquer avec les machines de la même manière que les programmeurs informatiques l'ont fait pendant des siècles et des décennies.
GPT-4, le quatrième "transformateur génératif pré-entraîné" depuis la première version d'OpenAI en 2018, est basé sur une technique de réseau neuronal révolutionnaire de 2017 connue sous le nom de transformateur qui a rapidement fait progresser la façon dont les systèmes d'IA peuvent analyser des modèles dans la parole et les images humaines. .
Les systèmes sont « pré-entraînés » en analysant des billions de mots et d'images extraits d'Internet : articles de presse, critiques de restaurants et arguments de babillard électronique ; mèmes, photos de famille et œuvres d'art. Ensuite, des grappes de supercalculateurs géants de puces de traitement graphique ont cartographié leurs modèles statistiques, apprenant quels mots avaient tendance à se suivre dans les phrases, par exemple, de sorte que l'IA peut désormais imiter ces modèles, créant automatiquement de longs passages de texte ou des images détaillées, un mot ou un pixel à la fois.
OpenAI a déclaré que GPT-4 possède des centaines de billions de "paramètres", les variables qui représentent des informations acquises lors de la formation, comme des rides dans un cerveau. GPT-3, sorti en 2020, avait 175 milliards de paramètres, suggérant une percée dans la complexité et la cognition.

OpenAI a été lancé en 2015 en tant qu'organisation à but non lucratif, mais est rapidement devenu l'un des géants privés les plus formidables de l'industrie de l'IA, appliquant les avancées des modèles de langage à des outils d'IA de haut niveau capables de parler aux gens (ChatGPT), d'écrire du code de programmation (GitHub Copilot) et créer des images photoréalistes (DALL-E 2).
Au fil des ans, il a également radicalement changé son approche des risques sociaux potentiels liés à la diffusion d'outils d'IA auprès des masses. En 2019, la société a refusé de rendre public GPT-2, affirmant qu'il était si bon qu'elle s'inquiétait des "applications malveillantes" qui l'utilisaient , des avalanches de spam automatisées aux campagnes massives de phishing et de désinformation.
La pause était temporaire. En novembre, ChatGPT, qui utilisait une version améliorée de GPT-3 initialement publiée en 2020, a vu plus d'un million d'utilisateurs quelques jours après sa sortie publique.
Les expériences publiques avec ChatGPT et le chatbot Bing ont montré à quel point la technologie est loin d'être parfaite sans intervention humaine. Après une série de conversations bizarres et de réponses étrangement incorrectes, les dirigeants de Microsoft ont reconnu que la technologie n'était toujours pas fiable en termes de fourniture de réponses correctes, mais ont déclaré qu'ils développaient des "mesures de confiance" pour résoudre le problème.
GPT-4 devrait améliorer certaines lacunes, et les évangélistes de l'IA comme le blogueur technologique Robert Scoble ont fait valoir que "GPT-4 est meilleur que ce à quoi on s'attendait". Mais les critiques craignent que cela n'ait ses propres conséquences, comme aider à créer de fausses photos d'événements inexistants ou de personnes faisant des choses qu'elles n'ont jamais faites.
Le PDG d'OpenAI, Sam Altman, a tenté de tempérer les attentes autour de GPT-4, déclarant en janvier que les spéculations sur ses capacités avaient atteint des niveaux impossibles. "Le moulin à rumeurs GPT-4 est ridicule", a-t-il déclaré lors d'un événement organisé par la newsletter StrictlyVC. "Les gens ne demandent qu'à être déçus, et ils le seront."
Mais Altman a également commercialisé la vision OpenAI avec l'aura de la science-fiction devenue réalité. Dans un article de blog le mois dernier, il a déclaré que la société prévoyait des moyens de garantir que "toute l'humanité" bénéficie de "l'intelligence générale artificielle", ou AGI , un terme de l'industrie désignant l'idée encore fantastique d'une superintelligence de l'IA qui est généralement aussi intelligent ou plus intelligent que les humains eux-mêmes.
Microsoft, un investisseur OpenAI, travaille à conditionner GPT-4 dans un produit vendable et a commercialisé la technologie comme un compagnon super efficace qui peut gérer un travail insensé et libérer les gens pour des activités plus créatives. L'outil pourrait, par exemple, aider un développeur de logiciels à faire le travail de toute une équipe ou permettre à un magasin familial de planifier et de concevoir une campagne publicitaire professionnelle sans aide extérieure.
Un dirigeant de Microsoft a déclaré au site d'information allemand Heise qu'un développeur avait utilisé l'IA pour créer un prototype pour résumer et répondre aux conversations du centre d'appels avec les clients d'une manière qui pourrait faire économiser à une entreprise environ 500 heures par jour, soit plus de 60 personnes. . travaillant des quarts de 8 heures, à travers des dizaines de milliers d'appels quotidiens.
La société met GPT-4 à la disposition des abonnés ChatGPT Plus, mais avec une limite d'utilisation. OpenAI a déclaré qu'il prévoyait d'ajuster la limite d'utilisation en fonction de la demande et des performances du système au fur et à mesure de son évolution dans les mois à venir. Les développeurs pourront également créer des applications avec GPT-4 via l'API de l'entreprise, une interface qui permet à différents programmes de se connecter.
OpenAI a déjà permis à certaines entreprises partenaires d'accéder à GPT-4. L'application d'apprentissage des langues Duolingo a utilisé GPT-4 pour introduire de nouvelles fonctionnalités, notamment un partenaire de conversation IA et un outil qui indique aux utilisateurs pourquoi une réponse était erronée.
Continuer à lire: