
Meta continue d'avancer dans ses projets d'intelligence artificielle et a maintenant présenté un nouveau modèle appelé I-JEPA (Image Joint Embedding Predictive Architecture), qui cherche à imiter le bon sens humain pour générer du contenu à partir de la perception et non pas tant à partir des données, ce qui serait permettent d'apprendre plus rapidement, de planifier des tâches complexes et de s'adapter facilement à des situations inconnues.
Selon l'entreprise, ce système serait supérieur aux modèles actuels car il utiliserait l'apprentissage auto-supervisé, qui se base sur l'observation humaine pour acquérir des connaissances, et cela lui donnerait le différentiel par rapport à ce qui est actuellement sur le marché.
Cela permettra à l'IA d'avoir des informations au-delà de ce qui est saisi manuellement et pourra visualiser le contexte des données pour poursuivre le processus de création.
Que peut faire cette nouvelle IA ?
Le scientifique en chef de l'intelligence artificielle de Meta, Yann LeCun, affirme que l'un des objectifs de ce modèle est "d'éviter les biais" et qu'au lieu de cela, I-JEPA peut "prédire la représentation d'une partie d'une entrée (telle qu'une image). ou un morceau de texte) à partir de la représentation d'autres parties de la même entrée ».
Cela vous permettra également de remplir des images brutes avec une plus grande précision que les autres modèles actuels, réduisant ainsi les risques d'avoir du contenu avec des erreurs qu'une personne ne ferait jamais, telles que des images de mains avec des doigts supplémentaires ou des formes étranges.

Grâce à sa méthodologie, cette intelligence artificielle pourra également "prédire" les informations dont on a besoin dans un contenu abstrait et avoir un résultat beaucoup plus proche de celui d'un humain. S'arrêter en fonction des pixels ou des données qui composent l'œuvre originale, pour prendre d'autres éléments supplémentaires comme le ferait une personne.
Parmi les applications que LeCun voit dans I-JEPA, il y a la création de vidéos en étant capable de prédire ce qui se passerait dans une vidéo avec uniquement des entrées audio et texte. Un développement qui pourrait devenir un "modèle général du monde" qui influence d'autres systèmes existants ou en développement.
En plus de ses performances, cette IA se distingue également par son efficacité de calcul, car elle ne nécessite aucune dépense supplémentaire dans l'application d'augmentations de données pour produire plusieurs vues d'un contenu, mais n'a besoin de traiter qu'une seule d'entre elles.

Meta fonctionne déjà avec l'intelligence artificielle
Meta Lattice et AI Sandbox sont deux outils avec lesquels l'entreprise commence à impliquer les annonceurs dans l'IA. Chacun se concentre sur un aspect différent du travail publicitaire, ils s'adressent donc aux entreprises et non aux utilisateurs.
Le premier est défini par l'entreprise comme "une nouvelle architecture de modèle qui apprend à prédire les performances d'une publicité", en prenant des données et des objectifs d'optimisation, qui étaient auparavant dans des modèles plus petits et isolés.
Cet outil est destiné à améliorer les performances de la publicité car il a la capacité de comprendre les informations avec les objectifs de la marque.
Alors que AI Sandbox est une plate-forme qui fonctionnera comme un "terrain d'essai" pour les premières versions de nouveaux outils et fonctions, y compris ceux axés sur les publicités génératives basées sur l'IA.
Avec cela, l'objectif est d'apprendre ce qui fonctionne et ce qui ne fonctionne pas pour les annonceurs et ainsi faciliter l'utilisation de toutes les ressources de manière plus optimisée.