
Alors que l'intelligence artificielle a la capacité de suivre des signaux spécifiques pour aboutir à une réponse souhaitée, les chercheurs de Spotify ont développé un nouveau modèle logiciel qui utilise une forme avancée de ces outils, qui est basée sur l'identification des causes d'événements passés à utiliser comme entrée pour "prédire" l' avenir .
Même si cette proposition peut sembler tirée d'un roman de science-fiction , la vérité est qu'il s'agit d'un modèle mathématique dans lequel deux scénarios sont établis : l'un réel et l'autre fictif. Dans l'un, l'intelligence artificielle peut identifier les "causes" qui conduisent au développement de certains "effets", tandis que dans l'autre, la variation d'au moins une des causes peut conduire à d'éventuels résultats fictifs , raison pour laquelle elle "prédit" un avenir qui ne s'est pas développé et qui n'existe pas non plus.
Selon le document de recherche auquel ont participé Athanasios Vlontzos, Ciarán Gilligan-Lee (Spotify) et Bernhard Kainz (Université d'Erlangen-Nuremberg), cette technologie pourrait améliorer la prise de décision automatique dans une grande variété de domaines tels que la finance, la médecine, la ainsi que des applications comme Spotify .
Par exemple, cela pourrait prédire quand il est préférable de montrer certaines chansons et indiquer quand il est préférable pour un artiste de sortir un nouvel album afin de maximiser son audience dès le premier jour de sa sortie.

Aún cuando el modelo matemático que generó este sistema de aprendizaje automático está disponible bajo licencia de investigación, lo cierto es que Spotify aún no implementa este tipo de tecnología en sus sistemas, indicó Gilligan-Lee, pero no se descarta una posible incorporación en la aplicación dans le futur.
En général, l'idée de produire ce type de modèles statistiques et mathématiques pour prédire des scénarios possibles face à un changement hypothétique des variables de la réalité n'a pas été établie pour satisfaire un besoin particulier. Dans le document de recherche , publié dans la revue Nature , il assure que le même principe peut être étendu à d'autres domaines.
Avec les données que l'on peut extraire de ces modèles, appelés « contrefactuels », des spécialistes comme Romila Pradhan, data scientist à l'université Purdue dans l'Indiana (États-Unis), indiquent qu'il est possible d'obtenir des explications sur certains faits et en même temps Vous pouvez également déterminer ce qui pourrait être changé pour obtenir le résultat souhaité, comme obtenir un crédit ou obtenir un emploi.
Ce serait la voie idéale qu'envisage Sam Altman pour l'utilisation d'une technologie artificielle comme celle développée par OpenAI avec ChatGPT , un outil qui assiste l'humanité en tant que copilote chaque fois que cela est nécessaire et ne développe pas sa propre initiative pour s'activer lorsqu'il "l'estime" nécessaire.

« Ces modèles attendent qu'une personne leur donne une indication, une tâche à accomplir (…) c'est un outil qui est sous le contrôle des humains (…) », a déclaré Altman dans une récente interview.
Altman a également considéré que ce type de technologie , qui se développe actuellement à grande vitesse, n'a pas atteint de scénarios dangereux pour l'humanité et que, par conséquent, ce sont des systèmes qui peuvent être améliorés sans avoir à atteindre des instances encore plus inquiétantes.
«C'est sûr que nous apporterons des corrections en même temps que ces événements négatifs se produiront. Maintenant que les risques sont faibles, nous apprenons autant que possible et établissons un retour d'information constant pour améliorer le système », a déclaré le PDG d' OpenAI .