
Avec la popularité croissante de l'intelligence artificielle ChatGPT et son intégration dans différentes plateformes, un problème a été généré qui peut mettre en danger la sécurité des internautes. Des applications se faisant passer pour des versions de ce logiciel ont fait leur apparition dans les boutiques virtuelles d' Android et d'Apple .
Contrairement aux applications qui incluent l'intelligence artificielle parmi leurs fonctions renouvelées, celles-ci prétendent être une édition de ChatGPT pour les téléphones mobiles, bien qu'OpenAI n'ait officiellement travaillé sur aucune d'entre elles.
Ni dans le Google Play Store ni dans l'App Store, le nom du développeur n'est identifié comme la société officielle qui a créé le chatbot .
Selon l'analyste en cybersécurité, Alex Kleber , ces plateformes ont pour objectif de se présenter sous le nom de ChatGPT afin de gagner la confiance des utilisateurs pour utiliser un système de micro- paiements qui promettent de débloquer une série de fonctions qui, finalement, ne sont pas remplies sur le appareils. .
Kleber indique que l'une des méthodes les plus courantes de la plateforme pour se promouvoir dans l' App Store consiste à demander à l'utilisateur une évaluation de l'application quelques minutes après le téléchargement, ce qui manipule la note réelle que cette application aurait.

Pour trouver ces plateformes, il vous suffit de saisir les mots « OpenAI » ou « ChatGPT » dans le moteur de recherche de l'un de ces magasins.
Les résultats auront en commun l'utilisation de couleurs et même de logos similaires à ceux utilisés par ChatGPT dans sa version web avec l'intention de dérouter les utilisateurs. De temps en temps, vous verrez des images promotionnelles indiquant la mise en œuvre de GPT-4 (la dernière intelligence artificielle développée par OpenAI).
Dans le cas de l'App Store, les applications viennent partager des développeurs comme dans le cas des sociétés « Pixelsbay » et « ParallelWorld » situées au Pakistan, selon le rapport Kleber.
De plus, il est possible que si le code de programmation de ces plateformes est analysé, des similitudes allant jusqu'à 99% puissent être trouvées. En d'autres termes, la publication et la diffusion de deux applications qui sont en réalité presque identiques ont été autorisées.
Bien que l'analyste en cybersécurité ait établi de mauvaises pratiques dans l'App Store , la vérité est que dans la boutique d'applications Android , il existe des cas similaires dans lesquels certaines applications utilisent des noms similaires à OpenAI ou ChatGPT pour promouvoir leurs services. Cependant, encore une fois, aucune de ces plates-formes n'a été développée par la société d'origine.

Contrairement, par exemple, à l'application du moteur de recherche Bing dont le nom apparaît à côté de celui de Microsoft , son créateur, le reste des plateformes est développé par des entreprises qui créaient auparavant des jeux mobiles ou des applications telles que des lampes de poche ou des calculatrices.
Une façon de déterminer si ces plates-formes pourraient être potentiellement dangereuses ou pourraient mettre en danger la vie privée des utilisateurs est de consulter la section Sécurité des données, située dans les détails de la plate-forme.
Beaucoup d'entre eux, par exemple, indiquent que bien qu'ils ne collectent pas d'informations à partir de l'appareil sur lequel ils sont installés, ils peuvent partager des données avec des tiers. D'autres qui peuvent apparaître dans cette recherche indiquent que même lorsqu'ils ne collectent pas de données ou ne les partagent pas, ils ne permettent pas la suppression des informations générées.
Dans le cas de Ask AI , l'une des applications les plus populaires de ce style, il est indiqué qu'elle peut collecter des informations sur l'appareil, les performances de la plate-forme et même des statistiques sur l'activité des utilisateurs lors de l'utilisation du programme.