
Un modèle toujours disponible et personnalisé

En plus de ses caractéristiques physiques attrayantes, ce modèle parle plus de 30 langues et est disponible pour communiquer avec les abonnés 24h/24 .
En effet, grâce à l’intelligence artificielle, il est capable de « flirter, rire et s’adapter aux différentes personnalités, intérêts et préférences » des utilisateurs.
Lexy a même un profil qui la décrit comme une « accro au sushi et pro de la pole dance » de 21 ans, tandis que ses passe-temps incluent « le yoga et le beach-volley, et ce qui l'excite, c'est le sexe oral et public ».
Et en plus de proposer des SMS et des messages vocaux payants, Lexi peut également envoyer des « photos coquines » sur demande .
Une interaction qui peut tromper

Les capacités d'interaction de ce modèle ont même réussi à tromper certains adeptes qui croient qu'elle est une personne réelle , recevant même jusqu'à 20 demandes en mariage chaque mois de la part de ses abonnés.
Sam Emara, PDG de Foxy AI, a souligné que « Lexi brise les barrières et change la façon dont nous interagissons avec l'IA », offrant une expérience proche de l'émotivité humaine.
Cependant, ce « compagnon parfait » ouvre également le débat sur les conséquences que peut entraîner une interaction virtuelle avec un chatbot qui peut paraître profonde, mais qui n’est pas réelle. Surtout chez les utilisateurs les plus solitaires et souffrant de problèmes tels que la dépression.
Lexy n'est pas la seule

Foxy AI n'est pas la seule entreprise à exploiter le potentiel de l'IA pour créer du contenu pour adultes . Clueless, une autre agence spécialisée, a créé un mannequin nommé Aitana qui génère déjà des revenus mensuels de plus de 11 000 $.
De même, l'influenceuse Caryn Marjorie, 23 ans, a rejoint la tendance en inventant, CarynAI, une version automatisée d'elle-même qui communique des messages à connotation sexuelle à ses followers .
Les dangers de l’anthropomorphisation de l’intelligence artificielle

Il s'agit d'un processus par lequel les gens attribuent des caractéristiques et des qualités humaines aux systèmes d'IA ou aux robots , les traitant comme s'ils étaient de véritables êtres humains.
Quelque chose qui inclut des émotions, des intentions, des pensées et une personnalité, même si ces technologies ne possèdent pas réellement ces caractéristiques.
L'anthropomorphisation de l'IA peut se produire consciemment ou inconsciemment, car les interfaces conversationnelles et de chatbot sont souvent conçues pour paraître plus humaines.
Cela peut amener les utilisateurs à traiter l’IA comme s’il s’agissait d’un interlocuteur humain et à attendre des réponses émotionnelles. Ce qui, à son tour, peut conduire à des attentes irréalistes lorsque les utilisateurs découvrent que l’IA manque d’une véritable compréhension ou conscience émotionnelle.