
À mesure que la technologie pour le développement de l'intelligence artificielle en tant qu'outil progresse, les cybercriminels ont commencé à l'utiliser comme moyen d'améliorer la qualité de leurs attaques. La possibilité de générer des voix artificielles grâce à ce type de logiciel a déjà commencé à faire plusieurs victimes, qui en sont venues à perdre leur argent à cause d'escroqueries .
Une méthode utilisée depuis plusieurs années était la tromperie du membre de la famille en difficulté, qui consistait à appeler le numéro de téléphone d'une personne et à imiter la voix d'un membre de la famille proche pour demander une «aide financière» pour payer une dette. Alors qu'il était auparavant possible d'identifier les escroqueries par les différences de voix des criminels, avec l'intelligence artificielle cette possibilité sera encore réduite.
La génération de ces voix ne demanderait pas non plus beaucoup d'efforts de la part des cybercriminels , car ils n'auraient besoin que d'un échantillon de la voix du parent présumé, ce qui est possible grâce aux publications sur les réseaux sociaux. Avec ces informations , ils auraient la capacité de former une intelligence artificielle et de lui faire suivre un script créé par les criminels qui crée un sentiment d'urgence et rend la victime disposée à effectuer un paiement avec son argent.
Malgré le fait que les voix créées par l'intelligence artificielle sont très similaires à celles d'une personne réelle (selon la qualité du logiciel ), il est possible de reconnaître quand une arnaque est en cours. La recommandation dans ce type de situation, selon la Federal Trade Commission des États-Unis, est l'établissement d'un mot ou d'une phrase de sécurité que seuls les membres de la famille connaissent.

Ce mot ne peut être utilisé que dans un contexte de danger réel ou d'urgence , il doit donc s'agir d'un terme qui ne fait pas partie des conversations normales entre les membres de la famille. Dans le cas où ces types d' appels seraient passés, demander le mot-clé serait le facteur différentiel entre une intelligence artificielle qui imite la voix de la personne et la vraie victime. Si une réponse incorrecte a été donnée, l'étape suivante devrait être de mettre fin à l'appel immédiatement pour éviter toute pression supplémentaire de la part du criminel.
Une autre alternative viable pour les membres de la famille qui reçoivent ce type d'appel est d'y mettre fin immédiatement et d'essayer de communiquer directement avec le téléphone portable du contact en danger présumé. Cependant, cette méthode ne doit être utilisée que si vous avez un degré élevé de certitude quant à son emplacement, afin d'éviter d'ignorer un véritable appel à l'aide.
Dans le cas où aucune des options ci-dessus n'est viable, les victimes à l'autre bout de la ligne téléphonique doivent prêter attention à la demande du membre de la famille présumé en danger. Comme les cybercriminels ne veulent pas être identifiés, les moyens de paiement qu'ils demanderont seront en crypto-monnaies ou en cartes-cadeaux échangeables contre des produits dans les établissements commerciaux.

Une fois l'un de ces termes mentionné, ce seront les victimes qui décideront s'il est judicieux pour leur proche de demander une aide financière de ce type. Si la réponse à cette question est négative, la chose la plus sûre à faire est de mettre fin à l' appel .
Si quelqu'un se retrouve dans un scénario similaire, il est préférable d'éviter de mentionner des données plus pertinentes qui peuvent être utilisées ultérieurement par des cybercriminels pour une attaque par d'autres moyens tels que le phishing ou le piratage. Les informations telles que les numéros d'identification, les noms complets, les adresses ou les contacts supplémentaires ne doivent pas être mentionnées dans la conversation.