
Bien que ces services étaient considérés comme protégés par un cryptage de bout en bout, l'étude montre que les cybercriminels ont la capacité d'intercepter et de décoder jusqu'à 55 % des conversations tenues via ces systèmes, en utilisant une méthode connue sous le nom de piratage par canal secondaire.
Cette découverte remet en question la sécurité de l'IA et la confidentialité des données personnelles , incitant les utilisateurs à être extrêmement prudents avec les informations qu'ils partagent.
En quoi consiste ce type de cyberattaque ?

Les attaques par canal secondaire reposent sur la collecte de données dérivées de la mise en œuvre physique des systèmes de chatbot, telles que la consommation d'énergie, les temps de traitement et l'émission de rayonnement électromagnétique.
En revanche, il ressort que Gemini, l'intelligence artificielle de Google, semble résistante à ce type d'attaques , selon le centre de recherche, ce qui ouvre une perspective optimiste quant à la sécurité des communications grâce à l'IA.
Comment réduire le risque de pirates informatiques lors de l'interaction avec ChatGPT ou Copilot

Pour atténuer ces vulnérabilités, les experts suggèrent de former des modèles d’IA pour qu’ils soient plus robustes contre ce type d’attaques.
Cela signifie qu'il faut mettre en œuvre un processus incluant des systèmes d'enseignement pour convertir des séquences de jetons en texte lisible d'une manière qui tienne compte du contexte des phrases générées précédemment, limitant ainsi les interprétations possibles et l'incertitude.
Ce qu'il faut garder à l'esprit lors de l'interaction avec ces chatbots
Dans cette situation, il est recommandé aux utilisateurs de ces chatbots de faire preuve de la plus grande prudence et d’éviter de partager des informations personnelles sensibles.
Les plateformes elles-mêmes suggèrent cette prudence au moment d’entamer une conversation. La capacité d'adapter ces technologies pour garantir l'intégrité des communications est cruciale pour prévenir de futures intrusions et maintenir la confiance des utilisateurs dans ces services innovants.
Il faut également se méfier des différents actes criminels présents aujourd'hui qui utilisent l'intelligence artificielle, comme les images altérées ou les vidéos présentes sur les réseaux sociaux de célébrités qui demandent de l'argent qui est en réalité totalement faux , ce qui n'exonère pas les gens. qui croient que c'est vrai.
Une intelligence artificielle qui apporte des bénéfices à la société

La sécurité à l’ère de l’IA représente un défi permanent qui nécessite une vigilance et une évolution continues. Cette découverte récente souligne l’importance d’ une collaboration plus étroite entre les développeurs d’IA, les experts en sécurité et les utilisateurs pour créer un environnement numérique plus sécurisé.
De même, la sensibilisation à ces vulnérabilités et la mise en œuvre de mesures préventives seront décisives pour protéger la vie privée des utilisateurs et renforcer la confiance dans la technologie de l’IA.
En effet, elle s’intègre chaque jour davantage dans la vie quotidienne de différentes parties du monde, offrant des possibilités auparavant inimaginables, mais engendrant également de nouveaux risques pour la vie privée et l’intégrité physique et émotionnelle.