Dans un monde de plus en plus numérisé, l’intelligence artificielle (IA) est devenue un outil indispensable dans de nombreux aspects de nos vies, y compris dans notre façon de communiquer.
L'IA générative promet d'alléger le fardeau de la rédaction de documents et d'e-mails , nous permettant de consacrer plus de temps à la pensée créative. Cependant, l’utilisation de cette technologie soulève également d’importantes questions sur l’authenticité et les risques éthiques encourus.
Les progrès de la technologie promettaient à l’origine de nous libérer des tâches répétitives pour nous concentrer sur des activités plus créatives. Désormais, l'IA générative vise à assumer une partie de cette charge, notamment dans la rédaction de correspondances telles que les e-mails . Ce phénomène soulève des questions cruciales : est-il éthique de l’utiliser et est-il possible d’identifier si un email a été rédigé par un bot ?
Kathleen Day, professeur de communication d'entreprise, de finance et de gouvernance d'entreprise à la Johns Hopkins Carey Business School, affirme à Fast Company que les textes créés par l'IA ne devraient jamais être utilisés sans examen humain et devraient toujours être clairement étiquetés lorsqu'ils sont entièrement générés par l'IA .
Cela suggère que faire passer un texte généré par l’IA pour le vôtre équivaut à un manque d’honnêteté et, dans des contextes formels tels que des publications, à un acte de plagiat.
D'autre part, Franklin Orellana, responsable des programmes de systèmes d'information informatiques et de science des données à la Post University, met en garde dans l'article contre les erreurs qui peuvent survenir dans les textes écrits par l'IA, depuis les problèmes syntaxiques jusqu'aux fausses informations qui peuvent compromettre la crédibilité de l'auteur.
Comment identifier le texte généré par l’IA ?
Dans l'article de Fast Company , Madeleine Lambert, directrice du marketing et des ventes chez Originality.ai, propose quelques indices clairs qui peuvent indiquer quand un texte a été généré par l'IA :
- Langage plat et formel : l'IA a tendance à produire un langage « trop parfait », caractérisé par une formalité excessive qui peut ne pas correspondre au style typique de l'expéditeur. Cela peut donner l’impression que les e-mails sont impersonnels et dépourvus de l’émotion qui imprègne habituellement la communication humaine.
- Structure uniforme et répétitive : Contrairement à l'écriture humaine, qui varie en longueur et en structure de phrase, l'écriture générée par l'IA présente souvent une homogénéité qui peut être monotone. Lambert souligne que la structure et la longueur des phrases sont généralement très cohérentes, presque jusqu'au nombre de caractères.
- Maîtrise des points en ponctuation : Alors que l'écriture humaine comprend souvent une variété de signes de ponctuation tels que des deux-points, des points-virgules et des traits d'union, les textes d'IA ont tendance à se limiter aux points-virgules , ce qui peut donner une sensation mécanique à la lecture.
- Hallucinations – Les « hallucinations » de l’IA, dans lesquelles la plateforme génère de fausses données ou informations, sont relativement courantes et peuvent être préjudiciables sur le plan professionnel si des informations incorrectes sont transmises. Une vérification rigoureuse des données est cruciale lors de l’utilisation de l’IA pour rédiger de la correspondance.
L'influence de l'intelligence artificielle sur la communication
Dans le monde universitaire, le débat sur l'impact de l'intelligence artificielle sur la communication a pris de l'importance grâce aux recherches menées dans des institutions renommées telles que l'Université de Stanford .
Jeff Hancock, professeur de communication Harry et Norman Chandler à Stanford et directeur fondateur du Stanford Social Media Lab, a exploré en profondeur comment les outils d'IA, en intercédant dans nos interactions, pourraient modifier l'essence de la communication humaine.
Dans une étude intitulée « Communication médiée par l'IA : définition, programme de recherche et considérations éthiques », publiée dans le Journal of Computer-Mediated Communication, Hancock et ses collègues de Cornell analysent les implications de la médiation de l'IA dans la communication.
Ils soutiennent que les suggestions de rédaction de l'IA, telles que celles proposées par des outils comme Gmail Smart Reply, peuvent modifier non seulement le contenu de nos réponses, mais également le ton émotionnel de celles-ci . Ce phénomène pourrait entraîner des changements linguistiques d'une ampleur sans précédent , influençant la manière et le contenu de notre communication.
La « positivité » imposée par les réponses automatisées de Gmail
Des recherches menées par Stanford et Cornell ont révélé que les réponses suggérées par Gmail ont tendance à être trop positives , quel que soit le contexte de la communication.
Ce biais vers le positif pourrait non seulement limiter l’authenticité de nos réponses, mais aussi fausser artificiellement la réciprocité émotionnelle.
Les chercheurs suggèrent que cette positivité imposée pourrait façonner nos interactions d’une manière que nous ne comprenons pas encore pleinement, conduisant à une homogénéisation du discours qui pourrait avoir des conséquences culturelles et sociales importantes.
Implications éthiques
La transparence dans l’utilisation de l’intelligence artificielle est essentielle pour maintenir l’authenticité et la confiance dans la communication. Dissimuler l’utilisation de l’IA peut être perçu comme malhonnête et potentiellement nuisible, notamment dans des contextes professionnels ou universitaires.
Selon l'étude de Jeff Hancock à Stanford, la perception qu'un profil ou un message a été généré par l'IA peut éroder la confiance , soulignant l'importance d'informer clairement les utilisateurs sur le rôle de l'IA dans la création de contenu.
L’utilisation abusive de l’IA pour des activités telles que le phishing ou la diffusion de fausses informations (Fake news) met en évidence la nécessité d’une surveillance humaine rigoureuse et d’une approche éthique dans toutes nos interactions numériques. Les recherches de Stanford nous alertent sur les effets subtils mais significatifs que l’IA peut avoir sur notre façon de communiquer.
À mesure que cette technologie s’intègre de plus en plus dans notre vie quotidienne, nous devons soigneusement évaluer à la fois ses avantages et ses risques, en veillant à ce que l’humanité de notre communication ne soit pas compromise dans la recherche de l’efficacité.
Les développeurs et les utilisateurs partagent la responsabilité de mettre en œuvre ces technologies de manière à préserver l'intégrité de nos interactions, en veillant à ce que l'évolution technologique ne sape pas les piliers de notre communication humaine.