
Les chercheurs explorent un nouveau domaine d’étude appelé bioacoustique numérique, qui consiste à comprendre les animaux, qui sont initialement des abeilles et des chauves-souris, grâce à l’intelligence artificielle.
Ce système s'appuie sur des enregistreurs de terrain portables fonctionnant comme des microphones miniaturisés, placés dans des environnements naturels, comme des branches d'arbres ou le dos des baleines.
Ces appareils enregistrent en continu des sons 24 heures sur 24, générant ainsi d’importants volumes de données. Les scientifiques appliquent ensuite des algorithmes de traitement du langage naturel, similaires à ceux utilisés par Google Translate, pour identifier des modèles dans ces enregistrements et commencer à comprendre la communication animale.
Résultats de l’utilisation de l’IA pour comprendre les animaux
Un exemple de cette innovation est la recherche menée par le scientifique Yossi Yovel sur les chauves-souris égyptiennes, des animaux qui ont un cerveau très similaire à celui des humains et qui utilisent également l'écholocation pour interférer avec leur comportement.
L'étude a pris des enregistrements audio et vidéo de près de deux douzaines de ces animaux sur une période de deux mois et demi. Son équipe a ensuite adapté un programme de reconnaissance vocale pour analyser 15 000 sons enregistrés, et l'algorithme a identifié des sons spécifiques liés aux interactions sociales, comme les bagarres pour la nourriture ou les disputes pour les lieux de couchage.

L’un des résultats de cette recherche est que les chauves-souris disposent d’une communication sophistiquée. Ces mammifères utilisent ce qu'on appelle des « appels de signature », qui fonctionnent de manière analogue aux noms individuels.
De même, ils ont la capacité de distinguer les sexes lorsqu’ils communiquent entre eux et utilisent des dialectes. Ils maintiennent même une distance sociale lorsqu’ils sont malades.
Une autre découverte est l'utilisation que les mères chauves-souris font d'une version modifiée de leur communication lorsqu'elles interagissent avec leurs bébés, réduisant ainsi la hauteur de leurs vocalisations. Cette approche semble faciliter l'apprentissage par les jeunes de mots spécifiques ou de sons de référence.
Cette avancée a également été apportée aux abeilles. Les recherches ont montré que les abeilles utilisent les sons et les mouvements du corps pour communiquer entre elles, et les scientifiques ont identifié des signaux spécifiques qui indiquent divers messages, tels qu'un danger ou des informations sur l'emplacement du nectar.
Un exemple de ceci est ce qu'a fait Tim Landgraf, professeur à l'Université libre de Berlin, qui a développé plusieurs prototypes, a réussi à créer un Robobee , qui est un robot insecte, pour entrer dans les ruches et interagir avec elles, au point pour leur donner des ordres.

Difficultés de créer ChatGPT pour comprendre les animaux de compagnie
Les résultats de ces enquêtes n’impliquent pas directement la création d’une plateforme qui nous permette de comprendre ce qu’ils disent et de communiquer automatiquement avec eux, car cela est beaucoup plus compliqué et presque impossible à réaliser.
Dans un article paru dans Current Biology, les neurobiologistes Yossi Yovel et Oded Rechavi , de l'Université de Tel Aviv en Israël, ont révélé les obstacles auxquels les chercheurs sont confrontés pour créer une plateforme capable de traduire les sons et les comportements des animaux de compagnie dans un langage humain compréhensible.
L’un des défis les plus importants réside dans la diversité des signaux de communication qui existent entre les animaux. Les chiens, par exemple, peuvent apprendre les commandes humaines grâce à l’entraînement, mais l’IA devrait aller plus loin et comprendre les signaux naturels que les chiens utilisent entre eux.
De plus, chaque espèce animale possède sa propre gamme d’expressions et de vocalisations qui varient en fonction du contexte et des émotions. Ainsi, parvenir à une IA capable de déchiffrer et de traduire ces variantes serait une réussite scientifique sans précédent.
Un autre obstacle réside dans la compréhension des signaux dans différents contextes comportementaux. Il ne suffit pas que l’intelligence artificielle soit capable d’identifier une vocalisation ou un geste dans un scénario précis, elle doit aussi être capable d’en interpréter le sens dans diverses situations.