
Apple a consacré un investissement important de plusieurs millions de dollars par jour à son développement dans le domaine de l'intelligence artificielle . L'un de ses objectifs est de créer des fonctionnalités permettant aux utilisateurs de leurs appareils d'automatiser des tâches en plusieurs étapes à l'aide de commandes vocales .
Cela pourrait permettre, par exemple, à quelqu'un de dire à Siri , l'assistant iPhone , de créer un GIF à partir des cinq dernières photos prises et de l'envoyer par SMS à un ami, sans avoir besoin de configurer manuellement chaque action séparément, selon des sources proches du dossier. effort.
Il y a quatre ans. Le directeur de l'intelligence artificielle d'Apple, John Giannandrea , a donné le feu vert à la création d'une équipe chargée de développer ce type de programmes avec une approche conversationnelle, en particulier des modèles de langage avancés, avant que cette technologie ne devienne le centre d'attention de l'industrie technologique.
La décision semble visionnaire à la lumière du lancement de ChatGPT en 2022, car le chatbot a déclenché une augmentation significative de la popularité des modèles linguistiques.

L'équipe « Fundamental Models » d' Apple , dédiée à l'intelligence artificielle conversationnelle, ne compte que 16 personnes. Cependant, l'investissement de l'entreprise dans la formation de ses modèles linguistiques s'élève à des millions de dollars par jour.
La préparation de grands modèles de langage nécessite une infrastructure matérielle importante. Pour référence, Sam Altman d'OpenAI a mentionné que son entreprise a dépensé plus de 100 millions de dollars pour GPT-4 .
Selon The Information, Apple souhaite concentrer tous ses efforts sur le Large Language Model ( LLM ) sur Siri, un assistant vocal qui pourrait disposer d'une automatisation à commande vocale prête à être utilisée dans le futur iOS 18.
Apple semble également disposer d'équipes d'intelligence artificielle dédiées au développement de logiciels capables de générer du contenu visuel, tel que des vidéos et des images, ainsi que de systèmes d'IA multimodaux qui fonctionnent avec des données sous forme d'images, de vidéos et de texte.
Le chatbot Ajax , mentionné ci-dessus et dans lequel Apple est impliqué, surpasserait soi-disant les capacités du ChatGPT 3.5 original, car il a été formé avec 200 milliards de paramètres. Cependant, il est important de noter que les modèles OpenAI les plus récents sont encore plus puissants en comparaison.

L’iPhone 15 intègre une IA intuitive
Le téléphone portable d'Apple comprend le processeur A17 Pro développé par Apple dans le but de fournir une plus grande capacité de traitement aux algorithmes d'apprentissage automatique, ce qui semble plus intuitif que l'intelligence artificielle générative. Cette technologie permet aux utilisateurs de résoudre des problèmes immédiats et propose des prédictions utiles sans être intrusive.
Les fonctions qu'apporte cette IA développée par Apple sont :
1. Isolement de la voix
Cet outil utilise l'apprentissage automatique pour reconnaître et se concentrer sur le son de la voix du propriétaire du téléphone portable, réduisant ainsi le bruit de fond lors des appels téléphoniques.
2. L'IA dans la caméra
L'appareil photo de l'iPhone 15 sera capable de détecter automatiquement les personnes, les chiens ou les chats dans un cadre photo pour collecter des informations de profondeur qui permettront de convertir ultérieurement n'importe quelle image en portrait.

3. Transcription automatique des messages
Cette fonctionnalité appelée Live Voicemail a été conçue pour permettre aux gens de savoir qui appelle avant de répondre et pour produire des recommandations de texte prédictives plus complètes à partir du clavier de l'iPhone.
4. Pointez et parlez
Cet outil, qui fonctionne via l'application loupe, permet aux utilisateurs malvoyants de pointer la caméra vers des objets dotés de boutons, comme un micro-ondes, et d'entendre le téléphone leur dire ce qu'ils touchent avec le doigt.
5. Voix personnelle
Pour les personnes atteintes de maladies telles que la sclérose latérale amyotrophique (SLA), qui prive une personne de la capacité de parler, iOS 17 créera une voix synthétique similaire à la vôtre, après vous avoir enregistré en train de lire une série aléatoire de textes pendant 15 minutes.
En plus de ces fonctions de l’iPhone 15, l’ Apple Watch Series 9 apportait le double tap, une avancée en matière d’apprentissage automatique.
Ce mouvement, qui consiste à accueillir l'index et le pouce, comme s'il s'agissait d'une pince, permet à la montre intelligente d'effectuer des fonctions de base comme répondre à un appel ou désactiver une alarme.