- Apple repense Siri en tirant parti d'Apple Intelligence et de modèles comme Gemini, avec un déploiement progressif dans iOS 26.4, 26.5 et 27.
- Les premières améliorations clés concernent le contexte personnel, la prise en compte de l'écran et les actions inter-applications via les intentions d'application.
- La feuille de route aboutit à un Siri semblable à un chatbot, capable de longues conversations, de génération de contenu et d'un contrôle système approfondi.
- Des règles strictes en matière de confidentialité et une compatibilité limitée avec les appareils récents détermineront quels utilisateurs pourront pleinement profiter de la nouvelle version de Siri.

Si vous avez déjà pensé que Siri avait pris du retard sur ChatGPT ou GeminiVous n'êtes pas seul. Depuis des années, l'Assistant Apple s'avère très utile pour les tâches rapides, mais limité lorsqu'on lui demande quelque chose de plus complexe, surtout comparé à la dernière génération de chatbots.
Nous sommes maintenant à un tournant : Apple réinvente Siri en s'appuyant sur Apple Intelligence et dans des modèles comme Google GeminiAvec une feuille de route se déployant sur plusieurs versions d'iOS (26.4, 26.5 et 27) et affectant également iPadOS, macOS et CarPlay, il ne s'agit pas d'un changement mineur : il touche à la confidentialité, à l'architecture interne, à la façon dont l'iPhone est utilisé et même à la relation d'Apple avec d'autres géants de l'IA.
Qu'est-ce que Siri aujourd'hui et pourquoi Apple le repense-t-elle ?
Siri a été créée comme assistant virtuel exclusif à l'écosystème Apple.Disponible sur iOS, macOS, watchOS et tvOS, elle utilise le traitement du langage naturel pour comprendre vos requêtes, contacter les services Web et fournir une réponse ou effectuer une action : régler une alarme, envoyer un message, créer une note ou consulter la météo.
Dans ses origines, Siri était un projet de SRI International (SRI Venture Group).Siri est née d'un programme de recherche de la DARPA appelé CALO, considéré comme l'un des projets d'intelligence artificielle les plus ambitieux de son époque. En 2010, Apple a racheté la société à l'origine de Siri, a abandonné ses projets pour Android et Blackberry, et a intégré l'assistant nativement à l'iPhone 4S en 2011.
Depuis lors, Siri s'est étendu à davantage de langues, de pays et de plateformes.Elle est arrivée sur iPad, Apple Watch, Apple TV et Mac (avec macOS Sierra en 2016). Avec iOS 6, elle a amélioré l'intégration avec des applications comme Plans et Rappels, ajouté la compatibilité Bluetooth pour les voitures et des fonctionnalités comme « Eyes Free », conçues pour utiliser Siri à partir des commandes au volant.
L'assistant s'appuie sur un écosystème de services externes qui alimentent ses réponses : OpenTable ou Yelp pour les restaurants, MovieTickets ou RottenTomatoes pour les filmsPour les données de référence, vous pouvez utiliser True Knowledge, Bing Answers ou Wolfram Alpha, en plus de Bing et Google pour vos recherches sur le Web. Ces outils vous permettent de répondre à des questions, de faire des réservations ou d'obtenir des informations contextuelles.
Sur le plan pratique, Siri a toujours été un assistant très utile pour des tâches spécifiques.Consultez la météo, trouvez un restaurant à proximité, prenez rendez-vous, dictez des messages, faites des recherches sur Internet ou ouvrez des applications. L'application propose même un côté plus ludique avec des blagues, des raps, des histoires et des réponses originales qui ont conquis les utilisateurs.

Mais face à des concurrents comme Google Assistant, Amazon Alexa ou Samsung BixbyPlus récemment, avec l'essor de grands modèles de langage comme ChatGPT, Gemini et Claude, Siri a montré certaines limites : un système relativement fermé, une intégration partielle avec les applications tierces et un sentiment de stagnation dans l'aspect conversationnel.
Confidentialité et design : l'assistant le plus discret de l'écosystème
L'un des piliers qu'Apple ne cesse de répéter est que Siri est conçue pour être une assistante très personnelle mais extrêmement discrète.Le système apprend vos habitudes et vos préférences, mais il le fait de telle sorte que vos demandes ne soient pas associées à votre compte Apple comme identifiant direct.
Grâce au moteur neuronal intégré à ses puces, Une grande partie du traitement de la parole et du langage est effectuée directement sur l'appareil. —iPhone, iPad ou Apple Watch—. L’audio de vos requêtes ne quitte pas l’appareil, sauf si vous autorisez explicitement son partage, et Apple souligne que les conversations avec Siri ne sont pas utilisées à des fins publicitaires.
C’est sur cette base qu’il construit sa vision de Apple Intelligence et calcul dans le cloud privéCes modèles fonctionnent directement sur l'appareil pour les requêtes courantes et, lorsque davantage de puissance est nécessaire, s'appuient sur des serveurs dotés d'un niveau de confidentialité renforcé. Selon Craig Federighi, l'objectif est que, lorsqu'un modèle reçoit votre question, les données restent confidentielles et ne soient ni stockées ni utilisées pour entraîner des modèles tiers.
Cette approche, qui ralentit parfois le développement de fonctionnalités basées sur les données personnelles, explique également certains des retards : Protéger au maximum votre vie privée rend beaucoup plus difficile pour Siri d'accéder à vos informations personnelles., comme les messages, les courriels ou les fichiers, exactement ce qu'il faut pour en faire un appareil véritablement « intelligent » au quotidien.
Comment activer Siri aujourd'hui sur iPhone, iPad, Mac, Apple Watch et CarPlay
Au-delà de la nouvelle IA, La manière d'invoquer Siri reste essentielle pour une utilisation fluide.Apple propose différentes méthodes en fonction de l'appareil et de vos paramètres d'accessibilité.
Sur iPhone, après avoir configuré l'assistant, vous pouvez Invoquez-le par la voix en disant « Siri » ou « Dis Siri ».Vous pouvez également maintenir enfoncé le bouton latéral sur les modèles dotés de Face ID ou le bouton Accueil sur les modèles plus anciens. Si vous utilisez des EarPods filaires, maintenez simplement enfoncé le bouton central ; avec CarPlay, vous pouvez utiliser la commande vocale au volant ou le bouton Accueil sur l’écran CarPlay.
Sur l'Apple Watch, en particulier à partir de la saison 3Plusieurs options s'offrent à vous : lever le poignet près de votre bouche et parler, maintenir la Digital Crown enfoncée ou utiliser les commandes vocales si l'écoute permanente est activée. Sur les Mac équipés d'une puce Apple, vous pouvez également dire « Siri » ou « Dis Siri », utiliser l'icône dédiée dans la barre de menus et configurer des raccourcis clavier.
Pour ceux qui préfèrent écrire, il existe la fonction « Écrire à Siri » dans AccessibilitéCette fonctionnalité s'active dans Réglages > Accessibilité > Siri, où vous pouvez activer « Écrire à Siri » sur iPhone ou iPad. Une fois activée, il suffit d'appuyer longuement sur le bouton Siri et de saisir votre requête. C'est particulièrement pratique lorsque vous ne souhaitez pas parler à voix haute.
Lorsque vous utilisez un bouton physique pour ouvrir Siri, La réponse vocale s'adapte au mode silencieux. Sur iPhone : si cette option est activée, l’assistant répond en silence ; sinon, il parle à voix haute. Si vous l’invoquez par la voix, Siri répond généralement à voix haute, mais vous pouvez modifier ce comportement dans les réglages de l’assistant.
CarPlay, les chatbots tiers et le rôle de Siri dans la voiture
Jusqu'à maintenant, La voiture était pratiquement le territoire exclusif de Siri.Dans CarPlay, seul l'assistant vocal d'Apple était disponible, à quelques exceptions près comme la recherche vocale dans les applications de cartographie. Cela est sur le point de changer.
Apple s'efforce de garantir que Les applications d'intelligence artificielle avec mode vocal, telles que ChatGPT, Gemini ou Claude, peuvent avoir leur propre application dans CarPlay.L'idée est que vous puissiez conduire, poser une question liée au travail ou vous renseigner sur une ville que vous traversez, et parler à l'un de ces chatbots sans lâcher le volant.
Cependant, l'entreprise fixe des limites très claires : Vous ne pourrez pas remplacer le bouton Siri sur le volant ni utiliser un mot d'activation comme « Hey ChatGPT » ou « Ok Google ».Siri restera le seul assistant officiellement intégré pour contrôler le système au niveau du véhicule.
En pratique, cela signifie que Pour utiliser un chatbot tiers, vous devrez d'abord ouvrir son application dans CarPlay.Les développeurs pourront activer automatiquement le mode vocal à l'ouverture de l'application, mais il faudra toujours appuyer sur l'écran au préalable. De plus, ces chatbots ne pourront pas contrôler les fonctions de la voiture ou de l'iPhone : ils seront dédiés aux questions complexes et non à l'activation des lumières, au changement de la musique ou au lancement d'appels depuis l'appareil en dehors de leur application.
Parallèlement, Apple prépare ses propres améliorations : Avec iOS 26.4, Siri commencera à s'appuyer sur un modèle Google Gemini au sein de l'infrastructure d'Apple. Et plus tard, avec iOS 27, elle prévoit de proposer un assistant entièrement conversationnel qui concurrencera directement ChatGPT, Gemini et Claude.
Feuille de route : d’iOS 26.4 et 26.5 à un Siri de type chatbot dans iOS 27
Apple multiplie les annonces et les reports concernant la nouvelle version de Siri depuis un certain temps déjà. Lors de la WWDC 2024, Apple a dévoilé Apple Intelligence et une version de Siri beaucoup plus puissante.capable d'utiliser des données personnelles, de comprendre l'écran et de contrôler les applications de manière avancée, avec une promesse initiale d'arrivée début 2025.
Toutefois, L'entreprise a sans cesse reporté le lancementTout d'abord, la sortie a été repoussée à 2026, sans donner de dates précises, puis elle a été liée en interne à iOS 26.4, une mise à jour printanière qui a historiquement apporté des changements importants (comme les versions 16.4, 17.4 et 18.4).
Selon diverses fuites, notamment celles de Bloomberg et de Mark Gurman, Le plan actuel prévoit un déploiement progressif entre iOS 26.4, iOS 26.5 et iOS 27.L'idée : utiliser la version 26.4 comme base structurelle, la version 26.5 comme extension encore en phase de test de plusieurs fonctions clés, et la version 27 comme grande vitrine commerciale avec le chatbot Siri entièrement fonctionnel.
Cependant, au cours des dernières semaines de tests internes, Des problèmes majeurs sont apparus.Siri présente des lacunes : lenteur, erreurs de précision, difficulté à gérer correctement les requêtes complexes et un bug particulièrement gênant qui l’amène à interrompre l’utilisateur s’il parle trop vite. De plus, l’assistant délègue parfois des tâches simples à son intégration ChatGPT alors qu’il devrait pouvoir les gérer lui-même.
Ces revers ont contraint Apple à Envisagez de reporter certaines des fonctionnalités prévues pour iOS 26.4 à iOS 26.5, voire à iOS 27.Les employés eux-mêmes, chargés de tester les versions internes, ont reconnu qu'à la fin de 2025, le système était tellement lent que plusieurs mois de travail supplémentaires semblaient inévitables.
Ce qu'iOS 26.4 apportera à Siri : contexte personnel, écran et actions dans les applications
iOS 26.4 est présenté comme un Mise à niveau structurelle qui jette les bases techniques du nouveau SiriBien plus qu'un simple coup marketing, Apple prépare une première version bêta pour les développeurs pour la semaine du 23 février, une version bêta publique peu après, et une version finale entre fin mars et début avril.
La grande nouvelle est que Apple Intelligence commence vraiment à toucher Siri sur trois fronts : la compréhension du contexte personnel, la conscience de ce qui est affiché à l’écran et les actions effectuées dans et entre les applications grâce au cadre App Intents.
Tout d'abord, le Le contexte personnel permet à Siri de disposer d'une mémoire similaire à celle à court terme. et être capable de comprendre les pronoms, les références vagues et les données déjà présentes sur votre appareil : messages ou conversations WhatsApp, événements du calendrier, courriels ou notes récentes.
Deuxièmement, le La reconnaissance d'écran permettra de faire référence à « ceci », « ce fichier » ou « ce message ». Sans avoir à copier-coller ni à tout réexpliquer, le système saura identifier le contenu pertinent de l'application que vous utilisez et pourra agir en conséquence, à condition que celle-ci expose correctement les informations via les API appropriées.
Enfin, Les intentions d'application, auparavant cachées derrière les raccourcis, deviendront le langage utilisé par les applications pour se connecter à Siri.Chaque développeur définit les fonctionnalités de son application (créer des tâches, modifier des réservations, envoyer des messages internes, traiter des paiements, etc.) et le système peut enchaîner ces actions à l'aide d'une commande en langage naturel.
Fonctionnalités qui pourraient être reportées à iOS 26.5
Bien que certaines de ces fonctionnalités aient été conçues pour iOS 26.4, Des tests récents suggèrent que certaines fonctionnalités arriveront sous une forme limitée ou en mode « aperçu » dans iOS 26.5.Apple a demandé à ses ingénieurs de tester les nouvelles fonctionnalités de Siri sur des versions internes de la version 26.5, ce qui laisse supposer un retard partiel.
L'une des caractéristiques de l'air est le La capacité accrue de Siri à accéder à des données personnelles approfondiesL'objectif : pouvoir lui demander par exemple de « trouver le podcast que Marcos m'a envoyé par message il y a quelques mois et le lire » et que l'assistant localise ce lien dans vos anciennes conversations et le lance directement.
Les versions internes d'iOS 26.5 incluent un bouton qui active un aperçu de ces fonctionnalités avancées, dans l'idée d'avertir l'utilisateur qu'il s'agit de quelque chose d'expérimental, susceptible d'échouer ou de changer, à l'instar des versions bêta publiques du système.
Ils sont également retardés Des commandes plus puissantes pour contrôler les actions au sein des applicationsGrâce aux intentions d'application, Siri peut, par exemple, dire « trouve une photo, la retoucher et l'envoyer à Laura » et la partager, localiser l'image, effectuer des retouches basiques et la partager, le tout en une seule commande.
Les employés qui testent iOS 26.5 signalent que Ces fonctionnalités bénéficient d'une prise en charge initiale, mais leur fiabilité laisse encore à désirer.C’est pourquoi Apple envisage de les publier en avant-première, afin de maîtriser les attentes tout en recueillant des données sur l’utilisation et les bugs.
Le pari risqué : Siri en tant que chatbot dans iOS 27 et le projet « Field/Fields ».
Au-delà des versions 26.4 et 26.5, le véritable bond commercial viendra avec iOS 27, iPadOS 27 et macOS 27 inaugureront une Siri transformée en chatbot. Ce projet, baptisé « Field » ou « Fields », vise à remplacer l’interface actuelle par une expérience de chat intégrée à l’échelle du système, accessible par la voix et par écrit.
Ce nouveau chatbot Siri sera capable de Tenir de longues conversations dans le style ChatGPT, avec un fil de discussion continu où vous pouvez demander des résumés, la génération de texte, la création d'images, des recherches Web avancées et la gestion de tâches complexes sans quitter la conversation.
Au niveau technique, L'architecture est basée sur la plateforme Apple Foundations Models.qui intègre désormais la technologie de l'équipe Google Gemini. Une partie du traitement sera effectuée sur les appareils eux-mêmes (principalement des iPhones et des Macs équipés de puces récentes) et une autre partie dans des centres de données avec des puces conçues par Apple, dans le cadre du projet Baltra, dédié au traitement de l'IA dans le cloud.
L'entreprise expérimente également avec une application autonome pour gérer les interactions précédentes avec le chatbotCela s'apparente à un historique que vous pouvez consulter, modifier ou réutiliser pour de nouvelles tâches. À partir de là, vous pouvez, par exemple, retrouver une conversation dans laquelle vous avez créé un document ou une image et poursuivre la discussion.
Un élément clé de cette nouvelle génération de Siri sera contrôle approfondi des fonctions du système et accès sécurisé aux données personnellesFichiers, e-mails, événements, contacts, notes et bien plus encore. Apple souhaite que vous puissiez lui demander de réorganiser votre journée, de consulter des documents, de rechercher des informations importantes et d'effectuer des actions dans des applications comme Mail, Calendrier ou Safari grâce à des commandes intuitives.
Apple, Google et l'accord Gemini
La transformation de Siri ne peut être comprise sans L'alliance stratégique entre Apple et Google pour intégrer Gemini à Apple IntelligenceCet accord, révélé en début d'année, est essentiel pour donner plus de puissance à l'assistant et aux autres fonctions d'iOS.
Avec curiosité, La communication publique concernant cet accord a été assez asymétrique.L'annonce apparaît principalement sur les plateformes de Google, tandis que les plateformes officielles d'Apple restent discrètes. L'accord existe bel et bien, mais la visibilité penche surtout du côté d'Alphabet, ce qui soulève des interrogations chez les analystes et les investisseurs.
Lors d'une conférence avec les investisseurs d'Alphabet, L'analyste Ken Gawrelski a explicitement demandé comment ce type d'accord s'intègre aux partenariats avec des entreprises comme Apple.Dans un contexte où la facilité d'utilisation de la plateforme et l'IA générative pourraient primer sur les clics de recherche traditionnels, la réponse de Philipp Schindler s'est concentrée sur la performance globale de la recherche et l'intégration de l'IA, mais il a évité de fournir des détails spécifiques sur l'accord avec Apple.
Lors de la conférence téléphonique avec les investisseurs d'Apple, Tim Cook était un peu plus direct sur les questions technologiques, mais tout aussi évasif sur les questions contractuelles.Il a fait valoir que l'IA de Google constitue une base très performante pour les modèles Foundation d'Apple et qu'ensemble, ils permettront de proposer des expériences clés, mais il a clairement indiqué que les termes de l'accord ne seront pas divulgués.
Pour les investisseurs, Ces conférences de résultats sont devenues un outil essentiel pour comprendre l'étendue des explications. Il s'agit d'accords susceptibles d'affecter les produits, la stratégie et la facturation. Bien que les entreprises évitent d'entrer dans les détails, la pression pour plus de clarté s'accroît à mesure que l'IA devient un élément central de leur proposition de valeur.
Impact de cette refonte de Siri sur l'écosystème et les utilisateurs
Le relancement de Siri n'est pas qu'une question de prestige technologique : Apple risque de compromettre une partie de la valeur perçue de l'iPhone et de son écosystème.Les iPhones représentent déjà environ 20 % des ventes mondiales de smartphones et 25 % du parc installé mondial, avec environ 1.500 milliard d'utilisateurs actifs d'iPhone.
Sur des marchés comme l'Espagne, iOS détient environ 28 à 29 % de parts de marché sur le marché mobile. Apple est le premier fabricant en termes d'utilisation active de ses appareils, devant Samsung. Chaque amélioration apportée à Siri permet à des millions de personnes de tirer davantage parti d'un appareil qu'elles ont déjà acheté, sans avoir à changer de matériel.
Cependant, Les fonctionnalités les plus avancées d'Apple Intelligence et de la nouvelle Siri seront réservées aux modèles récents.Comme pour la première vague, cette mise à jour est réservée aux iPhone 15 Pro, iPhone 16 et aux Mac équipés d'une puce M1 ou supérieure. De ce fait, une part importante du marché est exclue, soit environ 20 à 30 % selon certains analystes.
Ce goulot d'étranglement remplit une double fonction : Cela peut encourager les mises à niveau des appareils sur un marché matureMais cela peut aussi engendrer de la frustration chez ceux qui constatent que « leur » Siri ne ressemble pas à celle présentée par Apple. L'impression d'utiliser une version réduite de l'assistant peut nuire à l'image de marque.
En parallèle, Ce retard accumulé survient au pire moment possible.Alors que le monde s'habitue à interagir avec ChatGPT, Gemini ou Claude, l'assistant natif de l'iPhone a continué de fonctionner, dans une large mesure, comme en 2016. Chaque mois de retard se produit sur une base de centaines de millions d'appareils actifs.
Exemples concrets d'utilisation du nouveau Siri
Pour comprendre toute cette configuration technique, il est utile d'imaginer comment Le quotidien va changer avec la nouvelle Siri sous iOS 26.4 et, plus tard, 27.Voici trois scènes très précises.
Tout d'abord, pensez à une réunion compliquée : Vous avez un courriel contenant un contrat en cours et une conversation avec votre avocat.Avec iOS 26.4, vous pouvez dire par exemple : « Siri, déplace cette réunion avec Ana au premier créneau disponible cet après-midi et renvoie-lui le contrat. » Le système utilisera le contexte personnel (qui est Ana), les informations du calendrier et le contenu affiché à l’écran pour effectuer les modifications et envoyer le bon document.
Avec iOS 27, La même situation s'enrichit.Siri pourrait suggérer des alternatives, proposer l'ajout du responsable de la conformité, rédiger un courriel tenant compte des subtilités juridiques et vous demander si vous souhaitez enregistrer une version modifiée du contrat, le tout dans une conversation continue avec le chatbot.
Deuxième exemple : un voyage d'affaires avec des changements de dernière minuteBillets dans Wallet, réservations dans des PDF dans Fichiers et réunions dans Calendrier. Dans la version 26.4, vous pouviez demander : « Reporter toutes les réunions du jeudi au vendredi, avertir les personnes concernées et modifier le vol retour pour le premier vol du samedi matin. » Siri devait coordonner les intentions des applications de la compagnie aérienne, votre calendrier et vos applications de messagerie pour exécuter ces actions.
En 27, l'assistant pourrait aller encore plus loin: repenser l'intégralité du voyage, suggérer des hôtels alternatifs, recalculer le budget et préparer un récapitulatif pour le service financier, le tout sans quitter la conversation où vous approuvez chaque modification.
Troisième scénario : une journée saturée d'informations éparsesVous lisez un rapport macroéconomique dans Safari, recevez une étude de marché par e-mail et réfléchissez à des idées pour une présentation dans Notes. Dans la version 26.4, vous pourrez dire : « Siri, crée une note avec les idées clés et programme un rappel demain à 8 h pour que je la consulte », et le système utilisera la reconnaissance de l’écran et le contexte personnel pour extraire le contenu pertinent.
Avec la version 27 du chatbot, Vous pouvez lui demander de résumer les deux documents, de croiser les données, de générer un plan de présentation et de suggérer plusieurs titres. pour les partager directement avec votre équipe, le tout au sein d'un flux de conversation unique où vous affinez le résultat.
En regardant l'ensemble, La nouvelle phase de Siri associe une volonté affirmée de développer l'IA générative à une défense inébranlable de la vie privée.En s'appuyant sur ses propres modèles, son alliance avec Google Gemini et une refonte profonde de la manière dont les applications sont exposées au système, si Apple réussit son exécution et parvient à convaincre les développeurs et les utilisateurs, l'assistant qui, pendant des années, a été conçu « pour les choses simples » peut enfin devenir la couche qui orchestre presque tout ce que vous faites avec votre iPhone, votre iPad, votre Mac et même votre voiture.