Apple envisage de rendre Siri de plus en plus utile pour les utilisateurs, même sans connexion Internet, grâce à un mode hors connexion que la société développe et étudie pour l’avenir.

Actuellement, Siri fonctionne de la manière suivante: écouter la commande vocale de l’utilisateur à la demande et envoyer des données vocales aux serveurs Apple de manière anonyme, ce qui convertit l’audio en texte, interprète la commande et envoie le résultat à l’iPhone ou à l’iPad. Le processus de reconnaissance vocale est ensuite géré par les serveurs Apple. Il s’agit d’un processus très intense qui ne peut être suivi sur un iPhone.

De toute évidence, la dépendance de Siri sur les serveurs Apple signifie que l’assistant virtuel ne peut être fonctionnel qu’avec une connexion Internet. Sans connexion, il est impossible d’utiliser Siri.

Un nouveau brevet publié par Apple tente de dépasser cette limite. Au lieu de se connecter à des serveurs Apple, le traitement et la validation de la voix pourraient avoir lieu directement sur le périphérique localement. En « écoutant » l’utilisateur qui fait la demande, l’appareil en question sera capable de déterminer l’activité par le biais du traitement naturel du langage, ce qui lui permettra d’exécuter la commande requise.

Pour ce faire, Apple utilise un système intégré de modules pour traiter les questions adressées à l’assistant virtuel. La collection de modules comprend des éléments pour la synthèse de la parole, le traitement de dialogue, la conversion d’un alphabet phonétique basé sur un vocabulaire prédéfini et des données créées par l’utilisateur, ainsi qu’un module de traitement de langage naturel.

En fonction des mots reconnus et de la structure de la requête, l’assistant numérique hors ligne peut ensuite effectuer une série de tâches prédéfinies stockées dans le module de traitement du flux d’activité ou le module de traitement de service. Ces deux flux contiennent des modèles pour les tâches fréquemment demandées, telles que la configuration d’une minuterie ou la lecture d’une chanson enregistrée sur l’appareil.

Apple prévoit également d’utiliser des mécanismes d’apprentissage automatique pour effectuer des activités spécifiques, notamment le traitement du langage naturel. De tels systèmes seraient capables de comprendre les informations contextuelles, ce qui les rend extrêmement utiles pour déterminer ce que veut l’utilisateur, en utilisant un nombre limité de données sur le périphérique et sans avoir à accéder à Internet.

Avoir accès aux traitements locaux et à distance fournirait également à l’assistant numérique deux interprétations possibles des mots prononcés par l’utilisateur. Dans ce cas, le système détermine un score utile pour l’interprétation élaborée localement et pour celle élaborée en ligne, qui exécutera l’activité selon le processus ayant obtenu le score le plus élevé.

Partager un commentaire