L’intelligence artificielle est incontestablement devenue la tendance phare de l’industrie ces dernières années. Toutefois, bien que les modèles de langage soient d’une efficacité remarquable, ils se heurtent souvent à un compromis majeur : la protection de la vie privée. En effet, l’utilisation de ces modèles se fait généralement via le cloud, ce qui implique que toutes vos conversations sont stockées sur des serveurs externes.

Chez Apple, la protection de la vie privée a toujours été au cœur de ses produits. Ainsi, dans les mois précédant le lancement des nouvelles fonctionnalités d’Apple en matière d’intelligence artificielle, de nombreuses personnes se demandaient comment l’entreprise allait gérer cette problématique. Aujourd’hui, plongeons dans les détails.

Modèles sur appareil

Les caractéristiques d’Apple Intelligence reposent sur des modèles fonctionnant directement sur l’appareil. Ces modèles nécessitent des exigences strictes en matière de matériel, ce qui signifie que vous ne pouvez accéder à Apple Intelligence qu’avec un iPhone 15 Pro ou un modèle d’iPhone 16. Les utilisateurs d’iPad et de Mac bénéficient d’une compatibilité plus large, puisque tous les appareils équipés de puces M1 sont pris en charge.

Cette exigence matérielle n’est pas arbitraire ; il s’agit de la puissance et de la mémoire nécessaires pour faire fonctionner ces modèles de langage avancés. Pour être précis, un minimum de 8 Go de mémoire unifiée est requis, une capacité que Apple a commencé à intégrer avec l’iPhone 15 Pro.

Avec les modèles sur appareil, les requêtes ne quittent pas votre téléphone. Certes, toutes les demandes faites à Apple Intelligence ne s’exécutent pas localement. Apple utilise également un traitement en cloud privé pour les requêtes plus lourdes. Cela dit, la plupart des fonctionnalités actuelles d’Apple Intelligence s’appuient fortement sur la puce de votre appareil, comme les résumés de notifications et Genmoji, permettant ainsi de garder vos demandes et informations personnelles locales.

Calcul cloud privé

Apple a mis en place une solution cloud pour traiter certaines requêtes liées à Apple Intelligence. Bien qu’elle n’ait pas été largement utilisée avec iOS 18, son utilisation s’est intensifiée avec iOS 26. Par exemple, il est désormais possible d’utiliser les Raccourcis Siri pour envoyer des requêtes à des modèles d’Apple, y compris ceux basés sur le cloud.

Un article de blog détaillé d’Apple explique comment le Calcul Cloud Privé protège les données utilisateur. En résumé, le système est conçu pour ne pas conserver d’informations, et les utilisateurs peuvent vérifier cette affirmation. En construisant ce système de manière à garantir que les données utilisateur ne soient pas accessibles par Apple ou par un attaquant, Apple permet également aux chercheurs indépendants de vérifier ses allégations.

Intégration de ChatGPT

Enfin, Apple a conclu un partenariat avec OpenAI garantissant que les données des utilisateurs d’Apple ne soient pas conservées par OpenAI et que les demandes des utilisateurs d’Apple ne soient pas utilisées pour l’entraînement de futurs modèles. De plus, les demandes ne sont jamais envoyées à ChatGPT sans le consentement de l’utilisateur.

Récemment, le New York Times a intenté un procès à OpenAI, et le tribunal a exigé qu’OpenAI conserve indéfiniment les données des utilisateurs de ChatGPT. Historiquement, OpenAI supprime ces données de ses systèmes dans un délai de 30 jours.

Certains se sont demandé si cela impactait les utilisateurs d’Apple. Cependant, OpenAI a affirmé que les clients commerciaux utilisant des API de Zéro Conservation de Données ne sont pas concernés, car OpenAI n’aurait pas stocké ces données.

Dans ce contexte, utiliser ChatGPT via Siri est techniquement la manière la plus privée d’accéder à ces modèles, soulignant ainsi l’engagement indéfectible d’Apple en faveur de la vie privée des utilisateurs à l’ère de l’IA.

Partager un commentaire