Apple pourrait bientôt faire face à de nouvelles critiques de la part des actionnaires concernant sa gestion de la confidentialité et de l’acquisition de données pour l’intelligence artificielle. Un dossier récent déposé auprès de la Securities and Exchange Commission (SEC) des États-Unis soulève des inquiétudes quant à la manière dont Apple obtient et utilise les données de tiers pour former ses modèles d’IA.

Apple IA, Apple Intelligence,

Le National Legal and Policy Center (NLPC) fait pression sur Apple en présentant une proposition pour la prochaine assemblée générale des actionnaires du 25 février 2025, appelant à une plus grande transparence sur les pratiques de l’entreprise en matière d’IA.

Plus précisément, la proposition – identifiée comme la « Proposition n° 4 » parmi les documents officiels d’Apple pour 2025 – demande à l’entreprise de publier un rapport qui clarifie :

  • L’origine des données utilisées pour former l’IA : Apple doit s’assurer que les données obtenues de manière inappropriée ne sont pas utilisées.
  • Mesures de protection de la vie privée adoptées dans le développement de l’IA : La politique de confidentialité de l’entreprise est-elle réellement respectée dans le contexte de l’IA ?
  • Conformité aux normes légales et éthiques dans le contenu généré par l’IA : Apple doit démontrer que son IA ne viole pas les droits de propriété intellectuelle ni les réglementations en matière de confidentialité.

Selon le NLPC, Apple – qui a toujours mis l’accent sur la confidentialité des utilisateurs – devrait établir une norme plus élevée en matière d’éthique dans l’IA.

L’organisation souligne que d’autres grandes entreprises technologiques, dont Google, OpenAI et Meta, ont déjà été critiquées pour des violations présumées liées au scraping de données pour la formation de modèles d’IA.

Dans le document, le NLPC ne mâche pas ses mots : Apple, tout en conservant une image d’entreprise respectueuse de la vie privée, profiterait de la monétisation des données via des accords avec des sociétés tierces.

L’un des exemples cités est l’accord avec Alphabet/Google pour le moteur de recherche par défaut de l’iPhone, de l’iPad et du Mac. Cet accord rapporte environ 25 milliards de dollars par an à Apple, soit 20 % de ses bénéfices avant impôts. En retour, Google collecte une énorme quantité de données sur les utilisateurs d’Apple, alimentant ainsi les inquiétudes en matière de confidentialité.

Selon le NLPC, ce modèle est susceptible de se répéter avec l’IA, car Apple a déjà un partenariat avec OpenAI (ChatGPT) et envisage d’intégrer Gemini de Google.

En fait, Apple garantit l’intégration de l’IA avec des entreprises externes, leur déchargeant ainsi de toute controverse liée à la confidentialité. Par rapport à ses concurrents, Apple a adopté une approche plus prudente et réservée en matière de développement de l’IA. Au lieu de se concentrer sur de grands modèles basés sur le cloud, l’entreprise s’est concentrée sur Apple Intelligence, un système qui traite les données directement sur les appareils, en exploitant le Private Cloud Compute pour garantir la sécurité des utilisateurs.

Toutefois, selon les accusations, la protection de la vie privée prend fin dès qu’un partenaire externe entre en jeu. Actuellement, Apple n’a intégré ChatGPT que comme option d’IA, mais Google Gemini et d’autres services pourraient arriver à l’avenir.

Pour activer ces outils, Apple exige le consentement explicite de l’utilisateur, mais le NLPC soutient que cela n’est pas suffisant pour garantir une véritable protection de la vie privée. Il est fort probable que la proposition de la NLPC soit rejetée par les actionnaires, comme cela arrive souvent avec ce type de demande.

Apple conseille généralement à ses investisseurs de voter contre les propositions qui pourraient porter atteinte à sa stratégie commerciale, et elle réussit presque toujours à les faire rejeter. Cependant, l’ouverture de ces allégations pourrait accroître la pression médiatique sur Apple, la poussant à être plus transparente sur ses politiques en matière d’IA et incitant l’entreprise à revoir ses partenariats pour éviter de futures controverses.

Partager un commentaire