
Apple a récemment publié quatre enregistrements et un récapitulatif de recherche concernant son atelier 2026 sur l’apprentissage machine et l’IA respectant la vie privée.
APPROFONDIR SUR LA CONFIDENTIALITÉ ET L’IA
La publication de ce contenu fait suite à une nouvelle annonce sur le blog d’Apple dédié à l’apprentissage machine. Cet atelier de deux jours a rassemblé des chercheurs d’Apple et des membres de la communauté de recherche au sens large pour discuter des dernières avancées en matière de ML et d’IA respectant la vie privée. Les thèmes abordés incluaient l’apprentissage privé et les statistiques, les modèles fondamentaux et la confidentialité, ainsi que les attaques et la sécurité.
LES DISCUSSIONS DE L’ATELIER
Apple a commenté l’événement :
Les présentations et discussions de l’atelier ont exploré les avancées et les questions ouvertes concernant la confidentialité et le ML, y compris l’apprentissage fédéré, l’apprentissage statistique, les modèles de confiance, les attaques, le comptage de la confidentialité et les défis uniques posés par les modèles fondamentaux. Ces domaines de recherche ancrent l’innovation dans une évaluation rigoureuse de la confidentialité et de la sécurité, reliant les cadres théoriques aux applications concrètes.
PRÉSENTATIONS À REGARDER
Parmi les quatre présentations mises en avant par Apple, l’une d’elles est « Crypto for DP and DP for Crypto », présentée par Kunal Talwar, chercheur à Apple. Les autres présentations incluent :
- Online Matrix Factorization and Online Query Release, présenté par Aleksandar Nikolov de l’Université de Toronto.
- Learning from the People: Communicating about S&P Technology for Responsible Data Collection, présenté par Elissa Redmiles de Georgetown.
- Understanding and Mitigating Memorization in Foundation Models, présenté par Franziska Boenisch de CISPA.
TRAVAUX PUBLIÉS
Apple a également mis en avant 24 travaux publiés lors de l’atelier, dont trois articles développés par des chercheurs actuels et anciens de l’entreprise :
- Combining Machine Learning and Homomorphic Encryption in the Apple Ecosystem
- Efficient privacy loss accounting for subsampling and random allocation
- Trade-offs in Data Memorization via Strong Data Processing Inequalities
Pour visionner toutes les séances et consulter la liste complète des publications référencées, suivez ce lien ici.








