
Alors que de plus en plus d’utilisateurs se tournent vers l’IA pour des tâches d’écriture telles que la rédaction de courriels ou les résumés de documents, une frustration commune persiste : les résultats semblent souvent trop génériques. Même lorsque des modèles comme ChatGPT ou Gemini reçoivent des instructions détaillées, ils peinent à capturer le ton ou la voix uniques d’un utilisateur sans de nombreuses modifications manuelles. Apple propose désormais une solution.
Dans un nouvel article de recherche intitulé Aligning LLMs by Predicting Preferences from User Writing Samples, qui sera présenté lors de la conférence internationale sur l’apprentissage automatique (ICML 2025) le mois prochain, des chercheurs d’Apple révèlent PROSE, une technique conçue pour aider les modèles de langage à mieux déduire et adopter les préférences d’écriture uniques d’un utilisateur en apprenant directement de ses précédents échantillons d’écriture.
Le fonctionnement de PROSE
L’idée centrale derrière PROSE (Preference Reasoning by Observing and Synthesizing Examples) est de dépasser les techniques d’alignement traditionnelles, telles que l’ingénierie des invites ou l’apprentissage par renforcement basé sur le retour humain. À la place, l’IA construit un profil interne et interprétable du style d’écriture réel de l’utilisateur.
PROSE fonctionne en deux étapes :
- Affinage itératif : L’IA compare de manière répétée ses propres réponses générées avec de véritables exemples de l’utilisateur, ajustant sa « description de préférence » interne jusqu’à produire quelque chose qui correspond étroitement à l’écriture de l’utilisateur.
- Vérification de cohérence : Pour éviter de se focaliser sur un seul exemple, qui pourrait ne pas être représentatif du style d’écriture global de l’utilisateur, l’IA vérifie que toute préférence déduite (par exemple, “utiliser des phrases courtes” ou “commencer par une blague”) est valide à travers plusieurs échantillons d’écriture.
Pourquoi cela compte pour Apple Intelligence
Bien que le papier ne mentionne pas explicitement les produits ou services d’Apple, le lien est évident. Alors qu’Apple s’engage dans des fonctionnalités d’assistance plus personnalisées, des techniques comme PROSE pourraient jouer un rôle majeur dans la création de textes par Apple Intelligence qui ressemblent davantage à chaque utilisateur individuel.
Avec Apple permettant désormais aux développeurs d’accéder directement à ses modèles locaux grâce au cadre récemment annoncé des Foundation Models, il n’est pas difficile d’imaginer un avenir où n’importe quelle application pourrait tirer parti d’un assistant d’écriture profondément personnalisé pour alimenter ses propres outils d’écriture.
Un nouveau repère pour l’évaluation
Dans l’étude, Apple introduit également un nouvel ensemble de données de référence appelé PLUME (Preference Learning from User Emails and Memos) pour évaluer les techniques d’alignement de style d’écriture telles que PROSE.
Ce nouvel ensemble remplace un précédent (PRELUDE) et vise à corriger les problèmes courants liés aux tests de personnalisation des LLM, tels que des définitions de préférences superficielles ou des tâches non représentatives.
En utilisant PLUME, les chercheurs ont comparé PROSE à des approches précédentes, comme une autre méthode d’apprentissage des préférences appelée CIPHER, et aux techniques d’apprentissage en contexte standard (ICL).
Le résultat ? PROSE a surpassé CIPHER de 33 % sur des indicateurs clés et a même battu l’ICL lorsqu’il était associé à des modèles avancés comme GPT-4o. Il est également intéressant de noter que l’article suggère que la combinaison de PROSE avec l’ICL offre le meilleur des deux mondes, avec une amélioration allant jusqu’à 9 % par rapport à l’ICL seul.
Une tendance plus large : l’IA qui s’adapte à vous
Le projet PROSE s’inscrit dans une tendance de recherche en IA plus large : rendre les assistants non seulement plus intelligents, mais aussi plus personnels. Que ce soit par un ajustement sur appareil, une modélisation des préférences ou des invites contextuelles, la course est lancée pour réduire l’écart entre la sortie générique des LLM et la voix unique de chaque utilisateur.








