Le framework de machine learning MLX d’Apple, initialement conçu pour les puces Apple Silicon, bénéficie désormais d’un backend CUDA. Cela signifie que les développeurs pourront exécuter des modèles MLX directement sur des GPU NVIDIA, une avancée majeure dans le domaine.

Cette initiative est menée par le développeur @zcbenz sur GitHub, qui a commencé à prototyper le support de CUDA il y a quelques mois. Depuis, il a segmenté le projet en plusieurs parties, intégrant progressivement ces éléments dans la branche principale de MLX.

Qu’est-ce que CUDA ?

CUDA, ou Compute Unified Device Architecture, est la plateforme de calcul développée par NVIDIA pour maximiser les performances de ses propres GPU sur des tâches de calcul parallèle. Elle est devenue le standard pour exécuter des charges de travail de machine learning sur les GPU NVIDIA, utilisés aussi bien dans la recherche académique que dans le déploiement commercial. Des frameworks populaires comme PyTorch et TensorFlow reposent sur CUDA pour bénéficier de l’accélération GPU.

Pourquoi Apple intègre-t-il CUDA à MLX ?

Initialement, MLX était profondément intégré à Metal sur les plateformes Apple, ce qui limitait son fonctionnement en dehors de macOS. L’ajout d’un backend CUDA change la donne, permettant aux chercheurs et aux ingénieurs de prototyper localement sur un Mac, tout en utilisant Metal et Apple Silicon, puis d’exécuter le même code sur de grands clusters de GPU NVIDIA, qui dominent encore les charges de travail d’entraînement en machine learning.

Cependant, des limitations subsistent. Tous les opérateurs MLX ne sont pas encore implémentés, et le support pour les GPU AMD est encore plus loin dans le futur. Néanmoins, cette prise en charge permet de tester et d’expérimenter plus rapidement, offrant des opportunités intéressantes pour les développeurs en intelligence artificielle.

Pour ceux qui souhaitent essayer cette fonctionnalité, des détails sont disponibles sur GitHub.

Partager un commentaire