Les sessions de développeurs de la WWDC25 d’Apple regorgent d’informations intéressantes qui n’ont pas eu droit de cité lors de la keynote ou de la présentation de l’état de l’union. Un point particulier, évoqué brièvement dans la présentation Quoi de neuf dans SwiftUI, pourrait offrir un aperçu des prochaines orientations de visionOS.

Il y a quelques mois, Mark Gurman de Bloomberg a rapporté qu’Apple préparait deux nouveaux casques Vision Pro. L’un d’eux vise à être plus léger et plus abordable que la version actuelle, tandis que l’autre serait un appareil à connecter :

« L’autre casque en développement pourrait être encore plus intrigant. En janvier, j’ai rapporté qu’Apple avait abandonné le développement de lunettes de réalité augmentée qui se connecteraient à un Mac. À la place, il travaille sur un Vision Pro qui se branche à un Mac. La différence entre les deux concepts est le niveau d’immersion. L’appareil annulé avait des lentilles transparentes ; le produit toujours en cours de développement adoptera le même principe que le Vision Pro. »

Bien qu’aucun mot officiel ne précise quand ou si ces produits seront lancés, Apple semble déjà préparer le terrain pour cette version connectée.

Pour la première fois, les applications macOS Tahoe 26 pourront rendre du contenu 3D immersif directement sur Apple Vision Pro, en utilisant un nouveau type de scène appelé RemoteImmersiveSpace.

De macOS directement à visionOS

Cette nouvelle capacité a été mentionnée dans le cadre de l’évolution du support de SwiftUI pour le calcul spatial. Elle tire parti du fait qu’Apple apporte le framework CompositorServices à macOS Tahoe 26.

Ce framework permet aux applications Mac exécutées sur macOS Tahoe 26 de projeter un contenu stéréo 3D directement dans des environnements Vision Pro, sans nécessiter de version distincte pour visionOS.

En utilisant RemoteImmersiveSpace, les développeurs peuvent désormais créer des visuels immersifs prenant en charge des événements d’entrée, tels que les taps et gestes, ainsi que des effets de survol pour une interaction spatiale. Cela permet à leurs applications de bureau de s’étendre dans un environnement totalement immersif. Tout cela peut être réalisé en SwiftUI, avec une intégration plus poussée dans Metal pour ceux qui souhaitent un contrôle total sur le rendu.

Nouvelles options pour les développeurs

De plus, l’équipe SwiftUI a également introduit de puissantes API de mise en page et d’interaction spatiales, permettant aux développeurs de composer des interfaces volumétriques, d’activer la manipulation d’objets, tel que soulever une bouteille d’eau virtuelle, et d’utiliser des comportements d’accrochage de scène pour des interfaces plus dynamiques.

En pratique, cela signifie qu’une application macOS pourrait simuler des expériences 3D entières, allant des visites architecturales aux visualisations scientifiques, et les exécuter en direct sur Vision Pro, propulsée par le Mac.

Le résultat ? Une barrière à l’entrée beaucoup plus basse pour les développeurs macOS désireux d’expérimenter avec Vision Pro ou de commencer à construire pour un avenir où le calcul spatial pourrait devenir mainstream.

Pour plonger dans les détails techniques, consultez la session d’Apple intitulée Quoi de neuf dans SwiftUI et la documentation sur le site des développeurs d’Apple.

Partager un commentaire