Apple a mis à jour les lignes directrices d’interface humaine d’iOS, avec de nouvelles entrées et des suggestions pour les développeurs concernant la réalité augmentée et le framework ARKit 1.5.

Ajouté dans iOS 11.3, ARKit 1.5 offre une série d’outils AR avancés qui permettent aux développeurs de positionner au mieux les objets virtuels dans une scène réelle. En plus des surfaces horizontales telles que les tables et les chaises, le nouvel ARKit est capable de reconnaître et positionner des objets virtuels sur des surfaces verticales telles que des murs et des portes, et de cartographier plus précisément des surfaces irrégulières telles que des tables circulaires. En utilisant des techniques avancées de vision artificielle pour trouver et reconnaître la position d’images 2D telles que des enseignes, des affiches et des œuvres d’art, ARKit peut intégrer ces images du monde réel dans des expériences AR comme remplir un musée avec des expositions interactives ou donner vie à un film. En outre, la vue réelle à travers l’appareil photo a maintenant une résolution de plus de 50% et prend en charge l’autofocus pour une perspective encore plus nette.

Pour aider les développeurs à gérer ces nouvelles technologies, Apple a optimisé ses directives pour iOS, notamment une série de mentions dédiées aux surfaces verticales. Quelques détails sur l’orientation de l’espace 3D ont également été ajoutés : si l’orientation de l’indicateur suit l’alignement de la surface détectée, cela peut aider les gens à anticiper l’alignement de l’objet positionné.

En ce qui concerne les indicateurs d’application, Apple couvre des sujets similaires dans l’interaction de l’utilisateur avec des objets virtuels. Sur le thème de la rotation, les lignes directrices de la compagnie suggèrent maintenant qu’un objet virtuel devrait être  »généré » par rapport à la surface sur laquelle il repose, que ce soit sur un plan horizontal ou vertical.

Par exemple, une application pourrait reconnaître les affiches d’un film de science-fiction, puis  »sortir » des vaisseaux spatiaux virtuels de l’affiche et les faire voler dans l’environnement. Ou, une application pour un magasin de détail pourrait faire apparaître un personnage virtuel à partir d’une porte de magasin en reconnaissant les affiches de chaque côté de la porte.

Les développeurs doivent fournir des images de référence, y compris des informations sur la dimension physique, afin d’optimiser la détection.

Les directives de détection d’image fournissent un aperçu des fonctionnalités ARKit et de leurs limites. Par exemple, ARKit ne suit pas les changements d’emplacement ou d’orientation des images détectées, ce qui signifie que le placement précis des ressources virtuelles peut poser problème. En outre, ARKit offre les meilleures performances lorsque l’application hôte recherche 25 images distinctes ou moins dans un environnement donné.

Apple propose quelques conseils sur la gestion des objets virtuels, tels que ceux destinés à guider les utilisateurs vers une ressource virtuelle hors écran à l’aide des indicateurs.

Enfin, une section séparée couvre les perturbations potentielles de l’expérience AR, dissuadant les développeurs de sortir les utilisateurs d’une session engageante pour effectuer des tâches simples telles que le changement du tissu d’une chaise virtuelle, par exemple. Cette section explique également comment ARKit gère le repositionnement des objets après un saut de session, par exemple lorsqu’un utilisateur passe d’une application à une autre.

Partager un commentaire