Dans iOS 13, Apple a tiré parti du Machine Learning pour intégrer une série d’algorithmes qui permet à l’iPhone et à l’iPad de détecter les chiens et les chats.

Le nouveau framework Vision d’Apple propose une série d’algorithmes d’apprentissage automatique. Il permet d’analyser des images et des vidéos, de manière à reconnaître la présence de chiens et de chats. Le système peut également utiliser des modèles Core ML personnalisés pour des activités telles que la classification et la détection d’objets particuliers ou la différenciation entre l’homme et les animaux.

Dans les versions précédentes d’iOS, il existait déjà des éléments de ce type capables de reconnaître les visages et les animaux. C’est notamment le cas dans l’application Photos. Depuis, le cadre a été considérablement amélioré avec iOS 13. Il permet également aux développeurs de l’intégrer à leurs applications. En effet, le cadre comprend maintenant des détecteurs d’animaux spécifiques permettant d’identifier les chiens et les chats. Les API relatives s’appellent VNAnimalDetectorCat et VNAnimalDetectorDog. Elles sont présentes dans les versions bêta d’iOS 13, iPadOS 13, tvOS 13 et macOS Catalina.

Apple utilise depuis des années le cadre Vision pour l’apprentissage automatique dans l’application Photos. Il est capable d’identifier une grande variété d’objets, de visages et d’animaux. Désormais, toute cette technologie peut également être exploitée dans des applications tierces.

Partager un commentaire