in

Google ajoute la prise en charge de la profondeur stéréo pour deux caméras à ARCore à partir de Pixel 4 et 4XL

En réponse à la mise en œuvre par Apple de capteurs LiDAR dans les modèles iPad Pro et iPhone 12 Pro, Google cherche à tirer parti des configurations à double caméra des appareils phares récents en tant que composants de détection de profondeur.

Dans les récentes mises à jour d’ARCore de Google, ainsi que de l’application qui installe la boîte à outils AR sur les appareils Android compatibles, la société a discrètement ajouté des mentions de prise en charge de la «profondeur stéréo à double caméra».

Les premiers appareils à prendre en charge cette nouvelle capacité seront le Pixel 4 et le Pixel 4XL, qui portent un appareil photo de 12,2 mégapixels et un téléobjectif de 16 mégapixels à l’arrière et un appareil photo grand angle de huit mégapixels avec des capteurs radar Soli à l’avant.

L’assistance devrait arriver “dans les semaines à venir”, selon une mise à jour récente de la page Appareils compatibles ARCore sur le site Google Developers.

La prise en charge de deux caméras peut améliorer les expériences AR à l’aide de l’API Depth, comme Five Nights at Freddy’s AR Special Delivery. Image de Google Developers / YouTube

Pendant ce temps, la version 1.23.210260603 des services Google Play pour AR répertorie également “la profondeur stéréo de la double caméra sur les appareils pris en charge” dans son journal des modifications.

Bien que les détails soient rares, la sagesse conventionnelle veut qu’ARCore utilise deux caméras pour mesurer la profondeur (de la même manière que Snap Spectacles 3) et applique les données avec l’API Depth pour des expériences AR plus réalistes.

Cette décision rappelle le lancement d’ARKit par Apple en 2017 et le pivot rapide de Google du projet Tango (qui reposait sur les fabricants de smartphones pour expédier des appareils dotés de capteurs de profondeur) vers ARCore, qui, comme ARKit, a pu détecter les surfaces horizontales sur la base d’estimations de l’apprentissage automatique. à partir d’un capteur d’appareil photo de smartphone standard.

Maintenant, c’est Apple qui apporte des capteurs de profondeur via la technologie LiDAR aux smartphones grand public. Prendre le matériel disponible déjà à l’état sauvage et le réutiliser est un peu un geste avisé pour Google pour correspondre aux capacités de son rival, bien que les résultats ne soient pas aussi précis que LiDAR ou que d’autres capteurs de profondeur dédiés le seraient. Le fait que l’API Depth n’est actuellement prise en charge que sur environ un tiers des appareils éligibles à ARCore est peut-être un inconvénient majeur pour cette approche.

Google déploie généralement de telles capacités ARCore avec plus de fanfare, nous allons donc garder un œil sur ce sujet. Si je mets des paris, Snapchat, qui est l’un des premiers à adopter LiDAR et Depth API for AR Lenses et qui a de l’expérience avec la profondeur stéréo à double caméra, est un candidat pour le premier à tirer parti des nouvelles compétences.

Un Australien poursuit Apple après l’explosion d’un iPhone dans sa poche

Le nouvel onglet “Éléments” est apparu dans l’application Localiser dans la dernière version bêta d’iOS 14.5