Attendez, qu’est-ce qu’un capteur LiDAR et pourquoi est-il sur l’iPhone 12 Pro?
Si vous avez lu sur les voitures autonomes, vous savez peut-être que les capteurs LiDAR (Détection et télémétrie de la lumière) jouent un rôle important dans la partie auto-conduite de la voiture. Le travail d’un capteur LiDAR consiste à « cartographier » une zone qui l’entoure en mesurant les distances des objets via des rayons lumineux réfléchissants.
Apple a introduit le capteur dans ses produits phares haut de gamme iPhone 12 Pro et Pro Max pour améliorer la photographie. Ce n’est pas la première fois que l’entreprise utilise un capteur LiDAR dans ses produits. En mars 2020, la société basée à Cupertino a inclus le capteur dans son nouvel iPad. Cependant, le but principal du capteur de cet appareil était d’aider la réalité augmentée.
Avec le nouvel iPhone, Apple affirme qu’il vous aidera avec trois choses: les effets photo et vidéo, le placement précis des objets AR et la numérisation des objets et de la pièce. Les deux dernières applications pourraient être en grande partie destinées aux développeurs et aux entreprises comme la construction qui ont besoin de cartographier la pièce. Pour un consommateur moyen, les effets photo et vidéo pourraient être la partie la plus intéressante.
Parce que le LiDAR peut fonctionner dans l’obscurité en tirant des lasers pour calculer les distances, Apple l’utilise pour améliorer l’autofocus sur les iPhones haut de gamme. La société affirme qu’en raison du capteur, les téléphones iPhone 12 Pro ont un autofocus 6 fois plus rapide en basse lumière par rapport à un appareil photo normal. De plus, le capteur LiDAR permet à l’appareil de prendre de meilleures photos en mode portrait dans des conditions de faible luminosité.
Le concept d’utilisation d’un capteur de profondeur dédié n’est pas nouveau. De nombreux téléphones de milieu de gamme tels que le OnePlus Nord utilisent un appareil photo à capteur de profondeur pour améliorer les photos en mode portrait. Mais ces capteurs fonctionnent mieux à la lumière du jour qu’en basse lumière. Certains appareils tels que le Huawei P30 Pro et le Samsung Galaxy S20 Ultra disposent d’un capteur de temps de vol (ToF). Il utilise les rayons infrarouges pour cartographier les environs. Vous pouvez en savoir plus sur le capteur ToF dans notre explicatif ici.
Alors que le ToF et le LiDAR ne peuvent scanner la zone que jusqu’à quelques mètres dans les téléphones, certaines variantes de ce dernier peuvent mesurer des distances supérieures à 100 mètres. Cependant, ceux-ci sont principalement utilisés sur les voitures. L’avantage d’avoir un capteur LiDAR est qu’il envoie des rayons d’impulsion plus petits d’un coin à l’autre pour « balayer » la zone. D’autre part, le capteur ToF envoie une seule impulsion flash pour mesurer la zone, ce qui peut entraîner plus de précision lorsque les distances sont calculées.
Avoir un capteur LiDAR sur un téléphone encouragera plus de développeurs à trouver probablement de meilleurs cas d’utilisation de la réalité augmentée plus convaincants que des démonstrations d’amusement ponctuelles. Snapchat a déjà confirmé qu’il expédierait des objectifs alimentés par LiDAR sur son application iOS.
Apple pourrait ne pas être en mesure de vous convaincre d’acheter ses modes haut de gamme uniquement sur la base du capteur LiDAR. Cependant, la société espère que si vous êtes un développeur de RA ou quelqu’un qui se soucie de photos de faible luminosité de qualité, cela pourrait être l’une des raisons pour lesquelles vous dépensez quelques dollars de plus.
Saviez-vous que nous avons une newsletter sur la technologie grand public? Cela s’appelle branché – et vous pouvez vous y abonner ici.