Articles

Warte, was ist ein LiDAR-Sensor und warum ist er auf dem iPhone 12 Pro?

Wenn Sie über autonome Autos gelesen haben, wissen Sie vielleicht, dass LiDAR-Sensoren (Light Detection and Ranging) eine große Rolle im selbstfahrenden Teil des Autos spielen. Die Aufgabe eines LiDAR-Sensors besteht darin, eine Umgebung abzubilden, indem Entfernungen von Objekten über reflektierende Lichtstrahlen gemessen werden.

Apple hat den Sensor in seinen High-End-Flaggschiffen iPhone 12 Pro und Pro Max eingeführt, um die Fotografie zu verbessern. Dies ist nicht das erste Mal, dass das Unternehmen LiDAR-Sensoren in seinen Produkten einsetzt. Im März 2020 hat das in Cupertino ansässige Unternehmen den Sensor in sein neues iPad aufgenommen. Der Hauptzweck des Sensors in diesem Gerät bestand jedoch darin, Augmented Reality zu unterstützen.

Mit dem neuen iPhone behauptet Apple, dass es Ihnen bei drei Dingen helfen wird: Foto- und Videoeffekte, präzise Platzierung von AR-Objekten sowie Objekt- und Raumscannen. Die letzten beiden Anwendungen sind möglicherweise hauptsächlich für Entwickler und Unternehmen wie den Bau gedacht, die den Raum abbilden müssen. Für einen durchschnittlichen Verbraucher könnten Foto- und Videoeffekte der interessanteste Teil sein.

Da LiDAR im Dunkeln arbeiten kann, indem Laser auf Entfernungen geschossen werden, verwendet Apple es, um den Autofokus der High-End-iPhones zu verbessern. Das Unternehmen behauptet, dass das iPhone 12 Pro aufgrund des Sensors einen 6-mal schnelleren Autofokus bei schlechten Lichtverhältnissen im Vergleich zu einer normalen Kamera hat. Plus, die LiDAR sensor ermöglicht das gerät zu nehmen besser porträt modus fotos in low-licht bedingungen.

LiDAR-Scanner bei den iPhone 12 Pro-Modellen

Das Konzept der Verwendung eines dedizierten Tiefensensors ist nicht neu. Viele Mittelklasse-Telefone wie das OnePlus Nord verwenden eine Tiefensensorkamera, um Fotos im Hochformat zu verbessern. Aber diese Sensoren arbeiten besser bei Tageslicht als bei schwachem Licht. Einige Geräte wie das Huawei P30 Pro und das Samsung Galaxy S20 Ultra verfügen über einen TOF-Sensor (Time-of-Flight). Es verwendet Infrarotstrahlen, um die Umgebung abzubilden. Sie können über den ToF-Sensor in unserem Explainer hier lesen.

Während sowohl ToF als auch LiDAR den Bereich nur bis zu einigen Metern Länge scannen können, können einige Varianten des letzteren Entfernungen von mehr als 100 Metern messen. Diese werden jedoch hauptsächlich auf Autos verwendet. Der Vorteil eines LiDAR-Sensors besteht darin, dass er kleinere Pulsstrahlen von einer Ecke zur anderen sendet, um den Bereich zu scannen. Auf der anderen Seite sendet der ToF-Sensor einen einzigen Blitzimpuls, um den Bereich zu messen, und dies kann zu Genauigkeiten führen, wenn Entfernungen berechnet werden.

Ein LiDAR-Sensor auf einem Telefon wird mehr Entwickler dazu ermutigen, wahrscheinlich bessere Anwendungsfälle für AR zu finden, die überzeugender sind als einmalige Demos. Snapchat hat bereits bestätigt, dass es LiDAR-betriebene Objektive in seiner iOS-App ausliefern wird.

Apple kann Sie möglicherweise nicht davon überzeugen, seine High-End-Modi nur auf der Basis des LiDAR-Sensors zu kaufen. Das Unternehmen hofft jedoch, dass, wenn Sie ein AR-Entwickler oder jemand sind, der sich um qualitativ hochwertige Fotos bei schlechten Lichtverhältnissen kümmert, dies einer der Gründe für Sie sein könnte, ein paar Dollar mehr auszugeben.

Wussten Sie, dass wir einen Newsletter rund um Consumer Tech haben? Es heißt Plugged In – und Sie können es hier abonnieren.