Face Tracking mit der TrueDepth-Kamera 16.05.2018, 07:12 Uhr

3D-Erkennung

Mit dem ARKit können Entwickler Emotionen in ihre Apps bringen.
Mit dem iPhone X hat Apple im vergangenen Herbst eine neue iPhone-Generation vorgestellt, die mit einigen spannenden Features ausgestattet ist. Eines davon ist die TrueDepth-Kamera, eine Weiterentwicklung der von PrimeSense entwickelten Sensoren zur 3D-Erkennung, die erstmalig 2010 in der Microsoft Kinect zum breiten Einsatz gekommen sind. Was damals noch als Sensorleiste auf den Fernseher gestellt werden musste, wurde von der mittlerweile von Apple übernommenen Firma so miniaturisiert, dass es in den Buckel am oberen Display-Rand des iPhone X passt. Das System projiziert mit Hilfe eines Punkte-Projektors ein unsichtbares Muster auf das Gesicht des Nutzers und leitet durch die Verzerrungen im Muster die Tiefeninformationen des Gesichts ab. Kombiniert mit dem Bild der normalen Kamera kann so ein hochauflösendes, dreidimensionales Abbild des Gesichts erzeugt werden, was eine Vielzahl von Anwendungen ermöglicht. Apple verwendet es unter anderem mit Face ID zur Authentifizierung und zum Entsperren des Geräts, aber auch für die Animoji (Bild 1) um die Mimik des Nutzers auf die animierten Figuren zu übertragen.
Die Animoji im Einsatz in iMessage (Bild 1)

web & mobile DEVELOPER

Sie wollen zukünftig auch von den Vorteilen eines plus-Abos profitieren? Werden Sie jetzt web&mobile Developer plus Kunde.
  • 2 Monate Gratis testen
  • Über 4.000 qualifizierte Fachartikel
  • Diverse DevBooks thematisch für Sie zusammen gestellt
  • Webcasts von 30 - 90 Min.
  • Aufzeichnungen von ausgewählten Fortbildungen und Konferenzen
  • Auf jedem Gerät verfügbar