EDGE Issue 320: „Face to face”
A new technology from Apple and the Helsinki-based Next Games may not quite produce results of MotionScan’s fidelity, but it promises to be by far the most affordable and effective way of transposing human expressions onto videogame faces yet produced. Facial motion capture has, for decades, been a luxury afforded to only the most moneyed developers. The process typically requires the hiring of a dedicated studio, bespoke tracking equipment including a $3,000 mo-cap helmet, high resolution cameras and a squadron of specialist engineers. That changed when Apple announced the facial-tracking feature of the iPhone X.
EDGE, Issue 320
Der Untertitel des Artikels fasst die vielversprechenden Aussichten der TrueDepth-Kamera im iPhone X gut zusammen: „How the tech behind Apples’s Animoji could revolutionise motion capture in games”.
Das Team von Next Games programmierte ein Plug-in, das die Gesichtszüge einer Person über die Frontkamera des iPhones aufzeichnet und zu Entwicklungsumgebung Unity übergibt. Dort können diese Grimassen in nur 30 Sekunden auf ein 3D-Modell angewendet werden.
Qualitativ ist das nicht vergleichbar mit den etablierten Motion-Capture-Systemen, erfordert andererseits aber auch kein Aufkleben von Hunderten von Markern auf das Schauspielergesicht, ein separates Team, entsprechend viel Zeit und teures Kamera-Equipment.
Next Games hat ihre Entwicklung zum Aufzeichnen und Überführen der Daten noch nicht veröffentlicht, allerdings wird die Technik bereits dieses Jahr im iOS- und Android-Spiel ‚The Walking Dead: Our World‘ zu sehen sein.