Wprowadzenie do funkcji Augmented Faces

Przewodniki dotyczące poszczególnych platform

Interfejs Augmented Faces API umożliwia renderowanie zasobów na ludzkich twarzach bez używania specjalistycznego sprzętu. Zawiera punkty funkcji, które umożliwiają aplikacji automatyczne identyfikowanie różnych obszarów wykrytej twarzy. Aplikacja może używać tych obszarów do nakładania zasobów w sposób, który pasuje do konturów poszczególnych twarzy.

Przypadki użycia

AR z obsługą twarzy umożliwia korzystanie z wielu różnych zastosowań – od przymierzania akcesoriów i kosmetyków po filtry twarzy i efekty, które użytkownicy mogą cieszyć się razem ze znajomymi. Na przykład użyj modeli 3D i tekstury, aby nałożyć cechy lisa na twarz użytkownika.

Model składa się z dwóch uszu lisa i nosa lisa. Każda to oddzielna kości, którą można przesuwać pojedynczo, aby dostosować ją do obszaru twarzy, do którego są dołączone.

Tekstura składa się z cieni, piegów i innych kolorów.

W czasie działania interfejs Augmented Faces API wykrywa twarz użytkownika i nakłada na nią teksturę oraz modele.

Części rozszerzonej twarzy

Interfejs Augmented Faces API umożliwia ustawienie pozycji pośrodku, 3 pozycje regionu i siatkę twarzy 3D.

Pozycja pośrodku

Środkowa pozycja z tyłu nosa wskazuje na środkową część głowy użytkownika. Umożliwia renderowanie komponentów, np. kapelusza na głowie.

Pozycje w regionie

Na lewym czole, prawym czole i czubku nosa umiejscowione są ważne części twarzy użytkownika. Stosuj je, aby renderować zasoby na nosie lub w okolicach uszu.

Siatka twarzy

Gęsta siatka 3D o wymiarach 468 punktów umożliwia malowanie elastycznych, szczegółowych tekstur, które dokładnie podążają za twarzą – na przykład podczas nakładania okularów wirtualnych za określoną część nosa. Taka siatka zbiera wystarczającą ilość szczegółowych informacji 3D, aby móc łatwo wyrenderować taki wirtualny obraz.