Przewodniki dotyczące konkretnej platformy
Android (Kotlin/Java)
Android NDK (C)
Unity (Fundacja AR)
iOS
Nierzeczywisty silnik
Interfejs Augmented Faces API pozwala renderować zasoby na ludzkie twarze bez konieczności korzystania ze specjalistycznego sprzętu. Zawiera ona punkty cech, dzięki którym aplikacja może automatycznie rozpoznawać różne regiony wykrytej twarzy. Aplikacja może następnie wykorzystać te regiony do nałożenia zasobów w sposób zgodny z kontem danej twarzy.
Przypadki użycia
Twarz oparta na twarzy odblokowuje szeroki zakres przypadków użycia – od próbek urody i akcesoriów po filtry twarzy i efekty, które użytkownicy mogą zobaczyć ze znajomymi. Na przykład używaj modeli 3D i tekstury, aby nałożyć cechy lisa na twarz użytkownika.
Model składa się z dwóch lisów i nosa. Każda z nich stanowi odrębną kostkę, którą można przesuwać pojedynczo, aby obserwować dany obszar twarzy.
Tekstura składa się z cienia do oczu, piegów i innych kolorów.
W trakcie działania interfejs Augmented Faces API wykrywa twarz użytkownika i nakłada na nią teksturę i modele.
Części uszkodzonej twarzy
Interfejs Augmented Faces API udostępnia centralną pozycję, 3 pozycje regionalne i siatkę 3D.
Pozycja środkowa
Umieszczona za nosem środkowa część głowy wskazuje środek głowy użytkownika. Służy do renderowania zasobów, np. kapelusza na głowie.
Pozycja regionu
Znajdujące się w lewym czole, prawe czoło i czubek nosa umożliwiają rozpoznanie istotnych części twarzy użytkownika. Za ich pomocą możesz renderować zasoby na nosie lub w uszach.
Siatka na twarz
Gęsta, siatkowata siatka 3D z 468-punktami umożliwia malowanie elastycznych, szczegółowych tekstur, które dobrze przylegają do twarzy – na przykład podczas nakładania wirtualnych okularów za konkretny element nosa. Siatka zbiera wystarczającą ilość szczegółowych informacji 3D, aby można było z łatwością wyrenderować ten wirtualny obraz.