يمكنك استخدام مجموعة أدوات تعلّم الآلة لرصد الوجوه في الصور والفيديوهات التي تشبه السيلفي.
واجهة برمجة التطبيقات لاكتشاف شبكات الوجه | |
---|---|
اسم حزمة SDK | face-mesh-detection |
التنفيذ | يتم ربط الرمز ومواد العرض بشكلٍ ثابت بتطبيقك في وقت الإصدار. |
تأثير حجم التطبيق | 6.4 ميغابايت تقريبًا |
الأداء | عرض الوقت الفعلي على معظم الأجهزة |
جرّبه الآن
- يمكنك تجربة نموذج التطبيق من أجل يمكنك الاطّلاع على مثال حول استخدام واجهة برمجة التطبيقات هذه.
قبل البدء
في ملف
build.gradle
على مستوى المشروع، تأكد من تضمين Maven في قسمَي "النص البرمجي" و"جميع المشاريع".أضِف الاعتمادية لمكتبة اكتشاف شبكات الوجوه في ML Kit إلى الخاص بالوحدة. يكون عادةً
app/build.gradle
:dependencies { // ... implementation 'com.google.mlkit:face-mesh-detection:16.0.0-beta1' }
إرشادات إدخال الصور
يجب التقاط الصور على بُعد مترين تقريبًا من كاميرا الجهاز، أن تكون الوجوه كبيرة بما يكفي للتعرّف بشكل مثالي على الشبكات المتداخلة للوجه. ضِمن عام، كلما كان الوجه أكبر، زادت دقة التعرف على الشبكات المتداخلة للوجه.
يجب أن يكون الوجه مواجهًا للكاميرا مع إظهار نصف الوجه على الأقل. قد يؤدي وجود جسم كبير بين الوجه والكاميرا إلى انخفاض ودقتها.
إذا أردت التعرّف على الوجوه في تطبيق في الوقت الفعلي، عليك أيضًا مراعاة الأبعاد الكلية للصورة المدخلة. يمكن تخصيص الصور الأصغر معالجة أسرع، لذا فإن التقاط الصور بدرجات دقة أقل يقلل من وقت الاستجابة. ومع ذلك، يُرجى مراعاة متطلبات الدقة الواردة أعلاه والتأكد من يشغل وجه الشخص أكبر قدر ممكن من الصورة.
ضبط أداة رصد شبكات الوجه
إذا كنت تريد تغيير أي من الإعدادات التلقائية لأداة رصد شبكات الوجوه، حدِّد تلك الإعدادات FaceMeshDetectorOptions . يمكنك تغيير الإعدادات التالية:
setUseCase
BOUNDING_BOX_ONLY
: لا يقدّم سوى مربّع حدود لشبكة وجه تم رصدها. هذا هو أسرع أداة كشف عن الوجوه، ولكن بها قيود نطاق(وجوه) على مسافة 2 متر أو 7 أقدام تقريبًا من الكاميرا).FACE_MESH
(الخيار التلقائي): لتوفير مربّع حدود ووجه إضافي الشبكة المتداخلة (468 معلومات نقطة ثلاثية الأبعاد ومثلثات). عند المقارنة مع في حالة استخدامBOUNDING_BOX_ONLY
، يزيد وقت الاستجابة بنسبة %15 تقريبًا، وفقًا للقياس Pixel 3
على سبيل المثال:
Kotlin
val defaultDetector = FaceMeshDetection.getClient( FaceMeshDetectorOptions.DEFAULT_OPTIONS) val boundingBoxDetector = FaceMeshDetection.getClient( FaceMeshDetectorOptions.Builder() .setUseCase(UseCase.BOUNDING_BOX_ONLY) .build() )
Java
FaceMeshDetector defaultDetector = FaceMeshDetection.getClient( FaceMeshDetectorOptions.DEFAULT_OPTIONS); FaceMeshDetector boundingBoxDetector = FaceMeshDetection.getClient( new FaceMeshDetectorOptions.Builder() .setUseCase(UseCase.BOUNDING_BOX_ONLY) .build() );
تحضير صورة الإدخال
لرصد الوجوه في صورة معيّنة، عليك إنشاء عنصر InputImage
من
Bitmap
أو media.Image
أو ByteBuffer
أو مصفوفة بايت أو ملف على الجهاز.
وبعد ذلك، مرِّر كائن InputImage
إلى طريقة process
في FaceDetector
.
لاكتشاف شبكات الوجه، يجب استخدام صورة بأبعاد لا تقل عن 480×360 بكسل: في حال كنت ترصد الوجوه في الوقت الفعلي، سيتم التقاط اللقطات فإن هذا الحد الأدنى من الدقة يمكن أن يساعد في تقليل وقت الاستجابة.
يمكنك إنشاء InputImage
من مصادر مختلفة، في ما يلي شرح لكل منها.
يتم استخدام media.Image
لإنشاء InputImage
كائن من كائن media.Image
، مثلاً عند التقاط صورة من
كاميرا الجهاز، فما عليك سوى تمرير الكائن media.Image
تدوير إلى InputImage.fromMediaImage()
.
إذا كنت تستخدم
CameraX وOnImageCapturedListener
تحتسب صفوف ImageAnalysis.Analyzer
قيمة عرض الإعلانات بالتناوب.
لك.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
إذا كنت لا تستخدم مكتبة كاميرا تمنحك درجة تدوير الصورة، يمكنك يمكنه حسابه من خلال درجة دوران الجهاز واتجاه الكاميرا. جهاز الاستشعار في الجهاز:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
بعد ذلك، مرِّر الكائن media.Image
قيمة درجة التدوير إلى InputImage.fromMediaImage()
:
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
استخدام معرف موارد منتظم (URI) لملف
لإنشاء InputImage
من معرف موارد منتظم (URI) لملف، فمرر سياق التطبيق ومعرف الموارد المنتظم (URI) للملف إلى
InputImage.fromFilePath()
يكون ذلك مفيدًا عندما
يجب استخدام هدف ACTION_GET_CONTENT
لتطلب من المستخدم الاختيار.
صورة من تطبيق المعرض الخاص به.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
يتم استخدام ByteBuffer
أو ByteArray
لإنشاء InputImage
كائن من ByteBuffer
أو ByteArray
، احسب الصورة أولاً
درجة التدوير كما هو موضح سابقًا لإدخال media.Image
.
بعد ذلك، يمكنك إنشاء الكائن InputImage
باستخدام المخزن المؤقت أو المصفوفة بالإضافة إلى
الارتفاع والعرض وتنسيق ترميز الألوان ودرجة التدوير:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
يتم استخدام Bitmap
لإنشاء InputImage
من كائن Bitmap
، قدِّم التعريف التالي:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
يتم تمثيل الصورة بواسطة كائن Bitmap
مع درجات التدوير.
معالجة الصورة
تمرير الصورة إلى طريقة process
:
Kotlin
val result = detector.process(image) .addOnSuccessListener { result -> // Task completed successfully // … } .addOnFailureListener { e -> // Task failed with an exception // … }
Java
Task<List<FaceMesh>> result = detector.process(image) .addOnSuccessListener( new OnSuccessListener<List<FaceMesh>>() { @Override public void onSuccess(List<FaceMesh> result) { // Task completed successfully // … } }) .addOnFailureListener( new OnFailureListener() { @Override Public void onFailure(Exception e) { // Task failed with an exception // … } });
الحصول على معلومات عن شبكة الوجه التي تم رصدها
إذا تم التعرّف على أي وجه في الصورة، يتم تمرير قائمة تضم FaceMesh
عناصر إلى
المستمع الناجح. يُمثِّل كل FaceMesh
وجهًا تم رصده في
. بالنسبة إلى كل شبكة وجه، يمكنك الحصول على إحداثيات حدودها في الإدخال
بالإضافة إلى أي معلومات أخرى تم ضبط شبكة الوجه فيها
أداة الرصد التي يتم العثور عليها.
Kotlin
for (faceMesh in faceMeshs) { val bounds: Rect = faceMesh.boundingBox() // Gets all points val faceMeshpoints = faceMesh.allPoints for (faceMeshpoint in faceMeshpoints) { val index: Int = faceMeshpoints.index() val position = faceMeshpoint.position } // Gets triangle info val triangles: List<Triangle<FaceMeshPoint>> = faceMesh.allTriangles for (triangle in triangles) { // 3 Points connecting to each other and representing a triangle area. val connectedPoints = triangle.allPoints() } }
Java
for (FaceMesh faceMesh : faceMeshs) { Rect bounds = faceMesh.getBoundingBox(); // Gets all points List<FaceMeshPoint> faceMeshpoints = faceMesh.getAllPoints(); for (FaceMeshPoint faceMeshpoint : faceMeshpoints) { int index = faceMeshpoints.getIndex(); PointF3D position = faceMeshpoint.getPosition(); } // Gets triangle info List<Triangle<FaceMeshPoint>> triangles = faceMesh.getAllTriangles(); for (Triangle<FaceMeshPoint> triangle : triangles) { // 3 Points connecting to each other and representing a triangle area. List<FaceMeshPoint> connectedPoints = triangle.getAllPoints(); } }