يمكنك استخدام هذه الأدوات لرصد العناصر وتتبُّعها في إطارات فيديو متتالية.
عند تمرير صورة إلى أدوات تعلّم الآلة، يتم رصد ما يصل إلى خمسة عناصر في الصورة إلى جانب موضع كل عنصر في الصورة. عند رصد عناصر في الفيديوهات المضمّنة، يكون لكل عنصر معرّف فريد يمكنك استخدامه لتتبُّع العنصر من إطار إلى آخر. يمكنك أيضًا اختياريًا تفعيل التصنيف التقريبي للعناصر، الذي يصنِّف العناصر باستخدام أوصاف وافية عن الفئات.
التجربة الآن
- جرّب نموذج التطبيق للاطّلاع على مثال لاستخدام واجهة برمجة التطبيقات هذه.
- يمكنك الاطّلاع على تطبيق عرض التصميم المتعدد الأبعاد للتعرّف على تنفيذ شامل لواجهة برمجة التطبيقات هذه.
قبل البدء
- في ملف
build.gradle
على مستوى المشروع، احرص على تضمين مستودع Maven من Google في كل من القسمَينbuildscript
وallprojects
. - أضِف التبعيات الخاصة بمكتبات ML Kit لنظام التشغيل Android إلى ملف Gradle على مستوى التطبيق في الوحدة، والذي يكون عادةً
app/build.gradle
:dependencies { // ... implementation 'com.google.mlkit:object-detection:17.0.1' }
1- ضبط أداة رصد الكائنات
لرصد العناصر وتتبعها، أنشئ أولاً مثيلاً لـ ObjectDetector
وحدِّد اختياريًا أي إعدادات أداة رصد تريد تغييرها من الإعدادات التلقائية.
اضبط أداة رصد الكائنات لحالة الاستخدام باستخدام كائن
ObjectDetectorOptions
. يمكنك تغيير الإعدادات التالية:إعدادات أداة رصد الكائنات وضع الرصد STREAM_MODE
(الخيار التلقائي) |SINGLE_IMAGE_MODE
في
STREAM_MODE
(الخيار التلقائي)، تعمل أداة رصد العناصر بوقت استجابة سريع، ولكن قد تؤدّي إلى نتائج غير مكتملة (مثل تصنيفات الفئات أو مربّعات الحدود غير المحدَّدة) في عمليات الاستدعاء القليلة الأولى من أداة الرصد. فيSTREAM_MODE
أيضًا، تعيّن أداة الرصد أرقام تعريف تتبّع للعناصر، والتي يمكنك استخدامها لتتبُّع العناصر على مستوى الإطارات. استخدِم هذا الوضع إذا أردت تتبُّع العناصر أو عندما يكون وقت الاستجابة البطيء مهمًا، كما هو الحال عند معالجة الفيديوهات المضمّنة في الوقت الفعلي.في
SINGLE_IMAGE_MODE
، تعرض أداة رصد الكائنات النتيجة بعد تحديد مربع حدود العنصر. في حال تفعيل التصنيف أيضًا، سيتم عرض النتيجة بعد توفير كل من مربع الإحاطة وتصنيف الفئة. ونتيجةً لذلك، من المحتمل أن يكون وقت استجابة الاكتشاف أعلى. بالإضافة إلى ذلك، فيSINGLE_IMAGE_MODE
، لا يتم تخصيص أرقام تعريف التتبّع. استخدِم هذا الوضع إذا لم يكن وقت الاستجابة مهمًا ولا تريد عرض النتائج الجزئية.رصد عناصر متعددة وتتبُّعها false
(الخيار التلقائي) |true
تحدّد هذه السمة ما إذا كان سيتم رصد وتتبُّع ما يصل إلى خمسة عناصر أو العنصر الأكثر بروزًا (تلقائيًا).
تصنيف الكائنات false
(الخيار التلقائي) |true
تحديد ما إذا كان سيتم تصنيف العناصر التي تم رصدها إلى فئات تقريبية أم لا. عند تفعيل أداة رصد الأجسام، يتم تصنيف العناصر في الفئات التالية: سلع الأزياء والطعام والسلع المنزلية والأماكن والنباتات.
تم تحسين واجهة برمجة التطبيقات لرصد الكائنات وتتبعها لحالات الاستخدام الأساسية التالية:
- يتيح هذا الإذن للرصد المباشر لأبرز العناصر في عدسة الكاميرا وتتبُّعها.
- يشير ذلك المصطلح إلى رصد عناصر متعدّدة من صورة ثابتة.
لضبط واجهة برمجة التطبيقات لحالات الاستخدام هذه:
Kotlin
// Live detection and tracking val options = ObjectDetectorOptions.Builder() .setDetectorMode(ObjectDetectorOptions.STREAM_MODE) .enableClassification() // Optional .build() // Multiple object detection in static images val options = ObjectDetectorOptions.Builder() .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE) .enableMultipleObjects() .enableClassification() // Optional .build()
Java
// Live detection and tracking ObjectDetectorOptions options = new ObjectDetectorOptions.Builder() .setDetectorMode(ObjectDetectorOptions.STREAM_MODE) .enableClassification() // Optional .build(); // Multiple object detection in static images ObjectDetectorOptions options = new ObjectDetectorOptions.Builder() .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE) .enableMultipleObjects() .enableClassification() // Optional .build();
الحصول على مثيل لـ
ObjectDetector
:Kotlin
val objectDetector = ObjectDetection.getClient(options)
Java
ObjectDetector objectDetector = ObjectDetection.getClient(options);
2- تجهيز صورة الإدخال
لرصد العناصر وتتبّعها، مرِّر الصور إلى طريقةprocess()
للمثيل ObjectDetector
.
يتم تشغيل أداة رصد الأجسام مباشرةً من Bitmap
أو NV21 ByteBuffer
أو
YUV_420_888 media.Image
. يوصى بإنشاء InputImage
من هذه المصادر إذا كان لديك إمكانية الوصول المباشر إلى أحدها. إذا أنشأت InputImage
من مصادر أخرى، سنعالج الإحالة الناجحة داخليًا نيابةً عنك وقد تكون أقل فعالية.
لكل إطار من الفيديو أو الصورة في تسلسل، قم بما يلي:
يمكنك إنشاء عنصر InputImage
من مصادر مختلفة، وتم توضيح كلّ منها أدناه.
استخدام media.Image
لإنشاء عنصر InputImage
من عنصر media.Image
، مثلاً عند التقاط صورة من
كاميرا جهاز، مرِّر العنصر media.Image
وتدوير الصورة إلى InputImage.fromMediaImage()
.
إذا كنت تستخدم مكتبة
CameraX، ستحتسب الفئتان OnImageCapturedListener
وImageAnalysis.Analyzer
قيمة التدوير نيابةً عنك.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
إذا كنت لا تستخدم مكتبة كاميرا توفّر لك درجة تدوير الصورة، يمكنك احتسابها من درجة تدوير الجهاز واتجاه أداة استشعار الكاميرا في الجهاز:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
بعد ذلك، مرِّر الكائن media.Image
وقيمة درجة الدوران إلى InputImage.fromMediaImage()
:
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
استخدام معرّف موارد منتظم (URI) للملف
لإنشاء عنصر InputImage
من معرّف الموارد المنتظم (URI) الخاص بالملف، أدخِل سياق التطبيق ومعرّف الموارد المنتظم (URI) للملف إلى
InputImage.fromFilePath()
. ويكون هذا الإجراء مفيدًا إذا كنت تستخدم
هدف ACTION_GET_CONTENT
لتطلب من المستخدم اختيار
صورة من تطبيق معرض الصور.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
استخدام ByteBuffer
أو ByteArray
لإنشاء عنصر InputImage
من ByteBuffer
أو ByteArray
، احسب أولاً درجة تدوير الصورة كما هو موضّح سابقًا لإدخال media.Image
.
بعد ذلك، يمكنك إنشاء الكائن InputImage
باستخدام المخزن المؤقت أو المصفوفة مع ارتفاع الصورة وعرضها وتنسيق ترميز اللون ودرجة التدوير:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
استخدام Bitmap
لإنشاء كائن InputImage
من كائن Bitmap
، يجب تقديم البيان التالي:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
يتم تمثيل الصورة بكائن Bitmap
مع درجات تدوير.
3- معالجة الصورة
تمرير الصورة إلى طريقةprocess()
:
Kotlin
objectDetector.process(image) .addOnSuccessListener { detectedObjects -> // Task completed successfully // ... } .addOnFailureListener { e -> // Task failed with an exception // ... }
Java
objectDetector.process(image) .addOnSuccessListener( new OnSuccessListener<List<DetectedObject>>() { @Override public void onSuccess(List<DetectedObject> detectedObjects) { // Task completed successfully // ... } }) .addOnFailureListener( new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
4. الحصول على معلومات حول العناصر التي تم رصدها
إذا نجح الطلب إلى process()
، يتم تمرير قائمة DetectedObject
s إلى
مستمع النجاح.
يحتوي كل DetectedObject
على السمات التالية:
مربّع الربط | تمثّل هذه السمة Rect الذي يشير إلى موضع العنصر في الصورة. |
||||||
الرقم التعريفي للتتبع | عدد صحيح يعرّف الكائن عبر الصور. قيمة فارغة في SINGLE_IMAGE_mode. | ||||||
التصنيفات |
|
Kotlin
for (detectedObject in detectedObjects) { val boundingBox = detectedObject.boundingBox val trackingId = detectedObject.trackingId for (label in detectedObject.labels) { val text = label.text if (PredefinedCategory.FOOD == text) { ... } val index = label.index if (PredefinedCategory.FOOD_INDEX == index) { ... } val confidence = label.confidence } }
Java
// The list of detected objects contains one item if multiple // object detection wasn't enabled. for (DetectedObject detectedObject : detectedObjects) { Rect boundingBox = detectedObject.getBoundingBox(); Integer trackingId = detectedObject.getTrackingId(); for (Label label : detectedObject.getLabels()) { String text = label.getText(); if (PredefinedCategory.FOOD.equals(text)) { ... } int index = label.getIndex(); if (PredefinedCategory.FOOD_INDEX == index) { ... } float confidence = label.getConfidence(); } }
ضمان تقديم تجربة رائعة للمستخدم
للحصول على أفضل تجربة للمستخدم، يُرجى اتّباع الإرشادات التالية في تطبيقك:
- يعتمد اكتشاف الكائنات بدقة على التعقيد البصري للكائن. لكي يتم رصدها، قد تحتاج العناصر التي تحتوي على عدد قليل من الميزات المرئية إلى مساحة أكبر من الصورة. يجب أن تقدم للمستخدمين إرشادات حول التقاط مدخلات تعمل بشكل جيد مع نوع الكائنات التي تريد اكتشافها.
- عند استخدام التصنيف، إذا أردت رصد العناصر التي لا تندرج ضمن الفئات المتوافقة، يجب تنفيذ معالجة خاصة للعناصر غير المعروفة.
يمكنك أيضًا الاطّلاع على تطبيق عرض Material Design لتكنولوجيا تعلُّم الآلة ومجموعة أنماط التصميم المتعدد الأبعاد للميزات المستندة إلى تعلُّم الآلة.
Improving performance
إذا أردت استخدام ميزة رصد العناصر في تطبيق في الوقت الفعلي، اتّبِع هذه الإرشادات لتحقيق أفضل عدد من اللقطات في الثانية:
عند استخدام وضع البث في تطبيق الوقت الفعلي، يجب عدم استخدام ميزة رصد عناصر متعددة، لأنّ معظم الأجهزة لن تتمكّن من تسجيل عدد كافٍ من اللقطات في الثانية.
يمكنك إيقاف التصنيف إذا لم تكن بحاجة إليه.
- إذا كنت تستخدم واجهة برمجة التطبيقات
Camera
أوcamera2
، يمكنك التحكُّم في طلبات البيانات لأداة الرصد. في حال توفُّر إطار فيديو جديد أثناء تشغيل أداة الرصد، أفلِت الإطار. يمكنك الاطّلاع على صفVisionProcessorBase
في نموذج التطبيق السريع للبدء من أجل الحصول على مثال. - إذا كنت تستخدم واجهة برمجة التطبيقات
CameraX
، تأكّد من ضبط استراتيجية إعادة ضغط البيانات على قيمتها التلقائيةImageAnalysis.STRATEGY_KEEP_ONLY_LATEST
. ويضمن ذلك تسليم صورة واحدة فقط لتحليلها في كل مرة. في حال إنشاء المزيد من الصور عندما تكون أداة التحليل مشغولة، سيتم حذفها تلقائيًا ولن يتم وضعها في قائمة الانتظار للتسليم. بعد إغلاق الصورة التي يتم تحليلها من خلال استدعاء ImageProxy.CLOSE() ، سيتم عرض أحدث صورة تالية. - إذا كنت تستخدم إخراج أداة الرصد لعرض الرسومات على
الصورة المُدخَلة، احصل أولاً على النتيجة من أدوات تعلّم الآلة، ثم اعرض الصورة
والتراكب في خطوة واحدة. ويتم عرض ذلك على سطح الشاشة مرة واحدة فقط لكل إطار إدخال. يمكنك الاطّلاع على صفَي
CameraSourcePreview
وGraphicOverlay
في نموذج التطبيق السريع للبدء للحصول على مثال. - إذا كنت تستخدم واجهة برمجة تطبيقات Camera2، التقِط الصور بتنسيق
ImageFormat.YUV_420_888
. إذا كنت تستخدم واجهة برمجة تطبيقات الكاميرا القديمة، التقِط الصور بتنسيقImageFormat.NV21
.