رصد العناصر وتتبّعها باستخدام أدوات تعلّم الآلة على Android

يمكنك استخدام هذه الأدوات لرصد العناصر وتتبُّعها في إطارات فيديو متتالية.

عند تمرير صورة إلى أدوات تعلّم الآلة، يتم رصد ما يصل إلى خمسة عناصر في الصورة إلى جانب موضع كل عنصر في الصورة. عند رصد عناصر في الفيديوهات المضمّنة، يكون لكل عنصر معرّف فريد يمكنك استخدامه لتتبُّع العنصر من إطار إلى آخر. يمكنك أيضًا اختياريًا تفعيل التصنيف التقريبي للعناصر، الذي يصنِّف العناصر باستخدام أوصاف وافية عن الفئات.

التجربة الآن

قبل البدء

  1. في ملف build.gradle على مستوى المشروع، احرص على تضمين مستودع Maven من Google في كل من القسمَين buildscript وallprojects.
  2. أضِف التبعيات الخاصة بمكتبات ML Kit لنظام التشغيل Android إلى ملف Gradle على مستوى التطبيق في الوحدة، والذي يكون عادةً app/build.gradle:
    dependencies {
      // ...
    
      implementation 'com.google.mlkit:object-detection:17.0.1'
    
    }
    

1- ضبط أداة رصد الكائنات

لرصد العناصر وتتبعها، أنشئ أولاً مثيلاً لـ ObjectDetector وحدِّد اختياريًا أي إعدادات أداة رصد تريد تغييرها من الإعدادات التلقائية.

  1. اضبط أداة رصد الكائنات لحالة الاستخدام باستخدام كائن ObjectDetectorOptions. يمكنك تغيير الإعدادات التالية:

    إعدادات أداة رصد الكائنات
    وضع الرصد STREAM_MODE (الخيار التلقائي) | SINGLE_IMAGE_MODE

    في STREAM_MODE (الخيار التلقائي)، تعمل أداة رصد العناصر بوقت استجابة سريع، ولكن قد تؤدّي إلى نتائج غير مكتملة (مثل تصنيفات الفئات أو مربّعات الحدود غير المحدَّدة) في عمليات الاستدعاء القليلة الأولى من أداة الرصد. في STREAM_MODE أيضًا، تعيّن أداة الرصد أرقام تعريف تتبّع للعناصر، والتي يمكنك استخدامها لتتبُّع العناصر على مستوى الإطارات. استخدِم هذا الوضع إذا أردت تتبُّع العناصر أو عندما يكون وقت الاستجابة البطيء مهمًا، كما هو الحال عند معالجة الفيديوهات المضمّنة في الوقت الفعلي.

    في SINGLE_IMAGE_MODE، تعرض أداة رصد الكائنات النتيجة بعد تحديد مربع حدود العنصر. في حال تفعيل التصنيف أيضًا، سيتم عرض النتيجة بعد توفير كل من مربع الإحاطة وتصنيف الفئة. ونتيجةً لذلك، من المحتمل أن يكون وقت استجابة الاكتشاف أعلى. بالإضافة إلى ذلك، في SINGLE_IMAGE_MODE، لا يتم تخصيص أرقام تعريف التتبّع. استخدِم هذا الوضع إذا لم يكن وقت الاستجابة مهمًا ولا تريد عرض النتائج الجزئية.

    رصد عناصر متعددة وتتبُّعها false (الخيار التلقائي) | true

    تحدّد هذه السمة ما إذا كان سيتم رصد وتتبُّع ما يصل إلى خمسة عناصر أو العنصر الأكثر بروزًا (تلقائيًا).

    تصنيف الكائنات false (الخيار التلقائي) | true

    تحديد ما إذا كان سيتم تصنيف العناصر التي تم رصدها إلى فئات تقريبية أم لا. عند تفعيل أداة رصد الأجسام، يتم تصنيف العناصر في الفئات التالية: سلع الأزياء والطعام والسلع المنزلية والأماكن والنباتات.

    تم تحسين واجهة برمجة التطبيقات لرصد الكائنات وتتبعها لحالات الاستخدام الأساسية التالية:

    • يتيح هذا الإذن للرصد المباشر لأبرز العناصر في عدسة الكاميرا وتتبُّعها.
    • يشير ذلك المصطلح إلى رصد عناصر متعدّدة من صورة ثابتة.

    لضبط واجهة برمجة التطبيقات لحالات الاستخدام هذه:

    Kotlin

    // Live detection and tracking
    val options = ObjectDetectorOptions.Builder()
            .setDetectorMode(ObjectDetectorOptions.STREAM_MODE)
            .enableClassification()  // Optional
            .build()
    
    // Multiple object detection in static images
    val options = ObjectDetectorOptions.Builder()
            .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE)
            .enableMultipleObjects()
            .enableClassification()  // Optional
            .build()

    Java

    // Live detection and tracking
    ObjectDetectorOptions options =
            new ObjectDetectorOptions.Builder()
                    .setDetectorMode(ObjectDetectorOptions.STREAM_MODE)
                    .enableClassification()  // Optional
                    .build();
    
    // Multiple object detection in static images
    ObjectDetectorOptions options =
            new ObjectDetectorOptions.Builder()
                    .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE)
                    .enableMultipleObjects()
                    .enableClassification()  // Optional
                    .build();
  2. الحصول على مثيل لـ ObjectDetector:

    Kotlin

    val objectDetector = ObjectDetection.getClient(options)

    Java

    ObjectDetector objectDetector = ObjectDetection.getClient(options);

2- تجهيز صورة الإدخال

لرصد العناصر وتتبّعها، مرِّر الصور إلى طريقة process() للمثيل ObjectDetector.

يتم تشغيل أداة رصد الأجسام مباشرةً من Bitmap أو NV21 ByteBuffer أو YUV_420_888 media.Image. يوصى بإنشاء InputImage من هذه المصادر إذا كان لديك إمكانية الوصول المباشر إلى أحدها. إذا أنشأت InputImage من مصادر أخرى، سنعالج الإحالة الناجحة داخليًا نيابةً عنك وقد تكون أقل فعالية.

لكل إطار من الفيديو أو الصورة في تسلسل، قم بما يلي:

يمكنك إنشاء عنصر InputImage من مصادر مختلفة، وتم توضيح كلّ منها أدناه.

استخدام media.Image

لإنشاء عنصر InputImage من عنصر media.Image، مثلاً عند التقاط صورة من كاميرا جهاز، مرِّر العنصر media.Image وتدوير الصورة إلى InputImage.fromMediaImage().

إذا كنت تستخدم مكتبة CameraX، ستحتسب الفئتان OnImageCapturedListener وImageAnalysis.Analyzer قيمة التدوير نيابةً عنك.

Kotlin

private class YourImageAnalyzer : ImageAnalysis.Analyzer {

    override fun analyze(imageProxy: ImageProxy) {
        val mediaImage = imageProxy.image
        if (mediaImage != null) {
            val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees)
            // Pass image to an ML Kit Vision API
            // ...
        }
    }
}

Java

private class YourAnalyzer implements ImageAnalysis.Analyzer {

    @Override
    public void analyze(ImageProxy imageProxy) {
        Image mediaImage = imageProxy.getImage();
        if (mediaImage != null) {
          InputImage image =
                InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees());
          // Pass image to an ML Kit Vision API
          // ...
        }
    }
}

إذا كنت لا تستخدم مكتبة كاميرا توفّر لك درجة تدوير الصورة، يمكنك احتسابها من درجة تدوير الجهاز واتجاه أداة استشعار الكاميرا في الجهاز:

Kotlin

private val ORIENTATIONS = SparseIntArray()

init {
    ORIENTATIONS.append(Surface.ROTATION_0, 0)
    ORIENTATIONS.append(Surface.ROTATION_90, 90)
    ORIENTATIONS.append(Surface.ROTATION_180, 180)
    ORIENTATIONS.append(Surface.ROTATION_270, 270)
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
@Throws(CameraAccessException::class)
private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    val deviceRotation = activity.windowManager.defaultDisplay.rotation
    var rotationCompensation = ORIENTATIONS.get(deviceRotation)

    // Get the device's sensor orientation.
    val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager
    val sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION)!!

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360
    }
    return rotationCompensation
}

Java

private static final SparseIntArray ORIENTATIONS = new SparseIntArray();
static {
    ORIENTATIONS.append(Surface.ROTATION_0, 0);
    ORIENTATIONS.append(Surface.ROTATION_90, 90);
    ORIENTATIONS.append(Surface.ROTATION_180, 180);
    ORIENTATIONS.append(Surface.ROTATION_270, 270);
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing)
        throws CameraAccessException {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation();
    int rotationCompensation = ORIENTATIONS.get(deviceRotation);

    // Get the device's sensor orientation.
    CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE);
    int sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION);

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360;
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360;
    }
    return rotationCompensation;
}

بعد ذلك، مرِّر الكائن media.Image وقيمة درجة الدوران إلى InputImage.fromMediaImage():

Kotlin

val image = InputImage.fromMediaImage(mediaImage, rotation)

Java

InputImage image = InputImage.fromMediaImage(mediaImage, rotation);

استخدام معرّف موارد منتظم (URI) للملف

لإنشاء عنصر InputImage من معرّف الموارد المنتظم (URI) الخاص بالملف، أدخِل سياق التطبيق ومعرّف الموارد المنتظم (URI) للملف إلى InputImage.fromFilePath(). ويكون هذا الإجراء مفيدًا إذا كنت تستخدم هدف ACTION_GET_CONTENT لتطلب من المستخدم اختيار صورة من تطبيق معرض الصور.

Kotlin

val image: InputImage
try {
    image = InputImage.fromFilePath(context, uri)
} catch (e: IOException) {
    e.printStackTrace()
}

Java

InputImage image;
try {
    image = InputImage.fromFilePath(context, uri);
} catch (IOException e) {
    e.printStackTrace();
}

استخدام ByteBuffer أو ByteArray

لإنشاء عنصر InputImage من ByteBuffer أو ByteArray، احسب أولاً درجة تدوير الصورة كما هو موضّح سابقًا لإدخال media.Image. بعد ذلك، يمكنك إنشاء الكائن InputImage باستخدام المخزن المؤقت أو المصفوفة مع ارتفاع الصورة وعرضها وتنسيق ترميز اللون ودرجة التدوير:

Kotlin

val image = InputImage.fromByteBuffer(
        byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)
// Or:
val image = InputImage.fromByteArray(
        byteArray,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)

Java

InputImage image = InputImage.fromByteBuffer(byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);
// Or:
InputImage image = InputImage.fromByteArray(
        byteArray,
        /* image width */480,
        /* image height */360,
        rotation,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);

استخدام Bitmap

لإنشاء كائن InputImage من كائن Bitmap، يجب تقديم البيان التالي:

Kotlin

val image = InputImage.fromBitmap(bitmap, 0)

Java

InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);

يتم تمثيل الصورة بكائن Bitmap مع درجات تدوير.

3- معالجة الصورة

تمرير الصورة إلى طريقة process():

Kotlin

objectDetector.process(image)
    .addOnSuccessListener { detectedObjects ->
        // Task completed successfully
        // ...
    }
    .addOnFailureListener { e ->
        // Task failed with an exception
        // ...
    }

Java

objectDetector.process(image)
    .addOnSuccessListener(
        new OnSuccessListener<List<DetectedObject>>() {
            @Override
            public void onSuccess(List<DetectedObject> detectedObjects) {
                // Task completed successfully
                // ...
            }
        })
    .addOnFailureListener(
        new OnFailureListener() {
            @Override
            public void onFailure(@NonNull Exception e) {
                // Task failed with an exception
                // ...
            }
        });

4. الحصول على معلومات حول العناصر التي تم رصدها

إذا نجح الطلب إلى process()، يتم تمرير قائمة DetectedObjects إلى مستمع النجاح.

يحتوي كل DetectedObject على السمات التالية:

مربّع الربط تمثّل هذه السمة Rect الذي يشير إلى موضع العنصر في الصورة.
الرقم التعريفي للتتبع عدد صحيح يعرّف الكائن عبر الصور. قيمة فارغة في SINGLE_IMAGE_mode.
التصنيفات
وصف التصنيف الوصف النصي للتصنيف. وستكون قيمة هذه السمة أحد ثوابت السلسلة المحدّدة في PredefinedCategory.
فهرس التصنيفات فهرس التصنيف بين جميع التصنيفات المتوافقة مع المصنِّف. وسيكون هذا العدد أحد ثوابت الأعداد الصحيحة المحددة في PredefinedCategory.
ثقة التصنيف يشير ذلك المصطلح إلى قيمة الثقة لتصنيف الكائنات.

Kotlin

for (detectedObject in detectedObjects) {
    val boundingBox = detectedObject.boundingBox
    val trackingId = detectedObject.trackingId
    for (label in detectedObject.labels) {
        val text = label.text
        if (PredefinedCategory.FOOD == text) {
            ...
        }
        val index = label.index
        if (PredefinedCategory.FOOD_INDEX == index) {
            ...
        }
        val confidence = label.confidence
    }
}

Java

// The list of detected objects contains one item if multiple
// object detection wasn't enabled.
for (DetectedObject detectedObject : detectedObjects) {
    Rect boundingBox = detectedObject.getBoundingBox();
    Integer trackingId = detectedObject.getTrackingId();
    for (Label label : detectedObject.getLabels()) {
        String text = label.getText();
        if (PredefinedCategory.FOOD.equals(text)) {
            ...
        }
        int index = label.getIndex();
        if (PredefinedCategory.FOOD_INDEX == index) {
            ...
        }
        float confidence = label.getConfidence();
    }
}

ضمان تقديم تجربة رائعة للمستخدم

للحصول على أفضل تجربة للمستخدم، يُرجى اتّباع الإرشادات التالية في تطبيقك:

  • يعتمد اكتشاف الكائنات بدقة على التعقيد البصري للكائن. لكي يتم رصدها، قد تحتاج العناصر التي تحتوي على عدد قليل من الميزات المرئية إلى مساحة أكبر من الصورة. يجب أن تقدم للمستخدمين إرشادات حول التقاط مدخلات تعمل بشكل جيد مع نوع الكائنات التي تريد اكتشافها.
  • عند استخدام التصنيف، إذا أردت رصد العناصر التي لا تندرج ضمن الفئات المتوافقة، يجب تنفيذ معالجة خاصة للعناصر غير المعروفة.

يمكنك أيضًا الاطّلاع على تطبيق عرض Material Design لتكنولوجيا تعلُّم الآلة ومجموعة أنماط التصميم المتعدد الأبعاد للميزات المستندة إلى تعلُّم الآلة.

Improving performance

إذا أردت استخدام ميزة رصد العناصر في تطبيق في الوقت الفعلي، اتّبِع هذه الإرشادات لتحقيق أفضل عدد من اللقطات في الثانية:

  • عند استخدام وضع البث في تطبيق الوقت الفعلي، يجب عدم استخدام ميزة رصد عناصر متعددة، لأنّ معظم الأجهزة لن تتمكّن من تسجيل عدد كافٍ من اللقطات في الثانية.

  • يمكنك إيقاف التصنيف إذا لم تكن بحاجة إليه.

  • إذا كنت تستخدم واجهة برمجة التطبيقات Camera أو camera2، يمكنك التحكُّم في طلبات البيانات لأداة الرصد. في حال توفُّر إطار فيديو جديد أثناء تشغيل أداة الرصد، أفلِت الإطار. يمكنك الاطّلاع على صف VisionProcessorBase في نموذج التطبيق السريع للبدء من أجل الحصول على مثال.
  • إذا كنت تستخدم واجهة برمجة التطبيقات CameraX، تأكّد من ضبط استراتيجية إعادة ضغط البيانات على قيمتها التلقائية ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST. ويضمن ذلك تسليم صورة واحدة فقط لتحليلها في كل مرة. في حال إنشاء المزيد من الصور عندما تكون أداة التحليل مشغولة، سيتم حذفها تلقائيًا ولن يتم وضعها في قائمة الانتظار للتسليم. بعد إغلاق الصورة التي يتم تحليلها من خلال استدعاء ImageProxy.CLOSE() ، سيتم عرض أحدث صورة تالية.
  • إذا كنت تستخدم إخراج أداة الرصد لعرض الرسومات على الصورة المُدخَلة، احصل أولاً على النتيجة من أدوات تعلّم الآلة، ثم اعرض الصورة والتراكب في خطوة واحدة. ويتم عرض ذلك على سطح الشاشة مرة واحدة فقط لكل إطار إدخال. يمكنك الاطّلاع على صفَي CameraSourcePreview و GraphicOverlay في نموذج التطبيق السريع للبدء للحصول على مثال.
  • إذا كنت تستخدم واجهة برمجة تطبيقات Camera2، التقِط الصور بتنسيق ImageFormat.YUV_420_888. إذا كنت تستخدم واجهة برمجة تطبيقات الكاميرا القديمة، التقِط الصور بتنسيق ImageFormat.NV21.