ML Kit, डिवाइस पर मौजूद मॉडल का इस्तेमाल करके, मैसेज के कम जवाब जनरेट कर सकता है.
स्मार्ट जवाब जनरेट करने के लिए, आपको किसी बातचीत में हाल ही के मैसेज का लॉग एमएल किट पास करना होता है. अगर ML Kit को लगता है कि बातचीत अंग्रेज़ी में है और बातचीत का विषय संवेदनशील नहीं है, तो ML Kit ज़्यादा से ज़्यादा तीन जवाब जनरेट करता है. इन जवाबों का सुझाव अपने उपयोगकर्ता को दिया जा सकता है.
बंडल किए गए | अनबंडल किए गए | |
---|---|---|
लाइब्रेरी का नाम | com.google.mlkit:smart-reply | com.google.android.gms:play-services-mlkit-smart-reply |
लागू करना | बिल्ड के दौरान, मॉडल आपके ऐप्लिकेशन से स्टैटिक रूप से लिंक होता है. | मॉडल को Google Play services की मदद से, डाइनैमिक रूप से डाउनलोड किया जाता है. |
ऐप्लिकेशन के साइज़ का असर | साइज़ करीब 5.7 एमबी बढ़ जाता है. | साइज़ करीब 200 केबी बढ़ जाता है. |
प्रोसेस शुरू होने में लगने वाला समय | मॉडल तुरंत उपलब्ध हो जाता है. | पहली बार इस्तेमाल करने से पहले, मॉडल के डाउनलोड होने तक इंतज़ार करना पड़ सकता है. |
इसे आज़माएं
- एपीआई के इस्तेमाल का उदाहरण देखने के लिए, सैंपल ऐप्लिकेशन इस्तेमाल करें.
वेब कंटेनर इंस्टॉल करने से पहले
प्रोजेक्ट-लेवल की
build.gradle
फ़ाइल में, पक्का करें कि आपनेbuildscript
औरallprojects
, दोनों सेक्शन में Google की Maven रिपॉज़िटरी को शामिल किया हो.अपने मॉड्यूल की ऐप्लिकेशन-लेवल की Gradle फ़ाइल में ML Kit Android लाइब्रेरी के लिए डिपेंडेंसी जोड़ें, जो आम तौर पर
app/build.gradle
होती है. अपनी ज़रूरतों के हिसाब से इनमें से कोई एक डिपेंडेंसी चुनें:- मॉडल को अपने ऐप्लिकेशन के साथ बंडल करने के लिए:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:smart-reply:17.0.3' }
- Google Play Services में मॉडल का इस्तेमाल करने के लिए:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-smart-reply:16.0.0-beta1' }
अगर आपको Google Play Services में मॉडल का इस्तेमाल करना है, तो अपने ऐप्लिकेशन को इस तरह कॉन्फ़िगर किया जा सकता है कि Play Store से ऐप्लिकेशन इंस्टॉल होने के बाद, मॉडल आपके डिवाइस पर अपने-आप डाउनलोड हो जाए. अपने ऐप्लिकेशन की
AndroidManifest.xml
फ़ाइल में, यह एलान जोड़कर:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="smart_reply" > <!-- To use multiple models: android:value="smart_reply,model2,model3" --> </application>
आपके पास मॉडल की उपलब्धता को देखने का विकल्प भी है. साथ ही, Google Play services ModuleInstallClient API की मदद से, डाउनलोड करने का अनुरोध किया जा सकता है.
अगर इंस्टॉल के समय मॉडल डाउनलोड करने की सुविधा चालू नहीं की जाती या अश्लील फ़ाइल डाउनलोड करने का अनुरोध नहीं किया जाता, तो पहली बार स्मार्ट जवाब जनरेटर चलाने पर मॉडल डाउनलोड हो जाता है. डाउनलोड पूरा होने से पहले किए गए अनुरोधों का कोई नतीजा नहीं निकला.
1. बातचीत के इतिहास के लिए ऑब्जेक्ट बनाएं
स्मार्ट जवाब जनरेट करने के लिए, आपको
TextMessage
ऑब्जेक्ट में से, ML Kit को समय के हिसाब से क्रम मेंList
पास करना होगा. इसमें सबसे पहले टाइमस्टैंप होना चाहिए.जब भी उपयोगकर्ता मैसेज भेजे, तो बातचीत के इतिहास में मैसेज और उसका टाइमस्टैंप जोड़ें:
Kotlin
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()))
Java
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()));
जब भी उपयोगकर्ता को मैसेज मिले, तो बातचीत के इतिहास में मैसेज, उसका टाइमस्टैंप, और भेजने वाले का यूज़र आईडी जोड़ें. यूज़र आईडी, कोई भी ऐसी स्ट्रिंग हो सकती है जिससे बातचीत में भेजने वाले की पहचान की जा सके. यह ज़रूरी नहीं है कि यूज़र आईडी किसी उपयोगकर्ता के डेटा से मेल खाता हो. साथ ही, यह ज़रूरी नहीं है कि बातचीत या स्मार्ट जवाब जनरेट करने वाले टूल को शुरू करने के दौरान, यूज़र आईडी एक जैसा हो.
Kotlin
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId))
Java
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId));
बातचीत के इतिहास का ऑब्जेक्ट कैसा दिखता है, यह जानने के लिए नीचे दिया गया उदाहरण देखें:
टाइमस्टैंप userID isLocalUser मैसेज गुरुवार 21 फ़रवरी 13:13:39 पीएसटी 2019 सही क्या आप अपने रास्ते में हैं? गुरुवार 21 फ़रवरी 13:15:03 पीएसटी 2019 FRIEND0 false मुझे देर हो रही है, माफ़ करें! ML Kit, बातचीत के इतिहास में, पिछले मैसेज के जवाबों का सुझाव देती है. आखिरी मैसेज किसी ऐसे उपयोगकर्ता का होना चाहिए जो स्थानीय नहीं है. ऊपर दिए गए उदाहरण में, बातचीत का आखिरी मैसेज गैर-स्थानीय उपयोगकर्ता friend0 से मिला है. जब इस लॉग के लिए ML Kit का पास का इस्तेमाल किया जाता है, तो यह FRIENDO के मैसेज के जवाब का सुझाव देता है: "देर से चल रही है, माफ़ करें!"
2. मैसेज के जवाब पाएं
किसी मैसेज के स्मार्ट जवाब जनरेट करने के लिए,
SmartReplyGenerator
का इंस्टेंस पाएं और बातचीत के इतिहास को इसकेsuggestReplies()
तरीके में पास करें:Kotlin
val smartReplyGenerator = SmartReply.getClient() smartReply.suggestReplies(conversation) .addOnSuccessListener { result -> if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } .addOnFailureListener { // Task failed with an exception // ... }
Java
SmartReplyGenerator smartReply = SmartReply.getClient(); smartReply.suggestReplies(conversation) .addOnSuccessListener(new OnSuccessListener
() { @Override public void onSuccess(SmartReplySuggestionResult result) { if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } }); अगर कार्रवाई पूरी होती है, तो
SmartReplySuggestionResult
ऑब्जेक्ट को सक्सेस हैंडलर को पास किया जाता है. इस ऑब्जेक्ट में ज़्यादा से ज़्यादा तीन सुझाए गए जवाबों की सूची होती है. इन्हें अपने उपयोगकर्ता को दिखाया जा सकता है:Kotlin
for (suggestion in result.suggestions) { val replyText = suggestion.text }
Java
for (SmartReplySuggestion suggestion : result.getSuggestions()) { String replyText = suggestion.getText(); }
ध्यान दें कि अगर मॉडल को यह पता नहीं है कि सुझाए गए जवाब सही हैं या नहीं, इनपुट की बातचीत अंग्रेज़ी में न हो या मॉडल को किसी संवेदनशील विषय का पता चलता हो, तो हो सकता है कि ML Kit नतीजे न दिखाए.