ML Kit, डिवाइस पर मौजूद मॉडल का इस्तेमाल करके, मैसेज के कम जवाब जनरेट कर सकता है.
स्मार्ट जवाब जनरेट करने के लिए, आपको ML किट में हाल ही के मैसेज का लॉग पास करना होगा. बातचीत. अगर ML Kit को लगता है कि बातचीत अंग्रेज़ी में है, और बातचीत का विषय ऐसा नहीं है जो संवेदनशील हो, एमएल किट ज़्यादा से ज़्यादा तीन जवाब जनरेट करता है, जिनका सुझाव अपने उपयोगकर्ता को दिया जा सकता है.
बंडल किए गए | अनबंडल किए गए | |
---|---|---|
लाइब्रेरी का नाम | com.google.mlkit:smart-reply | com.google.android.gms:play-services-mlkit-smart-reply |
लागू करना | बिल्ड के दौरान, मॉडल आपके ऐप्लिकेशन से स्टैटिक रूप से लिंक होता है. | मॉडल को Google Play services की मदद से, डाइनैमिक रूप से डाउनलोड किया जाता है. |
ऐप्लिकेशन के साइज़ का असर | साइज़ करीब 5.7 एमबी बढ़ जाता है. | साइज़ करीब 200 केबी बढ़ जाता है. |
प्रोसेस शुरू होने में लगने वाला समय | मॉडल तुरंत उपलब्ध हो जाता है. | पहली बार इस्तेमाल करने से पहले, मॉडल के डाउनलोड होने तक इंतज़ार करना पड़ सकता है. |
इसे आज़माएं
- सैंपल वाले ऐप्लिकेशन को इस्तेमाल करके देखें, इस एपीआई के इस्तेमाल का एक उदाहरण देखें.
शुरू करने से पहले
अपनी प्रोजेक्ट-लेवल
build.gradle
फ़ाइल में, Google कीbuildscript
औरallprojects
, दोनों सेक्शन में Maven रिपॉज़िटरी.अपने मॉड्यूल में ML Kit Android लाइब्रेरी के लिए डिपेंडेंसी जोड़ें ऐप्लिकेशन लेवल की Gradle फ़ाइल होती है, जो आम तौर पर
app/build.gradle
होती है. कोई एक विकल्प चुनें आपकी ज़रूरतों के हिसाब से नीचे दी गई डिपेंडेंसी:- मॉडल को अपने ऐप्लिकेशन के साथ बंडल करने के लिए:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:smart-reply:17.0.4' }
- Google Play Services में मॉडल का इस्तेमाल करने के लिए:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-smart-reply:16.0.0-beta1' }
अगर आपको Google Play Services में मॉडल का इस्तेमाल करना है, तो ऐसा करने के बाद, आपका ऐप्लिकेशन मॉडल को डिवाइस पर अपने-आप डाउनलोड कर देगा Play Store से इंस्टॉल किया गया है. अपने ऐप्लिकेशन की
AndroidManifest.xml
फ़ाइल:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="smart_reply" > <!-- To use multiple models: android:value="smart_reply,model2,model3" --> </application>
मॉडल की उपलब्धता को साफ़ तौर पर देखा जा सकता है और इसके ज़रिए डाउनलोड करने का अनुरोध किया जा सकता है Google Play services ModuleInstallClient API.
अगर आपने इंस्टॉल के समय मॉडल डाउनलोड करने की सुविधा चालू नहीं की है या अश्लील फ़ाइल डाउनलोड करने का अनुरोध नहीं किया है, तो पहली बार स्मार्ट जवाब जनरेटर चलाने पर मॉडल डाउनलोड हो जाता है. डाउनलोड पूरा होने से पहले किए गए अनुरोधों का कोई नतीजा नहीं मिलता.
1. बातचीत के इतिहास के लिए ऑब्जेक्ट बनाएं
स्मार्ट जवाब जनरेट करने के लिए, आपको ML Kit को समय के हिसाब से, क्रम से
List
पास करना होगाTextMessage
ऑब्जेक्ट में से, जिसमें सबसे पुराने टाइमस्टैंप पहले हैं.जब भी उपयोगकर्ता कोई संदेश भेजे, तो संदेश और उसका टाइमस्टैम्प बातचीत का इतिहास:
Kotlin
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()))
Java
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()));
जब भी उपयोगकर्ता को कोई संदेश मिले, तो संदेश, उसका टाइमस्टैम्प, और बातचीत के इतिहास को भेजने वाले का यूज़र आईडी. यूज़र आईडी ऐसी कोई भी स्ट्रिंग हो सकती है जो बातचीत में भेजने वाले की खास पहचान करता है. यूज़र आईडी की ज़रूरत नहीं है का इस्तेमाल उपयोगकर्ता के डेटा से किया जा सकता है, और यूज़र आईडी का एक जैसा होना ज़रूरी नहीं है बातचीत या स्मार्ट जवाब जनरेटर के शुरू होने के बीच का समय शामिल होता है.
Kotlin
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId))
Java
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId));
बातचीत के इतिहास का ऑब्जेक्ट कैसा दिखता है, यह जानने के लिए नीचे दिया गया उदाहरण देखें:
टाइमस्टैंप userID isLocalUser मैसेज गुरुवार 21 फ़रवरी 13:13:39 पीएसटी 2019 सही क्या आप अपने रास्ते में हैं? गुरुवार 21 फ़रवरी 13:15:03 पीएसटी 2019 दोस्त0 गलत मुझे देर हो रही है, माफ़ करें! ML Kit, बातचीत के इतिहास में, पिछले मैसेज के जवाबों का सुझाव देती है. आखिरी मैसेज एक गैर-स्थानीय उपयोगकर्ता से होना चाहिए. ऊपर दिए गए उदाहरण में, बातचीत का आखिरी मैसेज गैर-स्थानीय उपयोगकर्ता FRIEND0 से है. जब इस लॉग के लिए पास एमएल किट का इस्तेमाल किया जाता है, तो यह FRIENDO के संदेश का जवाब: "देर से चल रही है, माफ़ करें!"
2. मैसेज के जवाब पाएं
किसी मैसेज के स्मार्ट जवाब जनरेट करने के लिए,
SmartReplyGenerator
का इंस्टेंस पाएं और बातचीत के इतिहास को इसकेsuggestReplies()
तरीके में भेजें:Kotlin
val smartReplyGenerator = SmartReply.getClient() smartReply.suggestReplies(conversation) .addOnSuccessListener { result -> if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } .addOnFailureListener { // Task failed with an exception // ... }
Java
SmartReplyGenerator smartReply = SmartReply.getClient(); smartReply.suggestReplies(conversation) .addOnSuccessListener(new OnSuccessListener
() { @Override public void onSuccess(SmartReplySuggestionResult result) { if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } }); अगर कार्रवाई पूरी होती है, तो
SmartReplySuggestionResult
ऑब्जेक्ट को सक्सेस हैंडलर के तहत काम करता है. इस ऑब्जेक्ट में तीन सुझाए गए जवाबों की सूची होती है, इसे उपयोगकर्ता को दिखाया जा सकता है:Kotlin
for (suggestion in result.suggestions) { val replyText = suggestion.text }
Java
for (SmartReplySuggestion suggestion : result.getSuggestions()) { String replyText = suggestion.getText(); }
ध्यान दें कि अगर मॉडल को मशीन लर्निंग के बारे में नहीं पता, तो हो सकता है कि वह नतीजे न दिखाए सुझाए गए जवाब कितने काम के हैं, लेकिन इनपुट बातचीत अंग्रेज़ी भाषा हो या मॉडल, संवेदनशील विषय-वस्तु का पता लगाता हो.