आरंभ करना

डेटा ट्रांसफ़र 2.0 का ऐक्सेस सेट अप करने के लिए, आपको अपनी बिक्री या सहायता टीम के संपर्क से बात करनी होगी. इसके बाद, आपको बकेट का नाम दिया जाएगा. आपको अपने सेल्स कॉन्टैक्ट को Google ग्रुप देना होगा. इससे आपको Google Cloud Storage में मौजूद अपनी डेटा फ़ाइलों के ऐक्सेस को कंट्रोल करने में मदद मिलेगी.

अपने डेटा को ऐक्सेस करने के लिए, यूटिलिटी का इस्तेमाल किया जा सकता है. इसके अलावा, आपके पास अपना कोड लिखने का विकल्प भी है.

gsutil का इस्तेमाल करके डेटा ऐक्सेस करना

gsutil टूल, Python में लिखा गया एक कमांड-लाइन ऐप्लिकेशन है. इसकी मदद से, बिना किसी कोडिंग के अपने डेटा को ऐक्सेस किया जा सकता है. उदाहरण के लिए, कस्टम ऐप्लिकेशन बनाने के बजाय, स्क्रिप्ट या बैच फ़ाइल के हिस्से के तौर पर gsutil का इस्तेमाल किया जा सकता है.

gsutil का इस्तेमाल शुरू करने के लिए, gsutil दस्तावेज़ पढ़ें. पहली बार टूल का इस्तेमाल करते समय, यह आपसे क्रेडेंशियल मांगेगा. इसके बाद, यह उन्हें सेव कर लेगा, ताकि बाद में उनका इस्तेमाल किया जा सके.

gsutil के उदाहरण

gsutil का इस्तेमाल करके, अपनी सभी फ़ाइलों की सूची इस तरह बनाई जा सकती है:

gsutil ls gs://[bucket_name]/[object name/file name]

gsutil, UNIX के ज़्यादातर सिंटैक्स का इस्तेमाल करता है. इसमें वाइल्डकार्ड तारांकन (*) भी शामिल है. इसलिए, सभी NetworkImpression फ़ाइलों की सूची बनाई जा सकती है:

gsutil ls gs://[bucket_name]/dcm_account6837_impression_*

किसी फ़ाइल को डाउनलोड करना भी आसान है:

gsutil cp gs://[bucket_name]/dcm_account6837_impression_2015120100.log.gz

Unix शेल स्क्रिप्ट का इस्तेमाल करके, अपनी फ़ाइलों को DT Google के अलग-अलग बकेट से अपने Google API GCS बकेट में कॉपी किया जा सकता है. इसके लिए, ये दो विकल्प उपलब्ध हैं:

  • gsutil में, अगर Unix सिस्टम का इस्तेमाल किया जा रहा है, तो अपने सभी बकेट के लिए हर दिन यह कमांड चलाएं:

    $ day=$(date --date="1 days ago" +"%m-%d-%Y")
    $ gsutil -m cp gs://{<dcmhashid_A>,<dcmhashid_B>,etc.}/*$day*.log.gz gs://<client_bucket>/
  • इसके अलावा, एक और तरीका है. हालांकि, यह थोड़ा मुश्किल है. इसके लिए, बैश फ़ाइल का इस्तेमाल करें:

    #!/bin/bash
    
    set -x
    
    buckets={dfa_-hasid_A dfa_-hashid_B,...} #include all hash ids
    day=$(date --date="1 days ago" +"%m-%d-%Y")
    for b in ${buckets[@]}; do /
        gsutil -m cp gs://$b/*$day*.log.gz gs:/// /
    done

प्रोग्राम के हिसाब से, अपने-आप होने वाली प्रोसेस का इस्तेमाल करके डेटा ऐक्सेस करना

Google Cloud Storage में, कई प्रोग्रामिंग भाषाओं के लिए एपीआई और सैंपल उपलब्ध हैं. इनकी मदद से, प्रोग्राम के हिसाब से अपने डेटा को ऐक्सेस किया जा सकता है. यहां डेटा ट्रांसफ़र v2.0 से जुड़े कुछ ऐसे चरण दिए गए हैं जिन्हें पूरा करके, आपको इंटिग्रेशन को काम करने लायक बनाना होगा.

सेवा खाता पाना

Data Transfer v2.0 का इस्तेमाल शुरू करने से पहले, आपको सेटअप टूल इस्तेमाल करना होगा. यह आपको Google API Console में प्रोजेक्ट बनाने और एपीआई की सुविधा चालू करने के बारे में जानकारी देता है.

नया सेवा खाता सेट अप करने के लिए, यह तरीका अपनाएं:

  1. क्रेडेंशियल बनाएं > सेवा खाते की पर क्लिक करें.
  2. चुनें कि सेवा खाते की सार्वजनिक/निजी कुंजी को स्टैंडर्ड P12 फ़ाइल के तौर पर डाउनलोड करना है या JSON फ़ाइल के तौर पर. JSON फ़ाइल को Google API क्लाइंट लाइब्रेरी से लोड किया जा सकता है.

आपके नए सार्वजनिक/निजी पासकोड को कंप्यूटर में बनाया और डाउनलोड किया जाता है. यह पासकोड की इकलौती कॉपी होती है. इसे सुरक्षित रखने की ज़िम्मेदारी आपकी है.

इस विंडो को खुला रखें. आपको अगले चरण में सेवा खाते के ईमेल पते की ज़रूरत पड़ेगी.

अपने ग्रुप में कोई सेवा खाता जोड़ना

  • Google ग्रुप पर जाएं
  • 'मेरे ग्रुप' पर क्लिक करें और वह ग्रुप चुनें जिसका इस्तेमाल, DT v2.0 Cloud Storage बकेट को ऐक्सेस करने के लिए किया जाता है
  • मैनेज करें पर क्लिक करें
  • 'सदस्यों को न्योता भेजें' पर क्लिक न करें!
  • सदस्यों को सीधे तौर पर जोड़ें पर क्लिक करें
  • पिछले चरण में सेवा खाते के ईमेल को कॉपी करके, सदस्यों वाले बॉक्स में चिपकाएं
  • 'कोई ईमेल नहीं' चुनें
  • 'जोड़ें' बटन पर क्लिक करें

मैंने गलती से 'सदस्यों को न्योता दें' पर क्लिक कर दिया

दायरा

Cloud Storage को पास किए गए सभी स्कोप, सिर्फ़ पढ़ने के लिए होने चाहिए

उदाहरण के लिए, Java क्लाइंट लाइब्रेरी का इस्तेमाल करते समय, इस्तेमाल करने के लिए सही स्कोप यह है:

StorageScopes.DEVSTORAGE_READ_ONLY