सितंबर 2023 में Google एसईओ के ऑफ़िस आवर्स

यह ट्रांसक्रिप्ट, सितंबर 2023 में, Google के एसईओ के ऑफ़िस आवर्स वाले सेशन की है. अगर आपको अपनी साइट के लिए कोई मदद चाहिए, तो हमारा सुझाव है कि Google Search Central के सहायता समुदाय में अपना सवाल पोस्ट करें.

क्या Google गलत तरीके से मेरी वेबसाइट के www वर्शन को इंडेक्स कर रहा है?

जॉन: वान पूछ रहे हैं कि क्या Google गलत तरीके से उनकी वेबसाइट के www वर्शन को इंडेक्स करता है. सही पेज एचटीटीपी होना चाहिए और फिर उनका डोमेन नेम www के बिना .my के होना चाहिए.

नमस्ते वान! मैंने आपके पेजों को देखा और ऐसा लगता है कि आपका सर्वर, बिना www वाले वर्शन से www वर्शन पर अपने-आप ही रीडायरेक्ट कर रहा है. साथ ही, लिंक के rel canonical एलिमेंट को सही तरीके से सेट कर रहा है. Chrome का इस्तेमाल करने पर, पहली बार में ऐसा लग सकता है कि यूआरएल की शुरुआत में www नहीं है. हालांकि, ब्राउज़र में सबसे ऊपर मौजूद यूआरएल पर दो बार क्लिक करने पर, पूरा यूआरएल दिखने लगता है. इसके बाद आपको www भी दिखता है. ऐसा हो सकता है - Google Search में किसी साइट के www और बिना www वाले वर्शन, दोनों ही ठीक तरह से काम करते हैं. वाह, इसमें बहुत सारे www हैं!

फ़िल्टर किया गया डेटा, Search Console के कुल डेटा से ज़्यादा क्यों होता है?

गैरी: ऑर्नेला पूछ रही हैं कि फ़िल्टर किया गया डेटा, Search Console पर मौजूद कुल डेटा से ज़्यादा क्यों है और इसका क्या मतलब है.

सबसे पहले, यह सवाल काफ़ी दिलचस्प है. हालांकि, इसके दिलचस्प होने की वजह कुछ और है. कम शब्दों में कहें तो, हमें काफ़ी ज़्यादा डेटा मैनेज करना होता है, इसलिए हम अक्सर ब्लूम फ़िल्टर का इस्तेमाल करते हैं. ब्लूम फ़िल्टर की मदद से हमारा काफ़ी समय और स्टोरेज की बचत हो सकती है. इसका पूरा जवाब यह है कि हम ब्लूम फ़िल्टर का ज़्यादा इस्तेमाल करते हैं, क्योंकि हमें काफ़ी सारा डेटा मैनेज करना होता है. हालांकि, मुझे ब्लूम फ़िल्टर के बारे में भी कुछ कहना है. जब आपको एक सेट में कई आइटम को हैंडल करना होता है, तो किसी चीज़ को तेज़ी से खोजना काफ़ी चुनौती वाला काम है. यहां कई आइटम से मेरा मतलब अरबों से न सही, लेकिन करोड़ों आइटम से है. ऐसे में ब्लूम फ़िल्टर से हमें काफ़ी मदद मिलती है. मुख्य सेट में संभावित रूप से मौजूद हैश वाले आइटम के कई अलग-अलग सेट होते हैं. ब्लूम फ़िल्टर की मदद से ये सेट देखे जा सकते हैं और आपको जो चाहिए, वह डेटा मिल जाता है. हैश की मदद से, डेटा को तेज़ी से ऐक्सेस किया जा सकता है. हालांकि, हैश की मदद से डेटा प्रोसेस करने में कभी-कभी डेटा का नुकसान हो जाता है. भले ही, इसका कोई मकसद हो या न हो. आपके साथ भी यही हो रहा है और आपको कुछ डेटा नहीं दिख रहा. कम डेटा का मतलब है कि मुख्य सेट में कोई चीज़ मौजूद है या नहीं, इस बारे में ज़्यादा सटीक अनुमान लगाना. असल में, Bloom के फ़िल्टर इस बारे में अनुमान लगाते हैं कि डेटा सेट में कोई चीज़ मौजूद है या नहीं. हालांकि, कई बार यह अनुमान सटीक नहीं होता. इन फ़िल्टर की वजह से तेज़ी से डेटा खोजा जा सकता है. डेटा सेट जितना कम होगा, Bloom के फ़िल्टर के अनुमान उतने ही सटीक होंगे.

मेरी Google Sites वेबसाइट के पेजों को ठीक से इंडेक्स क्यों नहीं किया जा रहा है?

जॉन: फ़्रेंच में एक सवाल सबमिट किया गया था. इसमें पूछा गया है कि उनकी Google Sites वेबसाइट के पेज, ठीक से इंडेक्स क्यों नहीं किए जा रहे हैं.

दूसरी भाषाओं में सवाल पाना अच्छा होता है. एक कदम पीछे जाएं, तो Google Sites पर बनाई गई वेबसाइटें, Google Search में इंडेक्स होती हैं और इंडेक्स की जा सकती हैं. हालांकि, Google Sites में इस्तेमाल किए गए यूआरएल को ट्रैक करना थोड़ा मुश्किल होता है. ऐसा इसलिए, क्योंकि सार्वजनिक वर्शन, उस यूआरएल से अलग हो सकता है जो आपको लॉग इन करने पर दिखता है. सच कहें, तो इसे तकनीकी तौर पर इंडेक्स किया जा सकता है, लेकिन यह एसईओ के लिए सही नहीं है. साथ ही, इसे Search Console में ट्रैक करना मुश्किल भी हो सकता है. अगर आपको एसईओ पर ध्यान देना है, तो अन्य विकल्पों को एक्सप्लोर करना और ऐसा करने से पहले उनके फ़ायदे और नुकसान देखना फ़ायदेमंद हो सकता है. Search Console में परफ़ॉर्मेंस ट्रैक करने के लिए, Google Sites के कॉन्टेंट के लिए अपने डोमेन नेम का भी इस्तेमाल किया जा सकता है. अगर अपने डोमेन नेम का इस्तेमाल किया जाता है, तो माइग्रेशन की प्रक्रिया आसान हो जाती है. साथ ही, Search Console के लिए पूरे डोमेन के मालिकाना हक की पुष्टि की जा सकती है.

गैरी: सरबजीत ने पूछा है: हमारी वेबसाइट पर कई बटन हैं. उन पर क्लिक करके हम दूसरे पेजों के लिंक फ़ेच कर रहे हैं. क्या Google इन लिंक को क्रॉल कर पाएगा?

आम तौर पर, Googlebot बटन पर क्लिक नहीं करता.

अगर मैं अहम कॉन्टेंट लिख रहा/रही हूं, तो क्या किसी "मेहमान पोस्ट" जोड़ने (अगर बैकलिंक पाने के इरादे से जोड़ा गया है) को, Google के दिशा-निर्देशों का उल्लंघन माना जाएगा?

जॉन: ब्रूक ने पूछा है: ज़्यादातर वेबसाइटें आज-कल सिर्फ़ "मेहमान पोस्ट" (बैकलिंक पाने के इरादे से) खरीदने का विकल्प देती हैं. अगर मैं अहम कॉन्टेंट लिख रहा/रही हूं, तो क्या इसे Google के दिशा-निर्देशों का उल्लंघन माना जाएगा?

नमस्ते ब्रुक, अपना सवाल पोस्ट करने के लिए धन्यवाद. ऐसा लगता है कि आप पहले से ही सही रास्ते पर हैं. हां, लिंक के लिए मेहमान पोस्ट का इस्तेमाल करना, स्पैम की रोकथाम के लिए बनी हमारी नीतियों के ख़िलाफ़ है. खास तौर पर, यह ज़रूरी है कि ये लिंक इस तरह से सही हों कि वे खोज के नतीजों पर असर नहीं डालते. लिंक पर मौजूद rel=nofollow या rel=sponsored एट्रिब्यूट का इस्तेमाल करके ऐसा किया जा सकता है. अपनी साइट के प्रमोशन के लिए विज्ञापन का इस्तेमाल करना ठीक है. हालांकि, जैसा बताया गया है, लिंक को ब्लॉक किया जाना चाहिए.

क्या किसी ई-कॉमर्स कैटगरी पेज पर मौजूद कॉन्टेंट से, रैंकिंग को बेहतर किया जा सकता है?

गैरी: ब्रूक ने पूछा है: क्या किसी ई-कॉमर्स कैटगरी पेज पर मौजूद कॉन्टेंट से, रैंकिंग को बेहतर किया जा सकता है?

अपने पेजों पर अपनी पसंद का कॉन्टेंट जोड़ा जा सकता है, क्योंकि वे आपके ही पेज हैं. हालांकि, अपनी कैटगरी वाले पेजों पर, अपने-आप जनरेट होने वाले हल्की क्वालिटी के टेक्स्ट को बार-बार धुंधला करके दोबारा अपलोड न करें. यह आम लोगों को भी अजीब लगता है. अगर आपको अपने पेजों पर कॉन्टेंट जोड़ना है, तो ऐसा कॉन्टेंट जोड़ें जो लोगों के काम का हो. कॉन्टेंट सिर्फ़ इसलिए न जोड़ें कि खोज के लिए कॉन्टेंट की ज़रूरत पड़ सकती है या आपको ऐसा लगता हो. हमारे ई-कॉमर्स से जुड़े सुझाव भी देखें.

क्या गलत सिमैंटिक टैग की वजह से Google, वेबसाइट के कॉन्टेंट को ठीक से नहीं समझ पाता है?

जॉन: क्या गलत सिमैंटिक टैग की वजह से Google, वेबसाइट के कॉन्टेंट को ठीक से नहीं समझ पाता है और इस वजह से उसे किसी ब्रांच को असाइन नहीं कर पाता है? खास तौर से, <hr> टैग, विषय में बदलाव का संकेत देते हैं. हालांकि, मैं उनका इस्तेमाल सिर्फ़ डिज़ाइन के मकसद से कर सकता/सकती हूं.

यह एक दिलचस्प सवाल है. आम तौर पर, सिमैंटिक एचटीएमएल का सही तरीके से इस्तेमाल करने से, सर्च इंजन को पेज के कॉन्टेंट और उसके संदर्भ को बेहतर तरीके से समझने में मदद मिलती है. उदाहरण के लिए, अगर किसी पेज पर हेडिंग मार्क अप की जाती हैं, तो इसका मतलब है कि आपको लगता है कि आपका कॉन्टेंट, उस हेडिंग के मुताबिक है. यह नंबर एक रैंकिंग के लिए कोई सीक्रेट पाथ नहीं है. हालांकि, अगर हमें यह समझने में परेशानी हो रही है कि टेक्स्ट से आपका क्या मतलब है, तो हेडिंग के रूप में साफ़ तौर पर खास जानकारी देने से मदद मिल सकती है. टेक्स्ट को साफ़ तौर पर लिखना एक ज़रूरी चीज़ है और यह इस पर निर्भर करता है कि हम पेज को कितनी अच्छी तरह से समझते हैं. इसलिए, पेज पर मौजूद सभी जानकारी को साफ़ तौर पर देना, मेरे हिसाब से एक अच्छा तरीका है. इसे उलटना, सिमेंटिक रूप से सही से गलत एचटीएमएल पर जाना भी आसान है. क्या सर्च इंजन अब भी आपके पेज को समझ सकते हैं? तो शायद आपको इस बात से कोई फ़र्क़ नहीं पड़ता कि वे इसे कैसे समझते हैं. क्या टेक्स्ट का मतलब साफ़ तौर पर समझ नहीं आ रहा है? तो कुछ सिमैंटिक स्ट्रक्चर का इस्तेमाल करके, इसे साफ़ तौर पर लिखने की कोशिश करें. आपके <hr> टैग के खास उदाहरण के तौर पर, मेरे पास ऐसा कोई उदाहरण नहीं है जिसमें किसी पेज को गलत तरीके से इस्तेमाल किए जाने की वजह से, उसे समझने में कोई फ़र्क़ पड़ा हो. किसी चीज़ को गलत तरीके से इस्तेमाल करने के कई तरीके हैं. हालांकि, मुझे लगता है कि कोई वेब डिज़ाइनर <hr> टैग का गलत तरीके से इस्तेमाल करें, इसकी संभावना काफ़ी कम है. हालांकि, यह कई चीज़ों पर 'निर्भर करता है'. आपका स्वागत है.

Google Search Console में, 404 दिखाने वाले पेजों की रिपोर्ट में ऐसे कई यूआरएल हैं जो JSON या JavaScript से लिए गए हैं. क्या हमें इन पर ध्यान नहीं देना चाहिए?

गैरी: रज़ा ने पूछा है: Google Search Console में, 404 दिखाने वाले पेजों की रिपोर्ट में ऐसे कई यूआरएल शामिल हैं जो ऐसा लगता है कि गलती से JSON या JavaScript कोड से लिए गए हैं. क्या हमें इस पर ध्यान नहीं देना चाहिए?

इन्हें नज़रअंदाज़ किया जा सकता है या इनके लिए कोई noindex एचटीटीपी हेडर जोड़ा जा सकता है.

जॉन: ध्रुव ने पूछा है: क्या साइटमैप की इंडेक्स फ़ाइल में, दूसरे डोमेन पर मौजूद साइटमैप फ़ाइलों के लिंक हो सकते हैं?

नमस्ते ध्रुव, यह एक दिलचस्प सवाल है. Google की ओर से जवाब शायद हां होगा. इसलिए, मेरा सुझाव है कि इस तरह के सेटअप का इस्तेमाल न करें. आपके पास दो स्थितियों में, ऐसे यूआरएल के लिए साइटमैप सबमिट करने का विकल्प होता है जो एक ही डोमेन पर मौजूद नहीं हैं. पहला, robots.txt की मदद से साइटमैप सबमिट करना या Search Console में सभी डोमेन के मालिकाना हक की पुष्टि करना. खास तौर पर, जब वेबसाइट का विश्लेषण किया जाता है, तो हो सकता है कि Search Console का मालिकाना हक मामूली हो और तुरंत न दिखे. इसलिए, वेबसाइट के कनेक्शन को भूल जाना आम बात है. अगर साइटमैप फ़ाइलों पर काम करते हुए यह तय किया जाता है कि आपको इस तरह के सेटअप का इस्तेमाल करना है, तो मेरा सुझाव होगा कि आप साइटमैप फ़ाइल में एक्सएमएल टिप्पणी जोड़ें, ताकि आपको ये ज़रूरी शर्तें याद रहें. भविष्य में उन्हें गलती से न तोड़ें. Search Console को Google के लिए खास तौर पर बनाया गया है. इसलिए, इस बारे में अन्य सर्च इंजन की ज़रूरी शर्तों को भी देखा जा सकता है.

वेबसाइटों के लिए मुख्य जानकारी Google चुने, इस बात की संभावना को कैसे कम किया जा सकता है?

गैरी: सैम बोवर्स ने पूछा है: वेबसाइटों के लिए मुख्य जानकारी Google चुने, इस बात की संभावना को कैसे कम किया जा सकता है?

अच्छा सवाल: हमेशा ऐसा नहीं होता. आम तौर पर, हमारे एल्गोरिदम आपकी मुख्य जानकारी का इस्तेमाल तब करते हैं, जब पेज पर ज़्यादा कॉन्टेंट नहीं होता या जब पेज के असल कॉन्टेंट के मुकाबले, उपयोगकर्ता की क्वेरी के हिसाब से मुख्य जानकारी ज़्यादा काम की होती है. ब्यौरे और स्निपेट के बारे में ज़्यादा जानें.

क्या सर्च इंजन बॉट को यह बताया जा सकता है कि वे पेज के कुछ सेक्शन को क्रॉल न करें?

जॉन: क्या सर्च इंजन बॉट को यह बताया जा सकता है कि वे पेज के कुछ सेक्शन को क्रॉल न करें. उन सेक्शन को छोड़कर, पेज को क्रॉल और इंडेक्स किया जा सकता है. वे बताते हैं कि "मेगा मेन्यू" में बहुत सारे डुप्लीकेट हैं और वे उन्हें ब्लॉक करना चाहते हैं.

हां, पेज के कुछ हिस्सों को इंडेक्स होने से रोकने के लिए, ये तरीके अपनाए जा सकते हैं. हालांकि, खास तौर पर हेडर, मेन्यू, साइडबार, फ़ुटर जैसे सामान्य पेज एलिमेंट को इंडेक्स होने से रोकना ज़रूरी नहीं है. सर्च इंजन, वेब को ऐसे ही मैनेज करते हैं. कभी-कभी बड़े-बड़े मेगा-मेन्यू या ओवर-फ़ुटर भी मौजूद होते हैं. इससे कोई समस्या नहीं होती. किसी पेज पर मौजूद अन्य तरह के कॉन्टेंट के लिए, ऐसे iframe का इस्तेमाल किया जा सकता है जिस पर robots.txt ने पाबंदी लगाई हो. इसके अलावा, JavaScript वाला ऐसा कॉन्टेंट भी इस्तेमाल किया जा सकता है जिसे robots.txt ने ब्लॉक किया हो. अगर स्निपेट में कुछ नहीं दिखाना है, तो data-nosnippet एट्रिब्यूट का इस्तेमाल करें. हालांकि, सिर्फ़ मेन्यू को छिपाने के लिए, इतना मुश्किल काम करने की ज़रूरत नहीं है. ग़ैर-ज़रूरी मुश्किलों से चीज़ों के अचानक टूटने का खतरा पैदा होता है. इसलिए, इन्हें उन मामलों में ही इस्तेमाल करें जहां इनकी ज़रूरत हों.

क्या आपका सुझाव है कि वेब पेजों पर इनफ़ाइनाइट स्क्रोलिंग की जाए? क्या इसका ऑर्गैनिक ट्रैफ़िक या Googlebot पर कोई असर पड़ सकता है?

गैरी: जीतू ने पूछा है: क्या आपका सुझाव है कि वेब पेजों पर इनफ़ाइनाइट स्क्रोलिंग की जाए? अगर मैं यह सुविधा जोड़ दूं, तो क्या ऑर्गैनिक ट्रैफ़िक या GoogleBot पर कोई असर पड़ेगा?

यह इस बात पर निर्भर करता है कि इनफ़ाइनाइट स्क्रोलिंग को कैसे लागू किया जाता है. अगर हर पीस या वर्चुअल पेज को किसी यूनीक यूआरएल के ज़रिए ऐक्सेस किया और खोजा जा सकता है, तो आम तौर पर इनफ़ाइनाइट स्क्रोलिंग का इस्तेमाल किया जाता है

जॉन: रायन ने पूछा है: अगर किसी होम पेज पर ऐसे लिंक हैं जो मोबाइल वेब पर दिखते हैं, लेकिन डेस्कटॉप पर JavaScript टॉगल के पीछे छिपे हुए हैं और क्लिक किए जाने तक एचटीएमएल में शामिल नहीं हैं, तो क्या Google इनकी वैल्यू कम कर देगा?

नमस्ते, रायन. वेब पेज के मोबाइल वर्शन को पहले इंडेक्स करने की सुविधा की मदद से, हम किसी पेज के मोबाइल वर्शन का इस्तेमाल करके, उसे इंडेक्स करते हैं और लिंक खोजते हैं. अगर मोबाइल वर्शन पर सभी कॉन्टेंट मौजूद है, तो आपको कुछ और करने की ज़रूरत नहीं है. मुझे यह देखकर हैरानी होती है कि डेस्कटॉप पर कम कॉन्टेंट होता है. हालांकि, मुझे लगता है कि आपके पास इसकी वजहें होंगी.

क्या Google, Google Drive में सेव की गई उन PDF फ़ाइलों को इंडेक्स करता है जो किसी वेबसाइट पर होस्ट न की गई हों?

गैरी: पहचान छिपाकर यह सवाल पूछा गया है: क्या Google, Google Drive में सेव की गई उन PDF फ़ाइलों को इंडेक्स करता है जो किसी वेबसाइट पर होस्ट न की गई हों? अगर हां, तो इसमें कितना समय लगता है?

हां, Google, Google Drive पर होस्ट की गई सार्वजनिक PDF फ़ाइलों को इंडेक्स कर सकता है. यह साइट पर मौजूद अन्य यूआरएल की तरह होता है. किसी भी यूआरएल की तरह, इन PDF को इंडेक्स करने में कुछ सेकंड लग सकते हैं या इन्हें इंडेक्स नहीं किया जा सकता.

Google, स्क्रोलजैकिंग कॉन्टेंट (ऐसा डिज़ाइन जो स्क्रोल करने की क्षमता पर असर डालता है) को कैसे क्रॉल करता है और क्या उपयोगकर्ता अनुभव पर असर डालने वाले इस तरीके से साइट की रैंकिंग पर असर पड़ता है?

जॉन: मैट ने एक सवाल पूछा है: "स्क्रोलजैकिंग" की लोकप्रियता पूरे वेब पर बढ़ रही है. आम तौर पर, इसे खराब उपयोगकर्ता अनुभव के तौर पर देखा जाता है. Google, स्क्रोलजैकिंग कॉन्टेंट को कैसे क्रॉल करता है और क्या उपयोगकर्ता अनुभव पर असर डालने वाले इस तरीके से साइट की रैंकिंग पर असर पड़ता है? उन्होंने स्क्रोलजैकिंग के बारे में एक लेख का लिंक भी जोड़ा है, जिसे मैं ट्रांसक्रिप्ट में लिंक करूंगा/करूंगी.

नमस्ते मैट, यह एक दिलचस्प सवाल है. मुझे नहीं पता था कि इसे "स्क्रोलजैकिंग" कहा जाता है. लिंक देने के लिए शुक्रिया. हमें नहीं लगता कि इस सेटअप कुछ बुरा है. इसलिए, इसका सीधे तौर पर कोई असर नहीं पड़ेगा. हालांकि, आपको तकनीकी तौर पर दूसरे ऑर्डर के असर दिख सकते हैं. उदाहरण के लिए, Google पेजों को रेंडर करता है. ऐसा, सैद्धांतिक तौर पर बहुत बड़े मोबाइल डिवाइस पर उन्हें लोड करके किया जाता है. अगर स्क्रोल इवेंट में गड़बड़ी की वजह से पेज पर कॉन्टेंट नहीं दिखता है, तो हमारे सिस्टम को लग सकता है कि कॉन्टेंट ठीक से नहीं दिख रहा है. कम शब्दों में कहें, तो यह क्वालिटी के बजाय रेंडरिंग से जुड़ी समस्या लगती है.

यूआरएल को robots.txt के ज़रिए ब्लॉक किए जाने के बाद भी, इसे Google Search Console पर क्यों इंडेक्स किया गया है?

गैरी: डेनिज़ कैन अरल ने पूछा है: यूआरएल को robots.txt के ज़रिए ब्लॉक किए जाने के बाद भी, इसे मेरे Google Search Console पर क्यों इंडेक्स किया गया है?

यह एक सामान्य सवाल है: Google, सिर्फ़ यूआरएल को इंडेक्स कर सकता है, कॉन्टेंट को नहीं. भले ही, यूआरएल को robots.txt के ज़रिए क्रॉल करने के लिए ब्लॉक किया गया हो. हालांकि, हमारे इंडेक्स में ऐसे यूआरएल की संख्या बहुत कम है. ऐसा सिर्फ़ तब होता है, जब ब्लॉक किए गए यूआरएल को इंटरनेट पर बहुत ज़्यादा खोजा जाता है. अगर इससे आपको समस्या होती है, तो यूआरएल को क्रॉल करने की अनुमति दें. साथ ही, एचटीटीपी हेडर में noindex नियम या <meta> टैग का इस्तेमाल करें.

हमारी वेबसाइट पर ऐसा एआई कॉन्टेंट दिखता है जो नहीं दिखना चाहिए! इसे अपनी वेबसाइट से कैसे हटाया जा सकता है या अपनी वेबसाइट पर इसे दिखने से कैसे रोका जा सकता है?

जॉन: सोनिया ने पूछा है: हमने कुछ कॉन्टेंट राइटर को काम पर रखा है, लेकिन उन्होंने हमें एआई कॉन्टेंट दिया है. मैं इसे कैसे ठीक करूं? क्या मैं एआई कॉन्टेंट को मिटा दूं? क्या इसे नए कॉन्टेंट से बदल दूं? क्या इसे स्क्रैप करके, नए यूआरएल के साथ एक नई वेबसाइट बना लूं? कृपया सलाह दें!

सोनिया, मुझे नहीं पता कि मैं क्या कहूं. ऐसा लगता है कि आपने बिना किसी समीक्षा के, बाहरी लेखकों के कॉन्टेंट को पब्लिश किया है? यह एक गलत तरीका है, चाहे वह एआई कॉन्टेंट न भी हो. हालांकि, वजहों और सोर्स पर ध्यान दिए बिना, अगर आपने अपनी वेबसाइट पर खराब क्वालिटी का कॉन्टेंट पब्लिश किया है और अब उसके साथ अपना कॉन्टेंट नहीं जोड़ना है, तो उस कॉन्टेंट को हटाया जा सकता है या उसे ठीक किया जा सकता है. हमारा सुझाव है कि आप सभी चीज़ों पर एक नज़र डालें: क्या वेब पर इस तरह का कॉन्टेंट मौजूद नहीं है और आपकी साइट, उपयोगकर्ताओं के लिए फ़ायदेमंद साबित हो सकती है? इसके अलावा, क्या यह फिर से हैश किया गया कॉन्टेंट है, जो वेब पर पहले से ही मौजूद है? इसे इस तरह देखें कि अगर आपकी साइट का कॉन्टेंट वैसा ही है जैसा अन्य लोगों के पास है, तो सर्च इंजन को उसे इंडेक्स न ही करना चाहिए. इस तरह के कॉन्टेंट कम दिखने से, खोज के नतीजे ज़्यादा सटीक होते हैं. साथ ही, एक शानदार वेबसाइट बनाने के लिए अच्छे लेखों के साथ-साथ दूसरी चीज़ों की भी ज़रूरत पड़ती है. इसके लिए एक साफ़ रणनीति और प्रक्रियाओं की ज़रूरत होती है, जिससे यह पक्का होता है कि हर कोई आपके लक्ष्यों के साथ सही से काम कर रहा है.

हमें इंडेक्स किए गए यूआरएल की संख्या में, एक दिन के मुकाबले दूसरे दिन काफ़ी बढ़ोतरी देखने को मिली. इसकी क्या वजहें हैं?

गैरी: लोरेंज़ो ने पूछा है: हमें इंडेक्स किए गए यूआरएल की संख्या में, एक दिन के मुकाबले दूसरे दिन काफ़ी बढ़ोतरी देखने को मिली: इसकी क्या वजहें हैं?

शायद हमें ज़्यादा हार्ड ड्राइव मिली हों, शायद हमने कुछ जगह खाली की हो, शायद हमें अभी-अभी वे नए यूआरएल मिले हों. यह कहना मुश्किल है. फिर भी शैम्पेन खोलें! जश्न मनाएं!

क्या Google एक फ़ेविकॉन फ़ाइल में, अलग-अलग साइज़ की फ़ाइलों का इस्तेमाल कर सकता है?

जॉन: डेव ने पूछा है: क्या Google एक फ़ेविकॉन फ़ाइल में, अलग-अलग साइज़ की फ़ाइलों का इस्तेमाल कर सकता है? क्या यह साइज़ एट्रिब्यूट के साथ मार्कअप किए गए कई आइकॉन को समझता है और सही आइकॉन चुनता है?

नमस्ते, डेव. तकनीकी तौर पर, .ico फ़ाइल फ़ॉर्मैट आपको एक से ज़्यादा रिज़ॉल्यूशन में फ़ाइलें देने की सुविधा देता है. हालांकि, अलग-अलग मकसद के लिए इस्तेमाल किए जाने वाले साइज़ की संख्या बढ़ने से, मुझे लगता है कि साइज़ और फ़ाइलों के बारे में अलग-अलग जानकारी देना बेहतर होगा. Google, एचटीएमएल में एक से ज़्यादा फ़ेविकॉन साइज़ के साथ काम करता है. इसलिए, अगर आपको कुछ खास साइज़ की जानकारी देनी है, तो यह सही रहेगा.

क्या किसी वेबसाइट के कुछ हिस्सों में अलग कॉन्टेंट मैनेजमेंट सिस्टम होने पर, Google उनका आकलन अलग तरीके से करता है?

गैरी: विविएन ने पूछा है: क्या किसी वेबसाइट के कुछ हिस्सों में अलग कॉन्टेंट मैनेजमेंट सिस्टम होने पर, Google उनका आकलन अलग तरीके से करता है?

नहीं.

Google Search में, हमारी वेबसाइट के मुख्य पेज के तौर पर PDF डाउनलोड पेज दिखाया जाता है. क्या खोज के नतीजे में बदलाव किया जा सकता है?

जॉन: ऐना ने पूछा है: हमारी फ़ाउंडेशन की वेबसाइट से मिले Google के खोज नतीजों को फिर से क्रॉल करने की ज़रूरत है. इसमें PDF डाउनलोड को मुख्य पेज के तौर पर दिखाया गया है. हमारी वेबसाइट एक डच मानवाधिकार फ़ाउंडेशन है. क्या खोज के नतीजे में बदलाव किया जा सकता है?

नमस्ते ऐना, मैंने आपकी वेबसाइट को देख लिया है. आपके होम पेज के बजाय, अन्य पेज दिखने की वजह यह है कि होम पेज पर noindex रोबोट <meta> टैग है. यह <meta> टैग, उस पेज को इंडेक्स होने से रोकेगा. इसे हटाने के बाद, जल्द ही चीज़ें ठीक हो जाएंगी.

Google Search पर अपनी वेबसाइट खोजने पर, मुझे सबसे पहला नतीजा प्रॉडक्ट वाले पेज का दिखता है. मुझे अपनी साइट का वेलकम पेज नहीं दिखता. क्यों?

जॉन: जूलियन ने पूछा है: Google Search पर अपनी वेबसाइट खोजने पर, मुझे सबसे पहला नतीजा प्रॉडक्ट वाले पेज का दिखता है. मुझे अपनी साइट का वेलकम पेज नहीं दिखता. ऐसा क्यों है? जबकि स्वागत पेज को एसईओ के हिसाब से तैयार किया गया है, प्रॉडक्ट पेज को नहीं.

नमस्ते, जूलियन. Google कई चीज़ों के आधार पर यह पता लगाता है कि किसी क्वेरी के हिसाब से, उपयोगकर्ताओं के लिए कौनसे पेज सबसे ज़्यादा काम के हो सकते हैं. जानकारी वापस पाने में, इनमें से एक सिद्धांत, उपयोगकर्ता के मकसद पर आधारित होता है. कम शब्दों में: जब उपयोगकर्ता यह खोज रहे थे, तब वे क्या कर रहे थे? क्या वे किसी प्रॉडक्ट या कंपनी के बारे में ज़्यादा जानकारी ढूंढ रहे हैं? या क्या वे अभी उस प्रॉडक्ट को खरीदना चाहते हैं? यह संख्या, एक ही क्वेरी के लिए समय के साथ बदल सकती है. कम शब्दों में कहें, तो भले ही कोई पेज एसईओ के लिए तैयार न हो, लेकिन हो सकता है कि वह खोज के नतीजों में दिखे. ऐसा तब होता है, जब सिस्टम को लगता है कि वह पेज उस समय काम का है. व्यावहारिक तौर पर, मेरा सुझाव है कि उपयोगकर्ता के आपकी साइट पर आने के अलग-अलग तरीकों को समझें. साथ ही, उनकी ज़रूरतों को सही तरीके से पूरा करने की कोशिश करें, ताकि साइट पर आने वाले लोगों को अच्छा अनुभव मिले.

मुझे Search Console से एक चेतावनी मिली है, जिसमें आईएनपी से जुड़ी समस्याओं को ठीक करने के लिए कहा गया है. इन समस्याओं का आकलन कैसे किया जाता है और इसे ठीक करने का सबसे आसान तरीका क्या है?

जॉन: ऐलेजैंड्रो ने पूछा है: नमस्ते जॉन और Google टीम, आज मुझे Search Console से एक चेतावनी मिली है, जिसमें आईएनपी से जुड़ी समस्याओं को ठीक करने के लिए कहा गया है. इन समस्याओं का आकलन कैसे किया जाता है और इसे ठीक करने का सबसे आसान तरीका क्या है?

मेरे पास पूरा जवाब नहीं है, लेकिन web.dev की साइट पर पेज के रिस्पॉन्स में लगने वाला समय या आईएनपी के बारे में कुछ दस्तावेज़ उपलब्ध हैं. अगर आपको अपनी साइट का स्कोर बेहतर करना है, तो हमारा सुझाव है कि इसे ज़रूर देखें. ध्यान रखें कि आईएनपी, फ़िलहाल वेबसाइट की परफ़ॉर्मेंस की अहम जानकारी का हिस्सा नहीं है. साथ ही, वेबसाइट की परफ़ॉर्मेंस की अहम जानकारी, उन कई चीज़ों में से एक है जो हमारे पेज की परफ़ॉर्मेंस और मददगार कॉन्टेंट के सिस्टम को बेहतर बनाती है. आईएनपी को बेहतर करने से, लोगों को बेहतर अनुभव मिल सकता है. हालांकि, मुझे नहीं लगता कि इससे खोज की रैंकिंग में कोई बदलाव होगा.

मैं किसी जैपनीज़ कीवर्ड हैक से, Google Search Console से 30 हज़ार यूआरएल कैसे हटाऊं?

जॉन: हेदर ने पूछा है: जैपनीज़ कीवर्ड हैक से, GSC के 30 हज़ार यूआरएल कैसे हटाए जा सकते हैं?

नमस्ते हेदर, मुझे यह जानकर अफ़सोस हुआ कि आपका खाता हैक हो गया है. हमें उम्मीद है कि इस दौरान आपने समस्या ठीक कर ली होगी. हालांकि, हमारे पास web.dev पर इस तरह के हैक से जुड़ा कॉन्टेंट है. मैं इसे ट्रांसक्रिप्ट से लिंक कर दूंगा/दूंगी. ध्यान रखें कि यह हैक, हैक किए गए कॉन्टेंट को Google पर छिपा देता है. इसलिए, यह पक्का करने के लिए कि वह कॉन्टेंट पूरी तरह से हट गया है, आपको कुछ मदद की ज़रूरत पड़ सकती है. खोज के नतीजों में शामिल पेजों की संख्या को ध्यान में रखते हुए, हमारा सुझाव है कि ज़्यादा दिखने वाले पेजों पर ध्यान दें. साथ ही, उन पेजों को हटाकर या फिर से इंडेक्स करके मैन्युअल तरीके से ठीक करें. बाकी पेजों को अपने-आप ठीक होने के लिए छोड़ दें. अगर हैक किए गए कॉन्टेंट को खास तौर पर ढूंढा जा रहा है, तो उसे कुछ समय तक ढूंढा जा सकेगा. हालांकि, औसत उपयोगकर्ता आपकी साइट को ढूंढ रहा होगा. इसलिए, आपका मकसद खोज के उन नतीजों को ठीक करने पर होना चाहिए.

मैंने Search Console में अपने पेजों को इंडेक्स करने के लिए सबमिट किया हुआ है, फिर भी इन्हें इंडेक्स से क्यों हटाया जा रहा है? मैंने अब तक कई बार पेजों को सबमिट किया है.

जॉन: ग्रेस ने पूछा है: Search Console में पेजों को इंडेक्स करने के लिए सबमिट करने के बाद भी, इन्हें इंडेक्स से क्यों हटाया जा रहा है? मैंने अब तक कई बार पेजों को सबमिट किया है.

नमस्ते, ग्रेस. इन पेजों की जानकारी के बिना मैं कुछ नहीं कह सकता/सकती. हालांकि, मुझे ऐसा लगता है कि हमारे सिस्टम को आपकी साइट और उसके कॉन्टेंट की अहमियत समझ नहीं आ रही है. हम किसी भी वेबसाइट के सभी पेजों को आम तौर पर इंडेक्स नहीं करते हैं. इसलिए, ऐसा हो सकता है कि कुछ पेजों को इंडेक्स न किया जाए. पेज को इंडेक्स करने के लिए, एक बार अनुरोध किया जा सकता है. हालांकि, हमारा सिस्टम समय के साथ कॉन्टेंट और वेबसाइट का फिर से आकलन करेगा और उन पेजों को फिर से हटा सकता है. सबसे सही तरीका यह है कि इन पेजों को शामिल कराने की बार-बार कोशिश न करें. इसके बजाय, पेज को ऐसा बनाएं कि हमारे सिस्टम, आपकी वेबसाइट की कुल क्वालिटी, वेब पर उसकी यूनीक वैल्यू, और लोगों की खोज से मेल खाने वाले कॉन्टेंट की अहमियत समझें. इसके बाद, हम खुद ही इसे इंडेक्स कर देंगे.