تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
دليل مفصّل حول طريقة عمل محرك بحث Google
"بحث Google" هو محرّك بحث مبرمَج بشكل كامل يستخدم برامج تُعرف باسم برامج الزحف لاستكشاف الويب بشكل منتظم والعثور على الصفحات لإضافتها إلى فهرسنا. في الواقع، إنّ الغالبية العظمى من الصفحات المضمّنة في نتائجنا ليست ناتجة عن إرسالها يدويًا، بل تم العثور عليها وإضافتها تلقائيًا عند زحف برامجنا إلى الويب. يشرح هذا المستند المراحل التي تشملها طريقة عمل "بحث Google" في سياق عمل موقعك الإلكتروني. وقد تساعدك هذه المعلومات الأساسية في حلّ المشاكل المتعلقة بالزحف وتهيئة صفحاتك لتتم فهرستها والتعرّف على كيفية تحسين ظهور موقعك الإلكتروني في "بحث Google".
إليك بعض الملاحظات قبل البدء
قبل التعمّق في تفاصيل طريقة عمل "بحث Google"، نذكّر أنّ Google لا تقبل تلقّي دفعات مالية مقابل زيادة عدد مرات زحف محرّك بحثها إلى موقع إلكتروني أو منح الموقع الإلكتروني ترتيبًا أفضل في نتائج البحث. وأي معلومات تناقض ذلك هي غير صحيحة.
لا يضمن محرّك بحث Google إمكانية الزحف إلى صفحتك وفهرستها وعرضها، حتى إذا كانت الصفحة تتّبع أساسيات "بحث Google".
إليك المراحل الثلاث لعمل محرّك بحث Google
ينقسم عمل محرّك بحث Google إلى ثلاث مراحل، وبعض الصفحات لا تنجح في اجتياز كل مرحلة:
الزحف: ينزّل محرّك بحث Google النص والصور والفيديوهات من الصفحات التي يعثر عليها على الإنترنت باستخدام برامج مبرمَجة تُعرف باسم برامج الزحف.
الفهرسة: يحلّل محرّك بحث Google النص والصور وملفات الفيديو المضمَّنة على الصفحة ويحفظ المعلومات في فهرس Google، وهو قاعدة بيانات ضخمة.
عرض نتائج البحث: عندما يجري المستخدم عملية بحث على Google، يعرض محرّك البحث معلومات ذات صلة بطلب بحث المستخدم.
الزحف
المرحلة الأولى هي اكتشاف الصفحات المنشورة على الويب. ليس هناك سجلّ مركزي يضم جميع صفحات الويب، لذا على محرّك بحث Google أن يبحث باستمرار عن الصفحات الجديدة والمُعدّلة وأن يضيفها إلى قائمة الصفحات المعروفة لديه. تُعرف هذه العملية باسم "اكتشاف عناوين URL". تكون بعض الصفحات معروفة، لأنّ محرّك بحث Google سبق أن زارها. يكتشف محرّك بحث Google صفحات أخرى عندما يستخرج رابطًا مضمّنًا من صفحة معروفة ويؤدي إلى صفحة جديدة، على سبيل المثال، تؤدّي صفحة المركز، مثل صفحة الفئة، إلى منشور مدونة جديد. وهناك صفحات أخرى يكتشفها محرّك بحث Google عندما ترسل أنت قائمة صفحات (خريطة موقع) تريد أن يزحف إليها محرّك البحث.
عندما يكتشف محرّك بحث Google عنوان URL الخاص بصفحة، قد يزور (أو "يزحف إلى") الصفحة لاكتشاف المحتوى المضمَّن فيها. نحن نستخدم مجموعة ضخمة من أجهزة الكمبيوتر للزحف إلى المليارات من الصفحات على الويب. ويُطلق على البرنامج الذي يجلب الصفحات اسم Googlebot (ويُعرف أيضًا باسم زاحف أو برنامج روبوت أو برنامج تتبُّع أو برنامج عنكبوت). يستخدم Googlebot عملية تعتمد على الخوارزميات لتحديد المواقع الإلكترونية التي يزحف إليها ووتيرة الزحف وعدد الصفحات التي يجلبها من كل موقع إلكتروني.
تتم برمجة برامج زحف Google أيضًا لتحاول عدم الزحف إلى الموقع الإلكتروني بشكل سريع جدًا لتجنُّب تحميله عبئًا زائدًا.
وتستند هذه الطريقة إلى استجابات الموقع الإلكتروني (على سبيل المثال، تعني أخطاء HTTP 500 ضرورة "تخفيض معدّل الزحف").
مع ذلك، لا يزحف Googlebot إلى جميع الصفحات التي اكتشفها، إذ قد يكون مالك الموقع الإلكتروني قد حظر الزحف إلى بعض الصفحات، فيما قد تكون صفحات أخرى غير متاحة بدون تسجيل الدخول إلى الموقع الإلكتروني.
خلال عملية الزحف، يعرض محرّك بحث Google الصفحة ويشغّل أي محتوى JavaScript يعثر عليه باستخدام إصدار حديث من Chrome، بالطريقة نفسها التي يتّبعها متصفحك لعرض الصفحات التي تزورها. تُعدّ عملية العرض مهمة لأنّ المواقع الإلكترونية غالبًا ما تعتمد على JavaScript لجلب المحتوى إلى الصفحة، وفي غياب عملية العرض، قد لا يكتشف محرّك بحث Google ذلك المحتوى.
تعتمد عملية الزحف على ما إذا كان بإمكان برامج زحف Google الوصول إلى الموقع الإلكتروني. وتشمل بعض المشاكل الشائعة التي تتعلّق بإمكانية وصول Googlebot إلى المواقع الإلكترونية ما يلي:
بعد أن يتم الزحف إلى الصفحة، يحاول محرّك بحث Google فهم مضمونها. تُعرف هذه المرحلة بالفهرسة وتشمل معالجة وتحليل المحتوى النصي والعلامات والسمات الرئيسية للمحتوى، مثل عناصر <title> وسمات النص البديل والصور والفيديوهات وغير ذلك.
خلال عملية الفهرسة، يحدّد محرّك بحث Google ما إذا كانت الصفحة نسخة مكررة من صفحة أخرى على الإنترنت أو صفحة أساسية.
الصفحة الأساسية هي الصفحة التي قد يتم عرضها في نتائج البحث. لاختيار الصفحة الأساسية، نجمّع أولاً الصفحات التي نعثر عليها على الإنترنت والتي تتضمن محتوًى مماثلاً (وهو ما يُعرف باسم التجميع)، ثم نختار الصفحة التي نعتقد أنّها الأكثر تمثيلاً في المجموعة. وتكون الصفحات الأخرى في المجموعة نُسخًا بديلة قد يتم عرضها في سياقات مختلفة، مثلاً عندما يُجري أحد المستخدمين عملية بحث من جهاز جوّال أو عندما يبحث عن صفحة معيّنة من هذه المجموعة.
يجمع محرّك بحث Google أيضًا إشارات عن الصفحة الأساسية والمحتوى المضمَّن عليها والذي يمكن استخدامه في المرحلة التالية، حين نعرض الصفحة في نتائج البحث. وتشمل بعض الإشارات لغة الصفحة والبلد المصدر للمحتوى وسهولة استخدام الصفحة.
قد تُحفَظ المعلومات التي يتم جمعها عن الصفحة الأساسية ومجموعة الصفحات المشابهة لها في فهرس Google، وهو قاعدة بيانات ضخمة مستضافة على الآلاف من أجهزة الكمبيوتر. لا يضمن محرّك بحث Google فهرسة كل الصفحات التي تتم معالجتها.
تعتمد عملية الفهرسة أيضًا على محتوى الصفحة والبيانات الوصفية الخاصة بها. ويمكن أن تشمل بعض المشاكل الشائعة للفهرسة ما يلي:
عندما يُجري المستخدم عملية بحث، تبحث محرّكاتنا في الفهرس عن الصفحات المطابقة وتعرض له النتائج التي نعتبرها الأعلى جودة والأكثر صلةً بموضوع البحث. ويتم تحديد مدى الصلة بموضوع البحث استنادًا إلى المئات من العوامل التي قد تشمل معلومات مثل موقع المستخدم الجغرافي ولغته والجهاز الذي يستخدمه (كمبيوتر مكتبي أو هاتف). على سبيل المثال، عند البحث عن "محلات إصلاح الدرّاجات"، ستختلف النتائج التي تظهر لمستخدم مقيم في دبي عن النتائج التي تظهر لمستخدم مقيم في بيروت.
استنادًا إلى طلب بحث المستخدم، تتغيّر أيضًا ميزات البحث التي تظهر على صفحة نتائج البحث. على سبيل المثال، عند البحث عن "محلات إصلاح الدرّاجات"، قد نعرض على الأرجح نتائج محلية بدون نتائج من البحث بالصور. في المقابل، يزيد احتمال عرض نتائج من البحث بالصور بدلاً من نتائج محلية استجابةً لطلب بحث عن "درّاجات حديثة" مثلاً. يمكنك الاطّلاع على عناصر واجهة المستخدم الأكثر شيوعًا على بحث الويب من Google في معرض العناصر المرئية.
يمكن أن تُبيّن لك خدمة Search Console أنّ الصفحة قد تمت فهرستها، ولكنها لا تظهر في نتائج البحث.
قد يعود السبب في ذلك إلى أحد الأسباب التالية:
علمًا أنّ هذا الدليل يشرح طريقة عمل "بحث Google"، فنحن نعمل باستمرار على تحسين خوارزمياتنا.
يمكنك تتبّع هذه التغييرات من خلال متابعة مدونة مجموعة خدمات بحث Google.
تاريخ التعديل الأخير: 2025-08-04 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-08-04 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eGoogle Search discovers, analyzes, and ranks web pages to deliver relevant search results to users.\u003c/p\u003e\n"],["\u003cp\u003eThe three stages of Google Search are crawling, indexing, and serving search results.\u003c/p\u003e\n"],["\u003cp\u003eCrawling involves discovering and fetching web pages using automated programs called crawlers.\u003c/p\u003e\n"],["\u003cp\u003eIndexing involves analyzing the content and metadata of web pages to understand their topic and relevance.\u003c/p\u003e\n"],["\u003cp\u003eServing search results involves selecting and ranking relevant pages from the index based on user queries and various factors.\u003c/p\u003e\n"]]],["Google Search operates in three stages: crawling, indexing, and serving. Crawling involves automated web crawlers (Googlebot) discovering and downloading content (text, images, videos) from web pages. Indexing analyzes this content, determining its relevance and canonical status, storing it in Google's database. Serving involves matching user queries with indexed pages and displaying the most relevant results, considering factors like user location and device. Google does not accept payment for crawling, indexing or ranking and can't guarantee that the content will be crawled, indexed or served.\n"],null,["# In-Depth Guide to How Google Search Works | Google Search Central\n\nIn-depth guide to how Google Search works\n=========================================\n\n\nGoogle Search is a fully-automated search engine that uses software known as web crawlers that\nexplore the web regularly to find pages to add to our index. In fact, the vast majority of\npages listed in our results aren't manually submitted for inclusion, but are found and added\nautomatically when our web crawlers explore the web. This document explains the stages of how\nSearch works in the context of your website. Having this base knowledge can help you fix\ncrawling issues, get your pages indexed, and learn how to optimize how your site appears in\nGoogle Search.\n| Looking for something less technical? Check out our [How Search Works site](https://www.google.com/search/howsearchworks/), which explains how Search works from a searcher's perspective.\n\nA few notes before we get started\n---------------------------------\n\n\nBefore we get into the details of how Search works, it's important to note that Google doesn't\naccept payment to crawl a site more frequently, or rank it higher. If anyone tells you\notherwise, they're wrong.\n\n\nGoogle doesn't guarantee that it will crawl, index, or serve your page, even if your page\nfollows the [Google Search Essentials](/search/docs/essentials).\n\nIntroducing the three stages of Google Search\n---------------------------------------------\n\nGoogle Search works in three stages, and not all pages make it through each stage:\n\n1. [**Crawling:**](#crawling) Google downloads text, images, and videos from pages it found on the internet with automated programs called crawlers.\n2. [**Indexing:**](#indexing) Google analyzes the text, images, and video files on the page, and stores the information in the Google index, which is a large database.\n3. [**Serving search results:**](#serving) When a user searches on Google, Google returns information that's relevant to the user's query.\n\nCrawling\n--------\n\n\nThe first stage is finding out what pages exist on the web. There isn't a central registry of\nall web pages, so Google must constantly look for new and updated pages and add them to its\nlist of known pages. This process is called \"URL discovery\". Some pages are known because\nGoogle has already visited them. Other pages are discovered when Google extracts a link from a\nknown page to a new page: for example, a hub page, such as a category page, links to a new\nblog post. Still other pages are discovered when you submit a list of pages (a\n[sitemap](/search/docs/crawling-indexing/sitemaps/overview)) for Google to crawl. \n\n\nOnce Google discovers a page's URL, it may visit (or \"crawl\") the page to find out what's on\nit. We use a huge set of computers to crawl billions of pages on the web. The program that\ndoes the fetching is called [Googlebot](/search/docs/crawling-indexing/googlebot)\n(also known as a crawler, robot, bot, or spider). Googlebot uses an algorithmic process to\ndetermine which sites to crawl, how often, and how many pages to fetch from each site.\n[Google's crawlers](/search/docs/crawling-indexing/overview-google-crawlers)\nare also programmed such that they try not to crawl the site too fast to avoid overloading it.\nThis mechanism is based on the responses of the site (for example,\n[HTTP 500 errors mean \"slow down\"](/search/docs/crawling-indexing/http-network-errors#http-status-codes)).\n\n\nHowever, Googlebot doesn't crawl all the pages it discovered. Some pages may be\n[disallowed for crawling](/search/docs/crawling-indexing/robots/robots_txt#disallow) by the\nsite owner, other pages may not be accessible without logging in to the site.\n\n\nDuring the crawl, Google renders the page and\n[runs any JavaScript it finds](/search/docs/crawling-indexing/javascript/javascript-seo-basics#how-googlebot-processes-javascript)\nusing a recent version of\n[Chrome](https://www.google.com/chrome/), similar to how your\nbrowser renders pages you visit. Rendering is important because websites often rely on\nJavaScript to bring content to the page, and without rendering Google might not see that\ncontent.\n\n\nCrawling depends on whether Google's crawlers can access the site. Some common issues with\nGooglebot accessing sites include:\n\n- [Problems with the server handling the site](/search/docs/crawling-indexing/http-network-errors#http-status-codes)\n- [Network issues](/search/docs/crawling-indexing/http-network-errors#network-and-dns-errors)\n- [robots.txt rules preventing Googlebot's access to the page](/search/docs/crawling-indexing/robots/intro)\n\nIndexing\n--------\n\n\nAfter a page is crawled, Google tries to understand what the page is about. This stage is\ncalled indexing and it includes processing and analyzing the textual content and key content\ntags and attributes, such as\n[`\u003ctitle\u003e` elements](/search/docs/appearance/title-link)\nand alt attributes,\n[images](/search/docs/appearance/google-images),\n[videos](/search/docs/appearance/video), and\nmore. \n\n\nDuring the indexing process, Google determines if a page is a\n[duplicate of another page on the internet or canonical](/search/docs/crawling-indexing/consolidate-duplicate-urls).\nThe canonical is the page that may be shown in search results. To select the canonical, we\nfirst group together (also known as clustering) the pages that we found on the internet that\nhave similar content, and then we select the one that's most representative of the group. The\nother pages in the group are alternate versions that may be served in different contexts, like\nif the user is searching from a mobile device or they're looking for a very specific page from\nthat cluster.\n\n\nGoogle also collects signals about the canonical page and its contents, which may be used in\nthe next stage, where we serve the page in search results. Some signals include the language\nof the page, the country the content is local to, and the usability of the page.\n\n\nThe collected information about the canonical page and its cluster may be stored in the Google\nindex, a large database hosted on thousands of computers. Indexing isn't guaranteed; not every\npage that Google processes will be indexed.\n\n\nIndexing also depends on the content of the page and its metadata. Some common indexing issues\ncan include:\n\n- [The quality of the content on page is low](/search/docs/essentials)\n- [Robots `meta` rules disallow indexing](/search/docs/crawling-indexing/block-indexing)\n- [The design of the website might make indexing difficult](/search/docs/crawling-indexing/javascript/javascript-seo-basics)\n\nServing search results\n----------------------\n\n| Google doesn't accept payment to rank pages higher, and ranking is done programmatically. [Learn more about ads on Google Search](https://www.google.com/search/howsearchworks/our-approach/ads-on-search/).\n\n\nWhen a user enters a query, our machines search the index for matching pages and return the\nresults we believe are the highest quality and most relevant to the user's query. Relevancy is\ndetermined by hundreds of factors, which could include information such as the user's\nlocation, language, and device (desktop or phone). For example, searching for \"bicycle repair\nshops\" would show different results to a user in Paris than it would to a user in Hong Kong. \n\n\nBased on the user's query the search features that appear on the search results page also\nchange. For example, searching for \"bicycle repair shops\" will likely show local results and\nno [image results](/search/docs/appearance/visual-elements-gallery#image-result),\nhowever searching for \"modern bicycle\" is more likely to show image results, but not local\nresults. You can explore the most common UI elements of Google web search in our\n[Visual Element gallery](/search/docs/appearance/visual-elements-gallery).\n\n\nSearch Console might tell you that a page is indexed, but you don't see it in search results.\nThis might be because:\n\n- [The content on the page is irrelevant to users' queries](/search/docs/fundamentals/seo-starter-guide#expect-search-terms)\n- [The quality of the content is low](/search/docs/essentials)\n- [Robots `meta` rules prevent serving](/search/docs/crawling-indexing/block-indexing)\n\n\nWhile this guide explains how Search works, we are always working on improving our algorithms.\nYou can keep track of these changes by following the\n[Google Search Central blog](/search/blog)."]]