OpenByt - مصدرك النهائي لمعرفة ووردبريس مجانًا

كيفية كتابة ملف robots.txt وإرساله

Controlling what search engines can and can’t crawl is an essential part of managing your online presence. One of the most effective ways to do this is using a robots.txt file. This plain text file tells search engines which parts of your website they can access and which they cannot, helping you guide traffic, protect sensitive content, and improve your site’s SEO.
In this blog, we’ll dive into the importance of a robots.txt file, how to create one, and how to customize it to suit your needs. Whether you’re a beginner or someone with experience managing websites, this guide will help you ensure your site is crawled effectively by search engines.

ما هو ملف Robots.txt؟

A ملف robots.txt is a simple text file placed in the root directory of your website. Its purpose is to instruct web crawlers (such as Google’s Googlebot) on which parts of your site they can visit and index. Following the معيار استبعاد الروبوتات، يساعدك هذا الملف على التحكم في الوصول إلى دلائل أو صفحات معينة مع ضمان بقاء المحتوى المهم متاحًا لمحركات البحث للفهرسة.

على سبيل المثال، إذا كان موقع الويب الخاص بك www.example.com، يجب أن يكون ملف robots.txt الخاص بك في www.example.com/robots.txt.

كيف يعمل ملف Robots.txt؟

A robots.txt file is made up of a series of rules, with each rule specifying whether a certain web crawler (called a “user agent”) can access specific parts of your website. The rules include commands like عدم السماح, السماحو خريطة الموقع، والتي يمكنها إما تقييد الوصول إلى عناوين URL المختلفة أو السماح بالوصول إليها.

لنلقِ نظرة على مثال بسيط لملف robots.txt:

وكيل المستخدم: جوجل بوت
عدم السماح: /nogooglebot/

وكيل المستخدم: *
السماح: /

خريطة الموقع: https://www.example.com/sitemap.xml

شرح الملف:

في حالة عدم وجود ملف robots.txt، يمكن لجميع برامج الزحف الوصول إلى موقع الويب بالكامل بشكل افتراضي. يقوم ملف robots.txt بتحسين هذه الأذونات.

لماذا تحتاج إلى ملف Robots.txt

يوفر استخدام ملف robots.txt العديد من المزايا:

كيفية إنشاء ملف Robots.txt

إن إنشاء ملف robots.txt سهل، ويمكنك القيام بذلك باستخدام أي محرر نص عادي مثل المفكرة, تحرير النص, viأو إيماكس. تجنب استخدام معالجات النصوص مثل Microsoft Word، لأنها يمكن أن تقدم تنسيقات قد تتداخل مع الأداء السليم للملف.

1. إنشاء الملف

افتح محرر النصوص واحفظ ملفاً باسم الروبوتات.txt. تأكد من ترميزه في UTF-8 الشكل.

2. إضافة قواعد

ابدأ بإضافة القواعد عن طريق تحديد وكلاء المستخدمين الذين تنطبق عليهم القواعد وأجزاء موقعك المسموح لهم (أو غير المسموح لهم) بالزحف إليها.
فيما يلي مثال على كيفية حظر جميع برامج زحف الويب من الوصول إلى دليل معين:

وكيل المستخدم: *
عدم السماح: /الدليل الخاص/

3. تحميل الملف

قم بتحميل الروبوتات.txt إلى الدليل الجذر لموقعك على الويب الخاص بك. على سبيل المثال، إذا كان موقعك www.example.com، يجب أن يكون الملف في www.example.com/robots.txt. إذا لم تكن متأكدًا من كيفية الوصول إلى الدليل الجذر، فاتصل بمزود خدمة الاستضافة الخاص بك.

4. اختبار الملف

بعد تحميل الملف، يمكنك اختباره عن طريق فتح متصفح في الوضع الخاص والانتقال إلى https://www.example.com/robots.txt. إذا كان بإمكانك عرض الملف، فهذا يعني أنه تم تحميل الملف بنجاح.

قواعد الروبوتات.txt الشائعة

فيما يلي بعض القواعد الشائعة المستخدمة في ملفات robots.txt:

1. حظر جميع برامج الزحف من الموقع بأكمله

وكيل المستخدم: *
عدم السماح: /

تمنع هذه القاعدة جميع برامج الزحف من الوصول إلى الموقع الإلكتروني بأكمله. كن حذرًا مع هذه القاعدة، لأنها تمنع محركات البحث من فهرسة المحتوى الخاص بك.

2. السماح لجميع برامج الزحف بالوصول إلى الموقع بأكمله

وكيل المستخدم: *
السماح: /

تسمح هذه القاعدة لجميع برامج زحف الويب بالوصول إلى موقعك الإلكتروني بالكامل. إنه السلوك الافتراضي إذا لم تحدد أي قواعد في ملف robots.txt الخاص بك.

3. حظر دليل محدد

وكيل المستخدم: *
عدم السماح: /الدليل الخاص/

تمنع هذه القاعدة جميع برامج الزحف من الوصول إلى /دليل خاص/دليل خاص/. تذكر أن الشرطة المائلة اللاحقة تشير إلى أن كل شيء داخل الدليل غير مسموح به أيضًا.

4. السماح بدليل محدد، وحظر البقية

وكيل المستخدم: *
عدم السماح: /
السماح: /عامة/

تحظر هذه القاعدة الوصول إلى الموقع بأكمله باستثناء /عامة/ الدليل. يكون هذا مفيدًا عندما تريد الحفاظ على خصوصية معظم موقعك ولكنك تسمح بفهرسة صفحات عامة محددة.

5. حظر صفحة معينة

وكيل المستخدم: *
عدم السماح: /useless_page.html

تمنع هذه القاعدة جميع برامج الزحف من الوصول إلى صفحة معينة على موقعك.

6. تحديد خريطة الموقع

خريطة الموقع: https://www.example.com/sitemap.xml

يساعد تضمين خريطة موقع في ملف robots.txt الخاص بك محركات البحث في تحديد موقع جميع الصفحات الأساسية على موقعك والزحف إليها بسرعة.

أفضل الممارسات لملفات Robots.txt

عند إنشاء ملف robots.txt، ضع في اعتبارك أفضل الممارسات التالية:

كيفية اختبار وإرسال ملف Robots.txt الخاص بك

بعد تحميل ملف robots.txt الخاص بك، يمكنك اختبار صلاحيته باستخدام أداة اختبار robots.txt في Google Search Console. تساعد هذه الأداة في التأكد من أن ملفك منسق بشكل مناسب وأن Google يمكنه تفسيره بشكل صحيح.

لإرسال ملف robots.txt إلى Google:

الخاتمة

يعد ملف robots.txt جيد التنظيم أداة قوية لإدارة كيفية تفاعل محركات البحث مع موقعك. من خلال فهم كيفية إنشاء الملف وتكوينه، يمكنك التأكد من تحسين موقعك للزحف مع إخفاء المحتوى الحساس أو غير الضروري عن برامج زحف محركات البحث.
Whether managing a personal blog or a large corporate website, a properly implemented robots.txt file can improve your SEO, protect sensitive content, and ensure your site runs smoothly. Regularly review and update the file to align with your site’s growth and changes.

الخروج من إصدار الهاتف المحمول