گلاویژ
گلاویژ
خواندن ۲ دقیقه·۹ ماه پیش

فایل robots.txt چیست و چه کاربردی دارد؟

فایل robots.txt یک فایل متنی ساده است که در ریشه (root) وب‌سایت شما قرار می‌گیرد و به موتورهای جستجو و سایر ربات‌های وب دستور می‌دهد که چگونه صفحات وب‌سایت شما را crawl و فهرست‌بندی کنند.

در این مقاله، به معرفی ساختار و کاربردهای فایل robots.txt می‌پردازیم و به شما یاد می‌دهیم که چگونه از این فایل برای بهبود سئو سایت و هدایت ربات‌های جستجوگر استفاده کنید.

کاربردهای فایل robots.txt:

  • جلوگیری از crawl شدن صفحات خاص: می‌توانید از robots.txt برای جلوگیری از crawl شدن صفحات خاصی از وب‌سایتتان توسط موتورهای جستجو استفاده کنید. این می‌تواند برای صفحات حساسی مانند صفحات ورود به سیستم یا صفحات حاوی اطلاعات محرمانه مفید باشد.
  • هدایت ربات‌ها به صفحات مهم: می‌توانید از robots.txt برای هدایت ربات‌ها به صفحات مهم وب‌سایتتان استفاده کنید. این می‌تواند به موتورهای جستجو کمک کند تا محتوای مهم وب‌سایت شما را به طور کامل درک و فهرست‌بندی کنند.
  • کنترل سرعت crawl: می‌توانید از robots.txt برای کنترل سرعت crawl وب‌سایتتان توسط موتورهای جستجو استفاده کنید. این می‌تواند به جلوگیری از بارگذاری بیش از حد سرور شما توسط ربات‌ها کمک کند.


نحوه نوشتن فایل robots.txt:

فایل robots.txt از دستورات ساده‌ای تشکیل شده است که هر کدام معنای خاصی دارند.

دستورات رایج:

  • User-agent: این دستور مشخص می‌کند که دستورات robots.txt برای کدام ربات‌ها اعمال می‌شود.
  • Disallow: این دستور مشخص می‌کند که ربات‌ها مجاز به crawl شدن کدام صفحات نیستند.
  • Allow: این دستور مشخص می‌کند که ربات‌ها مجاز به crawl شدن کدام صفحات هستند.
  • Crawl-delay: این دستور مشخص می‌کند که ربات‌ها باید چه مقدار صبر کنند تا دوباره یک صفحه را crawl کنند.

مثال:

User-agent: * Disallow: /admin/ Disallow: /private/ Allow: /images/ Crawl-delay: 5

این مثال به تمام ربات‌ها (User-agent: *) اجازه می‌دهد که صفحات وب‌سایت را crawl کنند، به جز صفحات موجود در پوشه‌های admin و private. ربات‌ها همچنین مجاز به crawl کردن صفحات موجود در پوشه images هستند. Crawl-delay 5 به ربات‌ها می‌گوید که باید 5 ثانیه بین crawl کردن صفحات صبر کنند.

نکات مهم:

  • فایل robots.txt حساس به حروف بزرگ و کوچک است.
  • فایل robots.txt باید در ریشه وب‌سایت شما قرار بگیرد.
  • شما می‌توانید از ابزارهای آنلاین برای تست و بررسی فایل robots.txt خود استفاده کنید.

جمع‌بندی

فایل robots.txt ابزاری قدرتمند برای کنترل نحوه crawl و فهرست‌بندی وب‌سایت شما توسط موتورهای جستجو است. با استفاده از robots.txt می‌توانید صفحات مهم وب‌سایتتان را به موتورهای جستجو معرفی کنید، از crawl شدن صفحات غیرضروری جلوگیری کنید و سرعت crawl وب‌سایتتان را کنترل کنید.

robot txtrobotseoسئوcrawl صفحات
شاید از این پست‌ها خوشتان بیاید