فایل robots.txt یک فایل متنی ساده است که در ریشه (root) وبسایت شما قرار میگیرد و به موتورهای جستجو و سایر رباتهای وب دستور میدهد که چگونه صفحات وبسایت شما را crawl و فهرستبندی کنند.
در این مقاله، به معرفی ساختار و کاربردهای فایل robots.txt میپردازیم و به شما یاد میدهیم که چگونه از این فایل برای بهبود سئو سایت و هدایت رباتهای جستجوگر استفاده کنید.
کاربردهای فایل robots.txt:
جلوگیری از crawl شدن صفحات خاص: میتوانید از robots.txt برای جلوگیری از crawl شدن صفحات خاصی از وبسایتتان توسط موتورهای جستجو استفاده کنید. این میتواند برای صفحات حساسی مانند صفحات ورود به سیستم یا صفحات حاوی اطلاعات محرمانه مفید باشد.
هدایت رباتها به صفحات مهم: میتوانید از robots.txt برای هدایت رباتها به صفحات مهم وبسایتتان استفاده کنید. این میتواند به موتورهای جستجو کمک کند تا محتوای مهم وبسایت شما را به طور کامل درک و فهرستبندی کنند.
کنترل سرعت crawl: میتوانید از robots.txt برای کنترل سرعت crawl وبسایتتان توسط موتورهای جستجو استفاده کنید. این میتواند به جلوگیری از بارگذاری بیش از حد سرور شما توسط رباتها کمک کند.
نحوه نوشتن فایل robots.txt:
فایل robots.txt از دستورات سادهای تشکیل شده است که هر کدام معنای خاصی دارند.
دستورات رایج:
User-agent: این دستور مشخص میکند که دستورات robots.txt برای کدام رباتها اعمال میشود.
Disallow: این دستور مشخص میکند که رباتها مجاز به crawl شدن کدام صفحات نیستند.
Allow: این دستور مشخص میکند که رباتها مجاز به crawl شدن کدام صفحات هستند.
Crawl-delay: این دستور مشخص میکند که رباتها باید چه مقدار صبر کنند تا دوباره یک صفحه را crawl کنند.
این مثال به تمام رباتها (User-agent: *) اجازه میدهد که صفحات وبسایت را crawl کنند، به جز صفحات موجود در پوشههای admin و private. رباتها همچنین مجاز به crawl کردن صفحات موجود در پوشه images هستند. Crawl-delay 5 به رباتها میگوید که باید 5 ثانیه بین crawl کردن صفحات صبر کنند.
نکات مهم:
فایل robots.txt حساس به حروف بزرگ و کوچک است.
فایل robots.txt باید در ریشه وبسایت شما قرار بگیرد.
شما میتوانید از ابزارهای آنلاین برای تست و بررسی فایل robots.txt خود استفاده کنید.
جمعبندی
فایل robots.txt ابزاری قدرتمند برای کنترل نحوه crawl و فهرستبندی وبسایت شما توسط موتورهای جستجو است. با استفاده از robots.txt میتوانید صفحات مهم وبسایتتان را به موتورهای جستجو معرفی کنید، از crawl شدن صفحات غیرضروری جلوگیری کنید و سرعت crawl وبسایتتان را کنترل کنید.