فایل robots.txt یک فایل متنی ساده است که در ریشه (root) وبسایت شما قرار میگیرد و به موتورهای جستجو و سایر رباتهای وب دستور میدهد که چگونه صفحات وبسایت شما را crawl و فهرستبندی کنند.
در این مقاله، به معرفی ساختار و کاربردهای فایل robots.txt میپردازیم و به شما یاد میدهیم که چگونه از این فایل برای بهبود سئو سایت و هدایت رباتهای جستجوگر استفاده کنید.
فایل robots.txt از دستورات سادهای تشکیل شده است که هر کدام معنای خاصی دارند.
دستورات رایج:
مثال:
User-agent: * Disallow: /admin/ Disallow: /private/ Allow: /images/ Crawl-delay: 5
این مثال به تمام رباتها (User-agent: *) اجازه میدهد که صفحات وبسایت را crawl کنند، به جز صفحات موجود در پوشههای admin و private. رباتها همچنین مجاز به crawl کردن صفحات موجود در پوشه images هستند. Crawl-delay 5 به رباتها میگوید که باید 5 ثانیه بین crawl کردن صفحات صبر کنند.
فایل robots.txt ابزاری قدرتمند برای کنترل نحوه crawl و فهرستبندی وبسایت شما توسط موتورهای جستجو است. با استفاده از robots.txt میتوانید صفحات مهم وبسایتتان را به موتورهای جستجو معرفی کنید، از crawl شدن صفحات غیرضروری جلوگیری کنید و سرعت crawl وبسایتتان را کنترل کنید.