فایل Robots.txt یکی از مهمترین ابزارهای کنترل دسترسی در وبسایتها است که به موتورهای جستجو میگوید کدام بخشهای سایت را بخزند و کدام بخشها را نادیده بگیرند. در این مقاله با ساختار، کاربرد و نحوه تنظیم صحیح این فایل آشنا میشوید.
Robots.txt یک فایل متنی است که در ریشهی سایت (مانند: www.example.com/robots.txt) قرار میگیرد و وظیفه آن ارائه دستورالعمل به خزندههای موتور جستجو (مثل گوگل و بینگ) است. این فایل نقش حیاتی در
بهینهسازی بودجه خزش (Crawl Budget) و جلوگیری از دسترسی به صفحات غیرضروری دارد.
در فایل Robots.txt میتوان از چند دستور استفاده کرد. در ادامه به مهمترین آنها اشاره میکنیم:
این دستور تعیین میکند که دستورات مربوط به کدام خزنده (مانند Googlebot یا Bingbot) اعمال شوند.
plaintextCopy codeUser-agent: Googlebot
این دستور به خزندهها میگوید که نباید به بخش خاصی از سایت دسترسی داشته باشند.
plaintextCopy codeDisallow: /admin/ Disallow: /cart/
این دستور برای اجازه دادن به خزش بخشی از سایت استفاده میشود، حتی اگر سطح بالاتر آن بلاک شده باشد.
plaintextCopy codeAllow: /blog/public-page/
این دستور به خزندهها محل نقشه سایت (Sitemap) را معرفی میکند.
plaintextCopy codeSitemap: https://example.com/sitemap.xml
plaintextCopy codeUser-agent: * Disallow: /wp-admin/ Disallow: /checkout/ Allow: /wp-admin/admin-ajax.php Sitemap: https://example.com/sitemap.xml
در این مثال:
*
) اجازه داده شده که سایت را بخزند، اما بخشهای مدیریتی و پرداخت مسدود شدهاند.گوگل ابزار Google Search Console را برای تست و عیبیابی فایل Robots.txt ارائه کرده است. میتوانید وارد حساب GSC شوید و با استفاده از بخش URL Inspection بررسی کنید که فایل شما به درستی تنظیم شده باشد.
فایل Robots.txt یکی از ابزارهای ساده اما بسیار کاربردی در سئو است که به کمک آن میتوانید خزش موتورهای جستجو را مدیریت کرده و بودجه خزش را بهینه کنید. با تنظیم صحیح این فایل، هم دسترسی به صفحات غیرضروری را محدود و هم به بهبود رتبه سایت در موتورهای جستجو کمک میکنید.
منبع:سئو دانش