در این قسمت یک راهنمای شروع برای کمک به افراد مبتدی در جهت استفاده از نرم افزار Screaming Frog SEO Spider طراحی شده است. این راهنما مواردی نظیر راه اندازی اولیه ی نرم افزار، نحوه ی Crawl کردن (اسکریپت ربات های اتوماتیک) در پایگاه های داده و مشاهده گزارش ها و مسائل کشف شده را ارائه می دهد. در ابتدا برنامه را دانلود نمایید. این نرم افزار برای سیستم عامل Windows، MacOS و Ubuntu قابل نصب می باشد.
پس از دانلود Screaming Frog آن را نصب کنید. با انجام مراحل زیر شما می توانید در این نرم افزار لایسنس یا مجوز پولی آن را خریداری کنید. البته شما می توانید از نسخه ی رایگان این نرم افزار استفاده کنید. در این صورت مرحله ی راه اندازی لایسنس را نادیده بگیرید. خریداری لایسنس امکان Crawl کردن بیش از ۵۰۰ URL، ذخیره و باز کردن مجدد Crawl و دسترسی به ویژگی های پیشرفته ی نرم افزار را در اختیار شما قرار می دهد. پس از خریداری لایسنس برنامه، یک نام کاربری و رمز عبور در اختیار شما قرار می گیرد. برای فعال سازی آن، پس از ورود به برنامه ی Screaming Frog طبق تصویر زیر، ابتدا در قسمت نوار ابزار روی گزینه ی “Licence” کلیک کنید. سپس در قسمت “Enter Licence Key” رمز را وارد نمایید
اگر از نسخه ی رایگان Screaming Frog استفاده می کنید یا فقط می خواهید به Crawl کردن بپردازید، این مرحله را نادیده بگیرید. در صورتی که از نسخه ی پولی استفاده می کنید، از ابتدا مواردی که در ادامه بیان می شوند را لحاظ کنید. اگر SSD دارید، باید به قسمت Database Storage modeبروید. مانند تصویر، ابتدا به Configuration و بعد به System و بعد به Storage Mode بروید. در انتها از قسمت Mode گزینه ی”Database Storage” را انتخاب کنید (تصویر ۲). اگر SSD ندارید، در حالت “RAM storage mode” بمانید. در این حالت نیز همچنان می توانید Crawl ها را ذخیره کنید و اگر مقدار زیادی رم در دسترس دارید، URL های بیشتری را Crawl کنید.
دو حالت اصلی برای Crawl کردن وجود دارد. حالت پیش فرض Spider که یک وبسایت را Crawl می کند، و گزینه ی List یا فهرست که به شما این امکان را می دهد تا فهرستی از URL هایی را که باید Crawl شوند، آپلود کنید. می توانید مانند تصویر زیر با وارد کردن صفحه ی اصلی مد نظرتان در قسمت”Enter URL to spider” و کلیک کردن روی گزینه ی Start یک Spider crawl معمولی را در Screaming Frog شروع کنید (تصویر ۳). با این کار می توان URL وارد شده و همه URL هایی را که از طریق لینک های موجود در HTML صفحات در همان زیر دامنه پیدا می شوند را بررسی و Crawl کرد.
ادامه در سایت سئورب