هرکسی که چند وقت توی دنیای لینوکسی زندگی کرده یا با bash آشنایی داره، احتمال خیلی زیاد با ابزار wget یکی دوباری کار کرده. اولی که من با wget آشنا شدم فکر میکردم که فقط ابزار دانلود ساده باشه و نه بیشتر تا این که با ویژگیهای خوبش آشنا شدم.
خب مسلما هرکسی توی حوزه وب حضور داشته باشه، نیاز داشته یک موقع هایی یک سایتی رو آفلاین داشته باشه (این موضوع رو به فال نیک میگیریم و تصور میکنیم که میخوایم سایت رو آفلاین داشته باشیم که اگر یک زمانی دستشون خورد اینترنت قطع شد بتونیم به محتوای سایت دسترسی داشته باشیم!)
توی این زمینه خیلی ابزار معرفی شده مثل HTTrack ولی خوب چه نیازی هست به این ابزار ها تا زمانی که میتونیم با یک دستور ساده کل محتوای یک سایت همراه با صفحات داخلی اون سایت رو یکجا داشته باشیم؟
کل کاری که قراره بکنیم اینه که یکی از دو دستور زیر رو انتخاب کنید و ادرس http://example.com رو با آدرس سایتی که قراره کپیش کنیم عوض کنیم!
wget -mkEpnp http://example.org
با جزییات
wget --mirror --convert-links --adjust-extension --page-requisites --no-parent http://example.org
پینوشت ۱: این دستور کل فایل های css و js رو دانلود میکنه و داخل فایل های html که از صفحات درست کرده ادرس این فایل ها رو به نسخه محلی تغییر میده!
پینوشت ۲: این ابزار برای کاربران ویندوزی به صورت پیش فرض در دسترس نیست ولی میتونین از اینجا دانلودش کنین!