Soheil Rahmat
Soheil Rahmat
خواندن ۱ دقیقه·۵ سال پیش

آفلاین کردن وبسایت با WGET

هرکسی که چند وقت توی دنیای لینوکسی زندگی کرده یا با bash آشنایی داره،‌ احتمال خیلی زیاد با ابزار wget یکی دوباری کار کرده. اولی که من با wget آشنا شدم فکر می‌کردم که فقط ابزار دانلود ساده باشه و نه بیشتر تا این که با ویژگی‌های خوبش آشنا شدم.

خب مسلما هرکسی توی حوزه وب حضور داشته باشه، نیاز داشته یک موقع هایی یک سایتی رو آفلاین داشته باشه (این موضوع رو به فال نیک میگیریم و تصور میکنیم که میخوایم سایت رو آفلاین داشته باشیم که اگر یک زمانی دستشون خورد اینترنت قطع شد بتونیم به محتوای سایت دسترسی داشته باشیم!)

توی این زمینه خیلی ابزار معرفی شده مثل HTTrack ولی خوب چه نیازی هست به این ابزار ها تا زمانی که می‌تونیم با یک دستور ساده کل محتوای یک سایت همراه با صفحات داخلی اون سایت رو یکجا داشته باشیم؟

کل کاری که قراره بکنیم اینه که یکی از دو دستور زیر رو انتخاب کنید و ادرس http://example.com رو با آدرس سایتی که قراره کپیش کنیم عوض کنیم!

wget -mkEpnp http://example.org

با جزییات

wget --mirror --convert-links --adjust-extension --page-requisites --no-parent http://example.org


پی‌نوشت ۱: این دستور کل فایل های css و js رو دانلود میکنه و داخل فایل های html که از صفحات درست کرده ادرس این فایل ها رو به نسخه محلی تغییر میده!

پی‌نوشت ۲: این ابزار برای کاربران ویندوزی به صورت پیش فرض در دسترس نیست ولی میتونین از اینجا دانلودش کنین!

نرم افزاربرنامه نویسیلینوکسدانلود
ما در مقابل پیشرفت و افزایش علم در جامعه خودمون مسئولیم.
شاید از این پست‌ها خوشتان بیاید