
این روزها اگر در فضای مجازی فعال باشید، احتمالاً با واژهای جدید به نام سلاپ (Slop) برخورد کردهاید. سلاپ به استفاده بیش از حد، بیرویه و بیکیفیت از هوش مصنوعی برای تولید محتوا گفته میشود و به کسانی که این کار را انجام میدهند، سلاپر (Slopper) میگویند. این پدیده، که در ابتدا یک ایده جذاب برای تولید محتوای خودکار به نظر میرسید، در حال تبدیل شدن به بزرگترین تهدید برای سلامت و اعتبار اینترنت است.
حقیقت این است که هوش مصنوعی، با تمام پیشرفتهایش، هنوز ابزاری ناقص است و استفاده کورکورانه از آن، فضای مجازی را به گند کشیده است. آمارها تکاندهندهاند: همین حالا در بیش از ۷۰٪ وبلاگهای انگلیسیزبان، هوش مصنوعی به نوعی دخیل است و بیش از ۱۰۰ وبسایت خبری بدون هیچگونه نظارت انسانی، بهطور کامل توسط AI اداره میشوند.
اینجاست که مرز باریک بین خلق ارزش و نابودی ارزش با هوش مصنوعی مشخص میشود.
بیایید از جنبه ترسناک داستان شروع کنیم. مدلهای اولیه هوش مصنوعی، توهمات (Hallucinations) خندهداری داشتند. مثلاً هوش مصنوعی جمینای (Gemini)، یا همان بارد سابق، در یکی از مکالماتش به کاربر پیشنهاد داده بود که برای تأمین ویتامین و مواد معدنی، روزی یک سنگ کوچک بخورد یا برای اینکه پنیر پیتزا بیشتر کش بیاید، روی آن چسب بزند!
این توصیههای مضحک به راحتی قابل تشخیص بودند. اما مشکل اینجاست که مدلهای امروزی آنقدر قشنگ و جذاب دروغ و توهم تولید میکنند که فقط یک متخصص میتواند نادرستی آنها را تشخیص دهد.
مشکل اساسی اینجاست که "درست نوشتن" با "درست بودن" فرق دارد. مدلهای زبانی هوش مصنوعی، مفهوم پشت جملات را درک نمیکنند. آنها مانند طوطیهایی هستند که الگوهای آماری را از روی میلیاردها داده یاد گرفتهاند و صرفاً کلماتی را که بلدند، به شکلی منطقی کنار هم تکرار میکنند. آنها هیچ ایدهای ندارند که واقعاً دارند چه میگویند.
این پدیده باعث شده اینترنت به تدریج پر شود از متنهایی که ظاهر دقیق و علمی دارند، اما باطنشان خالی و بدون پشتوانه است. به این واقعه حقیقت مصنوعی (Synthetic Truth) میگویند.
وقتی میلیونها مقاله ساختگی توسط AI منتشر میشوند و موتورهای جستجو هم از همان مقالات برای آموزش مدلهای بعدی هوش مصنوعی استفاده میکنند، وارد یک چرخه بسیار خطرناک میشویم: مسمومیت دادهها (Data Poisoning).
فکرش را بکنید:
یک مدل زبانی برای توجیه حرفش، یک مقاله علمی خیالی اختراع میکند که اصلاً وجود خارجی ندارد.
چون این مقاله ظاهراً واقعی به نظر میرسد، وارد دادههای آموزشی نسل بعدی هوش مصنوعی میشود.
حالا آن مقاله جعلی، به یک مرجع معتبر برای مدلهای جدیدتر تبدیل میشود!
نتیجه چیست؟ اطلاعات روزبهروز کثیفتر و نادرستتر میشوند. عین یک دومینو که با یک قطعه دروغ شروع میشود و در نهایت کل اینترنت را آلوده میکند.
چندی پیش، ردیت اعتراف کرد که از چتباتها برای تولید هزاران کامنت استفاده کرده است؛ نه برای اسپم، بلکه برای "فعال نگه داشتن بحثها". نتیجه فاجعهبار بود: مکالمات واقعی بین آدمها کم شد. کاربران کمکم حس کردند دارند با دیوار صحبت میکنند، نه با یک انسان واقعی. چون باتها دیگر به صحبتها پاسخ متقابل و معنادار نمیدادند. این یعنی حذف تدریجی عنصر انسانی از فضاهای گفتگو.
مشکل سلاپ فقط به محتوای متنی محدود نمیشود. ابزارهایی مانند Sora 2 از شرکت OpenAI، ویدیوهایی با جزئیات خیرهکننده تولید میکنند. اگر واترمارک کوچک گوشه تصویر را نبینید، به سادگی فریب میخورید و فکر میکنید ویدیو واقعی است. این موضوع در مورد تصاویر نیز صدق میکند و میتواند به ابزاری قدرتمند برای تولید انبوه فریب و اطلاعات نادرست تبدیل شود.
اگر هوش مصنوعی انقدر خطرناک است، چرا هنوز باید از آن استفاده کنیم؟
مسئله، خطر یا فایده نیست؛ مسئله چطور استفاده کردن است. هوش مصنوعی ذاتاً نه خوب است و نه بد؛ یک ابزار است، درست مانند یک چاقو.
خلق ارزش: یعنی استفاده از AI برای افزایش بهرهوری، آموزش، درمان، کشف علمی یا رشد اقتصادی. یعنی جایی که انسان هنوز تصمیمگیرنده نهایی است و AI فقط یک دستیار کمکی است. مثلاً وقتی برای ساخت یک فوتیج ویدیویی گرانقیمت، از یک پرامپت ساده استفاده میکنیم، در زمان و هزینه صرفهجویی کردهایم.
نابود کردن ارزش: یعنی زمانی که انسان از معادله حذف میشود. وقتی دیگر کسی فکتچک نمیکند و محتوا فقط به صورت "یلخی" و انبوه تولید میشود. اینجاست که اینترنت به یک زبالهدان دیجیتال تبدیل میشود.
با وجود همه اینها، آینده لزوماً تاریک نیست. تاریخ نشان داده که هر فناوری بزرگ در ابتدا قوانین درستی نداشته، اما بعد از مدتی مسیر خود را پیدا کرده است. جامعه علمی و تکنولوژیک در حال تلاش برای بازگرداندن کنترل است:
قانونگذاری: اتحادیه اروپا با قانون هوش مصنوعی (AI Act) در حال شفاف و محدود کردن استفاده از مدلهای مولد است.
امضای دیجیتال (Watermarking): شرکتهایی مانند OpenAI و DeepMind روی روشهایی کار میکنند تا مشخص شود یک متن یا تصویر توسط AI تولید شده است یا نه.
سیاستهای پلتفرمها: پلتفرمهایی مانند Stack Overflow و ویکیپدیا سیاستهای سختگیرانهای برای جلوگیری از انتشار محتوای تولیدشده توسط AI اتخاذ کردهاند.
اما قانون فقط بخشی از ماجراست. بخش اصلی، آگاهی ما انسانهاست. اگر یاد بگیریم فرق بین محتوای انسانی و ماشینی را تشخیص دهیم، اگر دوباره شک کنیم و تحقیق کنیم و صرفاً چون یک متن خوشفرم جلوی ما گذاشته شده آن را باور نکنیم، آن موقع میتوانیم از AI برای خلق ارزش واقعی استفاده کنیم، نه نابود کردن حقیقت.
هوش مصنوعی بزرگترین چاقوی دو لبه تاریخ بشر است. یک سمت آن علم، پیشرفت و رفاه ایستاده و سمت دیگرش دروغ، سطحیگرایی و فریب جمعی.
انتخاب ساده است: یا میتوانیم از AI برای بالا بردن کیفیت زندگی، علم و هنر استفاده کنیم، یا اجازه دهیم تبدیل به یک کارخانه بیروح برای تولید محتوای زباله شود که دیگر هیچکس به آن اعتماد ندارد.
در نهایت، این ماییم که باید افسار هوش مصنوعی را در دست بگیریم، نه برعکس. چون منبع خلاقیت و نوآوری، خود انسانها هستند.
هوش مصنوعی ابزار خلق است، اما فقط تا وقتی که انسان هنوز خالق باقی بماند. به محض اینکه انسان حذف شود، دیگر چیزی به اسم دانش انسانی باقی نمیماند؛ فقط یک سراب بزرگ از میلیاردها جمله تکراری که پشت هیچکدامشان هیچ معنای درستی وجود ندارد.