
هوش مصنوعی در چند سال اخیر به سرعت وارد زندگی روزمره ما شده است؛ از نوشتن متن و ترجمه گرفته تا طراحی تصویر و حتی ارائه مشاوره حقوقی. با این حال، در کنار تمام این دستاوردها، یک مشکل اساسی وجود دارد که بسیاری از کاربران و حتی شرکتها را غافلگیر کرده است: توهمات (Hallucinations). این پدیده به معنای تولید اطلاعات غلط یا ساختگی توسط هوش مصنوعی است، آن هم با اعتمادبهنفس کامل. در این مقاله، توهمات هوش مصنوعی را بررسی میکنیم: از تعریف و انواع آن گرفته تا علل، راهکارها و تأثیرش بر کسبوکارها.
توهم زمانی رخ میدهد که یک مدل هوش مصنوعی محتوایی تولید کند که نادرست باشد، اما آن را با اعتماد کامل ارائه دهد. این پاسخها معمولاً بهگونهای نوشته میشوند که بسیار قانعکننده به نظر برسند، اما در واقعیت هیچ پایهای ندارند. ویژگی مهم دیگر توهم این است که غیرقابل پیشبینی است؛ یعنی کاربر نمیتواند حدس بزند چه زمانی مدل به جای حقیقت، محتوای ساختگی تحویل میدهد.
تصور کنید از یک چتبات میپرسید «نویسنده کتاب شازده کوچولو چه کسی است؟» و مدل پاسخ میدهد «ژول ورن». نه تنها اشتباه است، بلکه مدل آن را با قطعیت کامل بیان میکند. همین ترکیب اطلاعات غلط + اعتمادبهنفس کاذب + غیرقابل پیشبینی بودن، تعریف دقیقی از توهمات هوش مصنوعی است.
یکی از جذابترین بخشهای بررسی توهمات، مشاهده نمونههای واقعی آن است؛ مواردی که نشان میدهند حتی بزرگترین شرکتها هم از این خطر مصون نیستند.
۱. حقایق ساختگی
نمونه معروفی در سال ۲۰۲۳ رخ داد؛ دو وکیل آمریکایی برای تهیه لایحه دادگاهی از ChatGPT کمک گرفتند. مدل با اعتماد کامل چندین پرونده حقوقی را به آنها معرفی کرد، اما مشکل اینجا بود که هیچکدام از آن پروندهها وجود خارجی نداشتند! دادگاه بهسرعت متوجه شد و آن دو وکیل را جریمه کرد. این مثال نشان میدهد که هوش مصنوعی میتواند به ظاهر معتبرترین اطلاعات را جعل کند.
مثال دیگر، زمانی بود که از GPT-4 خواسته شد فهرستی از کتابهایی با طولانیترین کلمات ارائه کند. مدل کتابهایی با عناوین عجیب و بلند لیست کرد، اما وقتی بررسی شد مشخص شد هیچکدام از آنها واقعاً وجود ندارند.
۲. تعبیر غلط دادهها
گوگل در سال ۲۰۲۴ ویژگی جدیدی به نام AI Overview معرفی کرد که قرار بود خلاصهای هوشمند از اطلاعات وب را به کاربران نمایش دهد. اما در مواردی خروجی آن بسیار عجیب بود: مثلاً پیشنهاد میکرد که برای دریافت کلسیم بیشتر «سنگ بخورید» یا برای درست کردن پیتزا از «چسب» استفاده کنید! دلیل این خطاها برداشت نادرست از دادههای پراکنده و غیرمعتبر اینترنتی بود.
۳. راهحلهای اشتباه
توهمات گاهی به صورت ارائه راهحلهای نادرست ظاهر میشوند. برای مثال، وقتی از مدل تصویری DALL·E خواسته شد تصویری از «اتاقی بدون فیل» تولید کند، نتیجه تصویری بود که یک فیل غولپیکر وسط اتاق داشت. جالبتر اینکه وقتی کاربر به این موضوع اعتراض کرد، مدل همچنان اصرار داشت که تصویر «بدون فیل» است! این نوع رفتار نشان میدهد که مدلها در درک دقیق مفاهیم انتزاعی دچار ضعف جدی هستند.
در حوزه مسائل منطقی هم چنین خطاهایی دیده شده است. به عنوان مثال، وقتی معمای معروف «کشاورز، گرگ، بز و کلم» به مدل داده شد، در بسیاری از مواقع مدل با قاطعیت راهحل اشتباه ارائه داد، بدون اینکه متوجه تناقض در پاسخ خود شود.
۴. اعتمادبهنفس بیشازحد
مدلها معمولاً پاسخهای خود را بدون هیچگونه تردید ارائه میدهند. حتی وقتی کاربر اشتباه را گوشزد میکند، گاهی مدل بر همان پاسخ اشتباه اصرار دارد. این اعتمادبهنفس کاذب میتواند کاربران غیرمتخصص را بهشدت گمراه کند.
۵. غیرقابل پیشبینی بودن
گاهی حتی سؤالات بسیار ساده میتواند باعث بروز توهم شود. برای مثال، وقتی از مدلی پرسیده شد «۹.۱۱ بزرگتر است یا ۹.۹؟» پاسخ در بعضی مواقع «۹.۱۱» بود و در برخی موارد «۹.۹». تنها تفاوت، نحوه نوشتن سؤال بود. این رفتار غیرقابل پیشبینی، استفاده مطمئن از مدلها را دشوار میکند.
یکی از پرسشهای کلیدی این است: چرا مدلهای به ظاهر پیشرفتهای مثل GPT یا Claude دچار چنین اشتباهاتی میشوند؟
۱. مدلهای ناکافی از جهان
مدلهای زبانی بزرگ (LLMها) برخلاف انسان هیچ تجربه مستقیمی از دنیای واقعی ندارند. آنها نمیدانند آب خیس است یا سنگ سخت؛ تنها بر اساس الگوهای آماری از متنهایی که دیدهاند پیشبینی میکنند. به همین دلیل، وقتی با شرایط ناشناخته روبهرو شوند، احتمالاً خروجی خیالی تولید میکنند.
۲. اهداف نادرست یا ناسازگار
گاهی مشکل به نحوه استفاده از مدل برمیگردد. فرض کنید مدلی برای پیشبینی خرید یک تیشرت ۱۰ دلاری آموزش دیده است. حالا از همان مدل میخواهیم پیشبینی کند که اگر قیمت تیشرت ۱۵ دلار شود، چه اتفاقی میافتد. چون مدل هیچ تجربهای از دادههای ۱۵ دلاری ندارد، خروجی آن بیشتر شبیه توهم خواهد بود تا پیشبینی واقعی.
این مشکل در حوزههای دیگر هم دیده میشود؛ مثل استفاده از مدلهای ترجمه عمومی برای متون حقوقی، یا مدلهای پزشکی آموزشدیده در یک کشور برای بیماران کشوری دیگر با شرایط ژنتیکی متفاوت.
۳. ذات معماری LLMها
بنا به گفتهی یان لکون (Yann LeCun)، یکی از پیشگامان هوش مصنوعی، مشکل اصلی از معماری فعلی LLMهاست. چون این مدلها بر پایه پیشبینی کلمه بعدی (autoregressive) ساخته شدهاند، ذاتاً مستعد خطا و توهم هستند. حتی اگر حجم دادههای آموزشی بینهایت باشد، باز هم این مشکل کاملاً رفع نخواهد شد.
پاسخ کوتاه این است: نه، حداقل در آینده نزدیک.
دلیلش ساده است: دادههای عمومی اینترنتی تقریباً تمام شدهاند. حتی اگر دادههای جدید و بیشتر هم جمعآوری شود، بهبود کیفیت مدلها خطی یا بسیار محدود خواهد بود (پدیده بازده کاهشی). بنابراین، صرفاً با افزایش داده نمیتوان توهمات را حذف کرد.
تنها راه واقعی، نوآوریهای بنیادی در معماری مدلهاست. شاید در آینده مدلهایی ساخته شوند که فراتر از پیشبینی کلمه بعدی عمل کنند و درکی عمیقتر از جهان داشته باشند. اما تا آن زمان، توهمات بخشی جدانشدنی از هوش مصنوعی خواهند بود.
اگرچه حذف کامل توهمات فعلاً ممکن نیست، اما راهکارهایی برای کاهش آنها وجود دارد:
بهبود مدلها و دادهها: پاکسازی دادههای آموزشی و استفاده از بازخورد انسانی (RLHF) میتواند کیفیت خروجی را بالا ببرد.
مهندسی پرامپت: روشهایی مثل chain-of-thought prompting، که مدل را وادار میکند مرحله به مرحله استدلال کند، میتواند احتمال خطا را کاهش دهد.
RAG (بازیابی و تقویت): در این روش اسناد واقعی در پرامپت به مدل داده میشود تا پاسخ بر اساس اطلاعات معتبر تولید شود.
چند-عاملی (Multi-agent AI): در این روش چند مدل با نقشهای متفاوت (مثل نویسنده و بازبین) روی یک مسئله کار میکنند و خطاها کاهش مییابد.
تشخیص خودکار توهمات: با بررسی احتمال خروجیها، میتوان ریسک توهم را تشخیص داد؛ مثلاً اگر مدلی با احتمال بسیار پایین پاسخی تولید کند، احتمال توهم بالاست.
توهمات تنها مشکل فنی نیستند؛ آنها میتوانند تبعات حقوقی و اقتصادی سنگینی هم داشته باشند.
چتبات ایرلاین: یک شرکت هواپیمایی از چتبات برای پاسخگویی به مشتریان استفاده کرد. این چتبات اطلاعات نادرستی درباره قوانین بازپرداخت ارائه داد و دادگاه شرکت را مجبور کرد طبق همان اطلاعات اشتباه عمل کند. نتیجه؟ شرکت چتبات را خاموش کرد.
خودروهای خودران: بارها گزارش شده که خودروهای خودران به دلیل توهم در شرایط خاص دچار حادثه شدهاند. برای مثال، در یک مورد کامیون یدککش را تشخیص ندادند و منجر به تصادف شدند. همین خطاها باعث شده بسیاری از شرکتهای میلیارددلاری در این حوزه پروژههای خود را متوقف یا محدود کنند.
این مثالها نشان میدهند که اگر توهمات مدیریت نشوند، میتوانند کل یک کسبوکار را به خطر بیندازند.
توهمات هوش مصنوعی یکی از بزرگترین چالشهای دنیای امروز فناوری هستند. آنها زمانی رخ میدهند که مدل اطلاعات غلط را با اعتمادبهنفس و به شکلی غیرقابل پیشبینی ارائه میدهد. انواع مختلفی از توهمات وجود دارد؛ از حقایق ساختگی گرفته تا راهحلهای اشتباه. ریشه آنها در محدودیت مدلها، اهداف ناسازگار و ذات معماری LLMهاست.
این مشکل حتی با دادههای نمایی هم از بین نخواهد رفت، و تنها راه کاهش آنها استفاده از روشهایی مثل مهندسی پرامپت، RAG و سیستمهای چندعاملی است. در نهایت، برای کسبوکارها مهمترین نکته این است که بدانند توهمات واقعیاند و باید طراحی محصول یا خدماتشان بهگونهای باشد که حتی اگر AI اشتباه کرد، نتیجه فاجعهبار نباشد.
خلاصه کامل کتاب به زبان فارسی: https://youtu.be/1TzRzbLEE0I?si=pS__IZH5SUOQwvHF