ویرگول
ورودثبت نام
مریم حسنعلی
مریم حسنعلیدکترای مهندسی کامپیوتر علاقمند و فعال به پژوهش در حوزه های هوش مصنوعی و یادگیری ماشین و ... کانال من در یوتیوب: @DataVersal کانال من در تلگرام: @meteorjournal ایمیل من:maryam.hasanali@gmail
مریم حسنعلی
مریم حسنعلی
خواندن ۶ دقیقه·۳ ماه پیش

توهمات هوش مصنوعی؛ وقتی ماشین با اطمینان دروغ می‌گوید

هوش مصنوعی در چند سال اخیر به سرعت وارد زندگی روزمره ما شده است؛ از نوشتن متن و ترجمه گرفته تا طراحی تصویر و حتی ارائه مشاوره حقوقی. با این حال، در کنار تمام این دستاوردها، یک مشکل اساسی وجود دارد که بسیاری از کاربران و حتی شرکت‌ها را غافلگیر کرده است: توهمات (Hallucinations). این پدیده به معنای تولید اطلاعات غلط یا ساختگی توسط هوش مصنوعی است، آن هم با اعتمادبه‌نفس کامل. در این مقاله، توهمات هوش مصنوعی را بررسی می‌کنیم: از تعریف و انواع آن گرفته تا علل، راهکارها و تأثیرش بر کسب‌وکارها.

تعریف توهمات در هوش مصنوعی

توهم زمانی رخ می‌دهد که یک مدل هوش مصنوعی محتوایی تولید کند که نادرست باشد، اما آن را با اعتماد کامل ارائه دهد. این پاسخ‌ها معمولاً به‌گونه‌ای نوشته می‌شوند که بسیار قانع‌کننده به نظر برسند، اما در واقعیت هیچ پایه‌ای ندارند. ویژگی مهم دیگر توهم این است که غیرقابل پیش‌بینی است؛ یعنی کاربر نمی‌تواند حدس بزند چه زمانی مدل به جای حقیقت، محتوای ساختگی تحویل می‌دهد.

تصور کنید از یک چت‌بات می‌پرسید «نویسنده کتاب شازده کوچولو چه کسی است؟» و مدل پاسخ می‌دهد «ژول ورن». نه تنها اشتباه است، بلکه مدل آن را با قطعیت کامل بیان می‌کند. همین ترکیب اطلاعات غلط + اعتمادبه‌نفس کاذب + غیرقابل پیش‌بینی بودن، تعریف دقیقی از توهمات هوش مصنوعی است.

انواع توهمات

یکی از جذاب‌ترین بخش‌های بررسی توهمات، مشاهده نمونه‌های واقعی آن است؛ مواردی که نشان می‌دهند حتی بزرگ‌ترین شرکت‌ها هم از این خطر مصون نیستند.

۱. حقایق ساختگی

نمونه معروفی در سال ۲۰۲۳ رخ داد؛ دو وکیل آمریکایی برای تهیه لایحه دادگاهی از ChatGPT کمک گرفتند. مدل با اعتماد کامل چندین پرونده حقوقی را به آن‌ها معرفی کرد، اما مشکل اینجا بود که هیچ‌کدام از آن پرونده‌ها وجود خارجی نداشتند! دادگاه به‌سرعت متوجه شد و آن دو وکیل را جریمه کرد. این مثال نشان می‌دهد که هوش مصنوعی می‌تواند به ظاهر معتبرترین اطلاعات را جعل کند.

مثال دیگر، زمانی بود که از GPT-4 خواسته شد فهرستی از کتاب‌هایی با طولانی‌ترین کلمات ارائه کند. مدل کتاب‌هایی با عناوین عجیب و بلند لیست کرد، اما وقتی بررسی شد مشخص شد هیچ‌کدام از آن‌ها واقعاً وجود ندارند.

۲. تعبیر غلط داده‌ها

گوگل در سال ۲۰۲۴ ویژگی جدیدی به نام AI Overview معرفی کرد که قرار بود خلاصه‌ای هوشمند از اطلاعات وب را به کاربران نمایش دهد. اما در مواردی خروجی آن بسیار عجیب بود: مثلاً پیشنهاد می‌کرد که برای دریافت کلسیم بیشتر «سنگ بخورید» یا برای درست کردن پیتزا از «چسب» استفاده کنید! دلیل این خطاها برداشت نادرست از داده‌های پراکنده و غیرمعتبر اینترنتی بود.

۳. راه‌حل‌های اشتباه

توهمات گاهی به صورت ارائه راه‌حل‌های نادرست ظاهر می‌شوند. برای مثال، وقتی از مدل تصویری DALL·E خواسته شد تصویری از «اتاقی بدون فیل» تولید کند، نتیجه تصویری بود که یک فیل غول‌پیکر وسط اتاق داشت. جالب‌تر اینکه وقتی کاربر به این موضوع اعتراض کرد، مدل همچنان اصرار داشت که تصویر «بدون فیل» است! این نوع رفتار نشان می‌دهد که مدل‌ها در درک دقیق مفاهیم انتزاعی دچار ضعف جدی هستند.

در حوزه مسائل منطقی هم چنین خطاهایی دیده شده است. به عنوان مثال، وقتی معمای معروف «کشاورز، گرگ، بز و کلم» به مدل داده شد، در بسیاری از مواقع مدل با قاطعیت راه‌حل اشتباه ارائه داد، بدون اینکه متوجه تناقض در پاسخ خود شود.

۴. اعتمادبه‌نفس بیش‌ازحد

مدل‌ها معمولاً پاسخ‌های خود را بدون هیچ‌گونه تردید ارائه می‌دهند. حتی وقتی کاربر اشتباه را گوشزد می‌کند، گاهی مدل بر همان پاسخ اشتباه اصرار دارد. این اعتمادبه‌نفس کاذب می‌تواند کاربران غیرمتخصص را به‌شدت گمراه کند.

۵. غیرقابل پیش‌بینی بودن

گاهی حتی سؤالات بسیار ساده می‌تواند باعث بروز توهم شود. برای مثال، وقتی از مدلی پرسیده شد «۹.۱۱ بزرگ‌تر است یا ۹.۹؟» پاسخ در بعضی مواقع «۹.۱۱» بود و در برخی موارد «۹.۹». تنها تفاوت، نحوه نوشتن سؤال بود. این رفتار غیرقابل پیش‌بینی، استفاده مطمئن از مدل‌ها را دشوار می‌کند.

چرا توهم رخ می‌دهد؟

یکی از پرسش‌های کلیدی این است: چرا مدل‌های به ظاهر پیشرفته‌ای مثل GPT یا Claude دچار چنین اشتباهاتی می‌شوند؟

۱. مدل‌های ناکافی از جهان

مدل‌های زبانی بزرگ (LLMها) برخلاف انسان هیچ تجربه مستقیمی از دنیای واقعی ندارند. آن‌ها نمی‌دانند آب خیس است یا سنگ سخت؛ تنها بر اساس الگوهای آماری از متن‌هایی که دیده‌اند پیش‌بینی می‌کنند. به همین دلیل، وقتی با شرایط ناشناخته روبه‌رو شوند، احتمالاً خروجی خیالی تولید می‌کنند.

۲. اهداف نادرست یا ناسازگار

گاهی مشکل به نحوه استفاده از مدل برمی‌گردد. فرض کنید مدلی برای پیش‌بینی خرید یک تی‌شرت ۱۰ دلاری آموزش دیده است. حالا از همان مدل می‌خواهیم پیش‌بینی کند که اگر قیمت تی‌شرت ۱۵ دلار شود، چه اتفاقی می‌افتد. چون مدل هیچ تجربه‌ای از داده‌های ۱۵ دلاری ندارد، خروجی آن بیشتر شبیه توهم خواهد بود تا پیش‌بینی واقعی.

این مشکل در حوزه‌های دیگر هم دیده می‌شود؛ مثل استفاده از مدل‌های ترجمه عمومی برای متون حقوقی، یا مدل‌های پزشکی آموزش‌دیده در یک کشور برای بیماران کشوری دیگر با شرایط ژنتیکی متفاوت.

۳. ذات معماری LLMها

بنا به گفته‌ی یان لکون (Yann LeCun)، یکی از پیشگامان هوش مصنوعی، مشکل اصلی از معماری فعلی LLMهاست. چون این مدل‌ها بر پایه پیش‌بینی کلمه بعدی (autoregressive) ساخته شده‌اند، ذاتاً مستعد خطا و توهم هستند. حتی اگر حجم داده‌های آموزشی بی‌نهایت باشد، باز هم این مشکل کاملاً رفع نخواهد شد.

آیا توهمات از بین خواهند رفت؟

پاسخ کوتاه این است: نه، حداقل در آینده نزدیک.

دلیلش ساده است: داده‌های عمومی اینترنتی تقریباً تمام شده‌اند. حتی اگر داده‌های جدید و بیشتر هم جمع‌آوری شود، بهبود کیفیت مدل‌ها خطی یا بسیار محدود خواهد بود (پدیده بازده کاهشی). بنابراین، صرفاً با افزایش داده نمی‌توان توهمات را حذف کرد.

تنها راه واقعی، نوآوری‌های بنیادی در معماری مدل‌هاست. شاید در آینده مدل‌هایی ساخته شوند که فراتر از پیش‌بینی کلمه بعدی عمل کنند و درکی عمیق‌تر از جهان داشته باشند. اما تا آن زمان، توهمات بخشی جدانشدنی از هوش مصنوعی خواهند بود.

چگونه می‌توان توهمات را کاهش داد؟

اگرچه حذف کامل توهمات فعلاً ممکن نیست، اما راهکارهایی برای کاهش آن‌ها وجود دارد:

  • بهبود مدل‌ها و داده‌ها: پاکسازی داده‌های آموزشی و استفاده از بازخورد انسانی (RLHF) می‌تواند کیفیت خروجی را بالا ببرد.

  • مهندسی پرامپت: روش‌هایی مثل chain-of-thought prompting، که مدل را وادار می‌کند مرحله به مرحله استدلال کند، می‌تواند احتمال خطا را کاهش دهد.

  • RAG (بازیابی و تقویت): در این روش اسناد واقعی در پرامپت به مدل داده می‌شود تا پاسخ بر اساس اطلاعات معتبر تولید شود.

  • چند-عاملی (Multi-agent AI): در این روش چند مدل با نقش‌های متفاوت (مثل نویسنده و بازبین) روی یک مسئله کار می‌کنند و خطاها کاهش می‌یابد.

  • تشخیص خودکار توهمات: با بررسی احتمال خروجی‌ها، می‌توان ریسک توهم را تشخیص داد؛ مثلاً اگر مدلی با احتمال بسیار پایین پاسخی تولید کند، احتمال توهم بالاست.

تأثیر توهمات بر مشاغل و کسب‌وکارها

توهمات تنها مشکل فنی نیستند؛ آن‌ها می‌توانند تبعات حقوقی و اقتصادی سنگینی هم داشته باشند.

چت‌بات ایرلاین: یک شرکت هواپیمایی از چت‌بات برای پاسخگویی به مشتریان استفاده کرد. این چت‌بات اطلاعات نادرستی درباره قوانین بازپرداخت ارائه داد و دادگاه شرکت را مجبور کرد طبق همان اطلاعات اشتباه عمل کند. نتیجه؟ شرکت چت‌بات را خاموش کرد.

خودروهای خودران: بارها گزارش شده که خودروهای خودران به دلیل توهم در شرایط خاص دچار حادثه شده‌اند. برای مثال، در یک مورد کامیون یدک‌کش را تشخیص ندادند و منجر به تصادف شدند. همین خطاها باعث شده بسیاری از شرکت‌های میلیارددلاری در این حوزه پروژه‌های خود را متوقف یا محدود کنند.

این مثال‌ها نشان می‌دهند که اگر توهمات مدیریت نشوند، می‌توانند کل یک کسب‌وکار را به خطر بیندازند.

جمع‌بندی

توهمات هوش مصنوعی یکی از بزرگ‌ترین چالش‌های دنیای امروز فناوری هستند. آن‌ها زمانی رخ می‌دهند که مدل اطلاعات غلط را با اعتمادبه‌نفس و به شکلی غیرقابل پیش‌بینی ارائه می‌دهد. انواع مختلفی از توهمات وجود دارد؛ از حقایق ساختگی گرفته تا راه‌حل‌های اشتباه. ریشه آن‌ها در محدودیت مدل‌ها، اهداف ناسازگار و ذات معماری LLMهاست.

این مشکل حتی با داده‌های نمایی هم از بین نخواهد رفت، و تنها راه کاهش آن‌ها استفاده از روش‌هایی مثل مهندسی پرامپت، RAG و سیستم‌های چندعاملی است. در نهایت، برای کسب‌وکارها مهم‌ترین نکته این است که بدانند توهمات واقعی‌اند و باید طراحی محصول یا خدماتشان به‌گونه‌ای باشد که حتی اگر AI اشتباه کرد، نتیجه فاجعه‌بار نباشد.

برگرفته از کتاب The AI Pocket Book نوشته امانوئل ماجوری

خلاصه کامل کتاب به زبان فارسی: https://youtu.be/1TzRzbLEE0I?si=pS__IZH5SUOQwvHF

هوش مصنوعییادگیری ماشین
۱۰
۵
مریم حسنعلی
مریم حسنعلی
دکترای مهندسی کامپیوتر علاقمند و فعال به پژوهش در حوزه های هوش مصنوعی و یادگیری ماشین و ... کانال من در یوتیوب: @DataVersal کانال من در تلگرام: @meteorjournal ایمیل من:maryam.hasanali@gmail
شاید از این پست‌ها خوشتان بیاید