آیا RAG می‌تواند مشکل توهم هوش‌مصنوعی را حل کند؟

آیا RAG مشکل توهم مدلهای زبانی را حل میکند؟
آیا RAG مشکل توهم مدلهای زبانی را حل میکند؟


اکنون نزدیک به یک سال و نیم است که در عصر شکوفایی هوش مصنوعی تولیدی زندگی می‌کنیم، پس از اینکه OpenAI در اواخر سال 2022 ChatGPT را منتشر کرد. اما علی‌رغم تأثیرات تحول‌آفرین بر قیمت سهام شرکت‌ها، ابزارهای هوش مصنوعی تولیدی که توسط مدل‌های زبان بزرگ (LLMs) پشتیبانی می‌شوند، هنوز معایب عمده‌ای دارند که مانع مفید بودن آنها به اندازه مورد انتظار بسیاری از افراد شده است. تولید افزایش یافته بازیابی، یا RAG، به دنبال رفع برخی از این معایب است.

شاید بارزترین عیب مدل‌های زبان بزرگ تمایل آنها به توهم‌پردازی (که "توهم" نیز نامیده می‌شود) باشد، که یک پدیده پر کردن شکاف آماری است که مدل‌های زبان هوش مصنوعی زمانی ایجاد می‌کنند که وظیفه آنها بازتولید دانشی است که در داده‌های آموزشی وجود ندارد. آنها متن قابل قبولی را تولید می‌کنند که ممکن است به سمت دقت منحرف شود زمانی که داده‌های آموزشی محکم باشند، اما در غیر این صورت ممکن است کاملا ساختگی باشند.

اتکا به مدل‌های هوش مصنوعی توهم‌پرداز افراد و شرکت‌ها را به دردسر می‌اندازد، همانطور که در گذشته پوشش داده‌ایم. در سال 2023، ما دو مورد از وکلایی را دیدیم که پرونده‌های حقوقی را ذکر کردند که توسط هوش مصنوعی اختراع شده بود و وجود نداشت. ما ادعاهایی را علیه OpenAI پوشش داده‌ایم که در آن ChatGPT توهم‌پردازی کرده و افراد بی‌گناه را متهم به انجام کارهای وحشتناکی کرده است. در فوریه، در مورد اختراع یک چت‌بات خدمات مشتری Air Canada یک سیاست بازپرداخت نوشتیم، و در مارس، یک چت‌بات شهر نیویورک به دلیل جعل مقررات شهری گیر افتاد.

بنابراین، اگر هوش مصنوعی تولیدی به دنبال تبدیل شدن به فناوری است که بشریت را به آینده پرتاب می‌کند، لازم است که کسی در طول مسیر چین و چروک‌های توهم‌پردازی را صاف کند. اینجاست که RAG وارد می‌شود. طرفداران آن امیدوارند که این تکنیک به تبدیل فناوری هوش مصنوعی تولیدی به دستیارهای قابل اعتماد کمک کند که می‌توانند بهره‌وری را بدون نیاز به یک انسان برای دو برابر کردن بررسی یا تردید در پاسخ‌ها، افزایش دهند.

نوآ جیانسیراکوسا، استاد ریاضی دانشگاه بنتلی می‌گوید: "RAG راهی برای بهبود عملکرد LLM است، به طور اساسی با ترکیب فرایند LLM با یک جستجوی وب یا سایر فرایندهای جستجوی اسناد" برای کمک به مدل‌های زبان بزرگ برای پایبندی به حقایق.

بیایید نگاهی دقیق‌تر به نحوه کارکرد و محدودیت‌های آن داشته باشیم.


یک چارچوب برای افزایش دقت هوش مصنوعی

اگرچه RAG اکنون به عنوان یک تکنیک برای کمک به رفع مشکلات هوش مصنوعی تولیدی در نظر گرفته می‌شود، اما در واقع قبل از ChatGPT وجود داشته است. محققان این اصطلاح را در یک مقاله علمی در سال 2020 توسط محققان فیس‌بوک AI Research (FAIR، اکنون Meta AI Research)، دانشگاه کالج لندن و دانشگاه نیویورک ابداع کردند.

همانطور که ذکر کردیم، مدل‌های زبان بزرگ با حقایق مشکل دارند. ورودی گوگل به مسابقه هوش مصنوعی تولیدی، Bard، یک اشتباه شرم‌آور در اولین نمایش عمومی خود در فوریه 2023 در مورد تلسکوپ فضایی جیمز وب داشت. این خطا حدود 100 میلیارد دلار از ارزش شرکت مادر آلفابت را پاک کرد. مدل‌های زبان بزرگ پاسخ احتمالی آماری را بر اساس داده‌های آموزشی خود تولید می‌کنند و چیزی را که خروجی می‌گیرند درک نمی‌کنند، به این معنی که ممکن است اطلاعاتی غلط ارائه دهند که اگر دانش تخصصی در مورد یک موضوع نداشته باشید، دقیق به نظر برسد.

مدل‌های زبان بزرگ همچنین فاقد دانش به روز و توانایی شناسایی شکاف‌های موجود در دانش خود هستند. جیانسیراکوسا گفت: «وقتی یک انسان سعی می‌کند به یک سؤال پاسخ دهد، می‌تواند به حافظه خود تکیه کند و به سرعت پاسخی ارائه دهد، یا می‌تواند کاری مثل گوگل کردن یا جستجو در ویکیپدیا را انجام دهد و سپس سعی کند پاسخی را از آنچه پیدا می‌کند، جمع کند. هنوز هم این اطلاعات را از دانش داخلی خود درباره این موضوع فیلتر می‌کند.»

اما مدل‌های زبان بزرگ، البته، انسان نیستند. داده‌های آموزشی آنها ممکن است به سرعت قدیمی شود، به ویژه در پرس و جوهایی که حساسیت زمانی بیشتری دارند. علاوه بر این، LLM اغلب نمی‌تواند منابع خاصی از دانش خود را تشخیص دهد، زیرا همه داده‌های آموزشی آن با هم ترکیب می‌شوند و نوعی سوپ ایجاد می‌کنند.

در تئوری، RAG باید به روزرسانی مدل‌های هوش مصنوعی را بسیار ارزان‌تر و آسان‌تر کند. پیترسون گفت: «زیبایی RAG این است که وقتی اطلاعات جدیدی در دسترس قرار می‌گیرد، به جای اینکه مجبور باشید مدل را دوباره آموزش دهید، همه کاری که لازم است انجام دهید این است که پایگاه دانش خارجی مدل را با اطلاعات به روزشده افزایش دهید.» "این زمان و هزینه توسعه LLM را کاهش می‌دهد در حالی که مقیاس‌پذیری مدل را بهبود می‌بخشد."

و به طور اساسی، مدل‌های هوش مصنوعی که از RAG استفاده می‌کنند اغلب می‌توانند منبع ادعاهای خود را ذکر کنند، زیرا اطلاعات آنها در داخل همان پایگاه داده برداری نگهداری می‌شود. اگر LLM پاسخی نادرست تولید کند و شناسایی شود، منبع آن اطلاعات نادرست می‌تواند در داخل پایگاه داده برداری شناسایی و حذف یا اصلاح شود.


کاربردهای بالقوه RAG

فراتر از مزایای کلی که تصور می‌شود RAG برای خروجی‌های هوش مصنوعی تولیدی فراهم می‌کند، دانش تخصصی موضوعاتی مانند پزشکی یا تاریخ می‌تواند با استفاده از RAG برای افزایش "دانش" مدل‌های زبان بزرگ که در برخی موضوعات از آنها استفاده می‌شود، بهبود یابد. ملانی پیترسون، مدیر ارشد TrainAI در گروه RWS، یک شرکت فناوری، گفت: «هنگامی که RAG را با تنظیم دقیق خاص دامنه ترکیب می‌کنید، نتیجه یک LLM قوی‌تر، قابل اعتمادتر و پیشرفته‌تر است که برای اهداف تجاری مناسب است.»

برخی از متخصصان هوش مصنوعی معتقدند که RAG در حال حاضر تفاوتی در برنامه‌های کاربردی دنیای واقعی ایجاد کرده است. ون در پوتن گفت: «در نقش تجاری خود، ما و مشتریانمان در حال بررسی RAG برای اهداف زیادی هستیم، زیرا نحوه هدایت هوش مصنوعی در مسیر صحیح است.» «این کنترل‌ها استفاده گسترده‌تر از هوش مصنوعی تولیدی را در کسب و کار و سایر زمینه‌ها امکان‌پذیر خواهد کرد.»

اما ون در پوتن - که یک پا در تجارت و یک پا در دانشگاه دارد - معتقد است که RAG مزایایی فراتر از دنیای کسب و کار دارد. او گفت: «در تحقیقات آکادمیک خود، ما در حال بررسی برنامه‌های جامعه‌شناختی جالبی نیز هستیم.» «به عنوان مثال، ما در حال توسعه یک دستیار رای دهی کنترل شده توسط RAG برای سیستم‌های انتخاباتی بر اساس نمایندگی تناسبی مانند هلند هستیم.»

این سیستم با اجازه دادن به رای دهندگان برای کاوش دیدگاه‌های احزاب سیاسی مخالف در مورد موضوعاتی که رای دهنده ارائه می‌دهد، کار خواهد کرد. «هدف کاهش قطبیت و تصمیم‌گیری انتخاباتی بیشتر بر اساس سیاست اعلام شده و پیشنهادات واقعی، موکولات و رفتار رای دادن احزاب در پارلمان است»، گفت.

در حال حاضر، ChatGPT OpenAI نوعی RAG را زمانی که جستجوی وب مربوط به یک سؤال کاربر را انجام می‌دهد، انجام می‌دهد، اطلاعات به روز شده و پیوند به منبع را که کاربر می‌تواند آن را تأیید کند، ارائه می‌دهد. مدل‌های هوش مصنوعی دوقلوی Google نیز همین کار را انجام می‌دهند. و GPT از OpenAI می‌تواند برای استفاده از اطلاعاتی از منابع داده‌های خارجی پیکربندی شود که این نیز نوعی RAG است.


آیا واقعا مشکل توهم را حل می‌کند؟

برای شنیدن برخی از صحبت‌ها - من در جشنواره بین‌المللی روزنامه‌نگاری اخیر در پروجا، ایتالیا بودم، جایی که بسیاری از اعضای پانل RAG را به عنوان راه حلی برای مشکل توهم‌پردازی در هوش مصنوعی تولیدی ذکر کردند - به نظر می‌رسد که RAG همه مشکلات هوش مصنوعی را حل خواهد کرد. اما آیا واقعا اینطور است؟

دیوید فاستر، بنیانگذار Applied Data Science Partners و نویسنده Generative Deep Learning: Teaching Machines how to Paint, Write, Compose and Play، در مورد حل مشکل توهم‌پردازی هوش مصنوعی تولیدی، گفت: «RAG بخشی از راه حل است.»

اما فاستر روشن کرد که این یک راه حل جامع برای مشکل جعل LLM نیست. او گفت: «این یک راه حل مستقیم نیست، زیرا LLM هنوز می‌تواند در اطراف منبع در پاسخ خود توهم‌پردازی کند.»

فاستر برای توضیح اینکه چرا RAG یک راه حل کامل نیست، از یک تشبیه استفاده کرد. او گفت: «فرض کنید یک دانش آموز امتحان ادبیات انگلیسی می‌دهد اما در خود امتحان دسترسی به متن منبع ندارد.» «ممکن است بتوانند یک مقاله قابل قبولی بنویسند، اما احتمال زیادی وجود دارد که نقل قول‌ها را اشتباه به خاطر بیاورند یا ترتیب رویدادها را به درستی به یاد نیاورند.»

RAG شبیه فراهم کردن دسترسی آسان به متن منبع برای یادآوری حافظه دانش آموز است. (انسان‌انگاری ابزارهای هوش مصنوعی مشکل ساز است، البته، اما ممکن است هنگام صحبت کردن در تشبیهات اجتناب ناپذیر باشد.)

فاستر گفت: «اگر متن منبع را به دانش آموز بدهید، می‌تواند اطلاعات مربوطه را "جستجو" کند و بنابراین خطاهای یادآوری را کاهش دهد.» «این RAG است. با این وجود، دانش آموز ممکن است همچنان اطلاعات را از جای اشتباه در کتاب بازیابی کند - بنابراین هنوز هم نتیجه‌گیری‌های توهم‌آمیز نادرست را استخراج می‌کند - یا ممکن است اطلاعات اضافی را توهم کند که وجود نداشته است.»


به همین دلیل، فاستر RAG را «کاهش» می‌نامد، نه «درمان توهم».


یک گام به جلو - اما نه یک گلوله نقره‌ای

سؤال یک میلیون دلاری این است که آیا ارزش صرف زمان، تلاش و پول برای ادغام RAG در استقرار هوش مصنوعی تولیدی وجود دارد یا خیر. جیانسیراکوسا از دانشگاه بنتلی مطمئن نیست که این کار را انجام دهد. «LLM هنوز در حال حدس زدن پاسخ‌ها است، اما با RAG، فقط حدس‌ها اغلب بهبود می‌یابد زیرا به آن گفته می‌شود که برای پاسخ‌ها کجا را جستجو کند.» او گفت: «مشکل همان مشکل همه مدل‌های زبان بزرگ است: «هنوز درک عمیقی از کلمات و جهان وجود ندارد.»

جیانسیراکوسا همچنین اشاره کرد که ظهور نتایج جستجوی کمک شده توسط هوش مصنوعی تولیدی - و "enshittification" اخیر وب از طریق محتوای تولید شده توسط هوش مصنوعی - به این معنی است که آنچه ممکن است در یک مرحله راه حل مفیدی برای یک نقص اساسی در ابزارهای هوش مصنوعی تولیدی باشد، ممکن است کمتر مفید باشد اگر مدل‌های زبان هوش مصنوعی از آشغال تولید شده توسط هوش مصنوعی که آنلاین پیدا می‌شود، استفاده کنند.

ما اخیراً این مشکل را با AI Overview گوگل دیده‌ایم که از رتبه‌بندی صفحه بازی شده برای تعیین منابع «دقیق» که مدل هوش مصنوعی گوگل سپس پاسخ‌هایی از آن استخراج می‌کند، استفاده می‌کند.

جیانسیراکوسا گفت: «ما می‌دانیم که جستجوی وب پر از اطلاعات غلط است و می‌دانیم که مدل‌های زبان بزرگ پر از توهمات هستند، بنابراین می‌توانید حساب کنید که چه اتفاقی می‌افتد وقتی این دو را با هم ترکیب کنید.»


منبع : Arstechnica

🔹این مقاله به صورت ماشینی، توسط Aiticle تولید شده و ممکنه ایراداتی داشته باشه، فیدبک‌های شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.