خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
آیا RAG میتواند مشکل توهم هوشمصنوعی را حل کند؟
اکنون نزدیک به یک سال و نیم است که در عصر شکوفایی هوش مصنوعی تولیدی زندگی میکنیم، پس از اینکه OpenAI در اواخر سال 2022 ChatGPT را منتشر کرد. اما علیرغم تأثیرات تحولآفرین بر قیمت سهام شرکتها، ابزارهای هوش مصنوعی تولیدی که توسط مدلهای زبان بزرگ (LLMs) پشتیبانی میشوند، هنوز معایب عمدهای دارند که مانع مفید بودن آنها به اندازه مورد انتظار بسیاری از افراد شده است. تولید افزایش یافته بازیابی، یا RAG، به دنبال رفع برخی از این معایب است.
شاید بارزترین عیب مدلهای زبان بزرگ تمایل آنها به توهمپردازی (که "توهم" نیز نامیده میشود) باشد، که یک پدیده پر کردن شکاف آماری است که مدلهای زبان هوش مصنوعی زمانی ایجاد میکنند که وظیفه آنها بازتولید دانشی است که در دادههای آموزشی وجود ندارد. آنها متن قابل قبولی را تولید میکنند که ممکن است به سمت دقت منحرف شود زمانی که دادههای آموزشی محکم باشند، اما در غیر این صورت ممکن است کاملا ساختگی باشند.
اتکا به مدلهای هوش مصنوعی توهمپرداز افراد و شرکتها را به دردسر میاندازد، همانطور که در گذشته پوشش دادهایم. در سال 2023، ما دو مورد از وکلایی را دیدیم که پروندههای حقوقی را ذکر کردند که توسط هوش مصنوعی اختراع شده بود و وجود نداشت. ما ادعاهایی را علیه OpenAI پوشش دادهایم که در آن ChatGPT توهمپردازی کرده و افراد بیگناه را متهم به انجام کارهای وحشتناکی کرده است. در فوریه، در مورد اختراع یک چتبات خدمات مشتری Air Canada یک سیاست بازپرداخت نوشتیم، و در مارس، یک چتبات شهر نیویورک به دلیل جعل مقررات شهری گیر افتاد.
بنابراین، اگر هوش مصنوعی تولیدی به دنبال تبدیل شدن به فناوری است که بشریت را به آینده پرتاب میکند، لازم است که کسی در طول مسیر چین و چروکهای توهمپردازی را صاف کند. اینجاست که RAG وارد میشود. طرفداران آن امیدوارند که این تکنیک به تبدیل فناوری هوش مصنوعی تولیدی به دستیارهای قابل اعتماد کمک کند که میتوانند بهرهوری را بدون نیاز به یک انسان برای دو برابر کردن بررسی یا تردید در پاسخها، افزایش دهند.
نوآ جیانسیراکوسا، استاد ریاضی دانشگاه بنتلی میگوید: "RAG راهی برای بهبود عملکرد LLM است، به طور اساسی با ترکیب فرایند LLM با یک جستجوی وب یا سایر فرایندهای جستجوی اسناد" برای کمک به مدلهای زبان بزرگ برای پایبندی به حقایق.
بیایید نگاهی دقیقتر به نحوه کارکرد و محدودیتهای آن داشته باشیم.
یک چارچوب برای افزایش دقت هوش مصنوعی
اگرچه RAG اکنون به عنوان یک تکنیک برای کمک به رفع مشکلات هوش مصنوعی تولیدی در نظر گرفته میشود، اما در واقع قبل از ChatGPT وجود داشته است. محققان این اصطلاح را در یک مقاله علمی در سال 2020 توسط محققان فیسبوک AI Research (FAIR، اکنون Meta AI Research)، دانشگاه کالج لندن و دانشگاه نیویورک ابداع کردند.
همانطور که ذکر کردیم، مدلهای زبان بزرگ با حقایق مشکل دارند. ورودی گوگل به مسابقه هوش مصنوعی تولیدی، Bard، یک اشتباه شرمآور در اولین نمایش عمومی خود در فوریه 2023 در مورد تلسکوپ فضایی جیمز وب داشت. این خطا حدود 100 میلیارد دلار از ارزش شرکت مادر آلفابت را پاک کرد. مدلهای زبان بزرگ پاسخ احتمالی آماری را بر اساس دادههای آموزشی خود تولید میکنند و چیزی را که خروجی میگیرند درک نمیکنند، به این معنی که ممکن است اطلاعاتی غلط ارائه دهند که اگر دانش تخصصی در مورد یک موضوع نداشته باشید، دقیق به نظر برسد.
مدلهای زبان بزرگ همچنین فاقد دانش به روز و توانایی شناسایی شکافهای موجود در دانش خود هستند. جیانسیراکوسا گفت: «وقتی یک انسان سعی میکند به یک سؤال پاسخ دهد، میتواند به حافظه خود تکیه کند و به سرعت پاسخی ارائه دهد، یا میتواند کاری مثل گوگل کردن یا جستجو در ویکیپدیا را انجام دهد و سپس سعی کند پاسخی را از آنچه پیدا میکند، جمع کند. هنوز هم این اطلاعات را از دانش داخلی خود درباره این موضوع فیلتر میکند.»
اما مدلهای زبان بزرگ، البته، انسان نیستند. دادههای آموزشی آنها ممکن است به سرعت قدیمی شود، به ویژه در پرس و جوهایی که حساسیت زمانی بیشتری دارند. علاوه بر این، LLM اغلب نمیتواند منابع خاصی از دانش خود را تشخیص دهد، زیرا همه دادههای آموزشی آن با هم ترکیب میشوند و نوعی سوپ ایجاد میکنند.
در تئوری، RAG باید به روزرسانی مدلهای هوش مصنوعی را بسیار ارزانتر و آسانتر کند. پیترسون گفت: «زیبایی RAG این است که وقتی اطلاعات جدیدی در دسترس قرار میگیرد، به جای اینکه مجبور باشید مدل را دوباره آموزش دهید، همه کاری که لازم است انجام دهید این است که پایگاه دانش خارجی مدل را با اطلاعات به روزشده افزایش دهید.» "این زمان و هزینه توسعه LLM را کاهش میدهد در حالی که مقیاسپذیری مدل را بهبود میبخشد."
و به طور اساسی، مدلهای هوش مصنوعی که از RAG استفاده میکنند اغلب میتوانند منبع ادعاهای خود را ذکر کنند، زیرا اطلاعات آنها در داخل همان پایگاه داده برداری نگهداری میشود. اگر LLM پاسخی نادرست تولید کند و شناسایی شود، منبع آن اطلاعات نادرست میتواند در داخل پایگاه داده برداری شناسایی و حذف یا اصلاح شود.
کاربردهای بالقوه RAG
فراتر از مزایای کلی که تصور میشود RAG برای خروجیهای هوش مصنوعی تولیدی فراهم میکند، دانش تخصصی موضوعاتی مانند پزشکی یا تاریخ میتواند با استفاده از RAG برای افزایش "دانش" مدلهای زبان بزرگ که در برخی موضوعات از آنها استفاده میشود، بهبود یابد. ملانی پیترسون، مدیر ارشد TrainAI در گروه RWS، یک شرکت فناوری، گفت: «هنگامی که RAG را با تنظیم دقیق خاص دامنه ترکیب میکنید، نتیجه یک LLM قویتر، قابل اعتمادتر و پیشرفتهتر است که برای اهداف تجاری مناسب است.»
برخی از متخصصان هوش مصنوعی معتقدند که RAG در حال حاضر تفاوتی در برنامههای کاربردی دنیای واقعی ایجاد کرده است. ون در پوتن گفت: «در نقش تجاری خود، ما و مشتریانمان در حال بررسی RAG برای اهداف زیادی هستیم، زیرا نحوه هدایت هوش مصنوعی در مسیر صحیح است.» «این کنترلها استفاده گستردهتر از هوش مصنوعی تولیدی را در کسب و کار و سایر زمینهها امکانپذیر خواهد کرد.»
اما ون در پوتن - که یک پا در تجارت و یک پا در دانشگاه دارد - معتقد است که RAG مزایایی فراتر از دنیای کسب و کار دارد. او گفت: «در تحقیقات آکادمیک خود، ما در حال بررسی برنامههای جامعهشناختی جالبی نیز هستیم.» «به عنوان مثال، ما در حال توسعه یک دستیار رای دهی کنترل شده توسط RAG برای سیستمهای انتخاباتی بر اساس نمایندگی تناسبی مانند هلند هستیم.»
این سیستم با اجازه دادن به رای دهندگان برای کاوش دیدگاههای احزاب سیاسی مخالف در مورد موضوعاتی که رای دهنده ارائه میدهد، کار خواهد کرد. «هدف کاهش قطبیت و تصمیمگیری انتخاباتی بیشتر بر اساس سیاست اعلام شده و پیشنهادات واقعی، موکولات و رفتار رای دادن احزاب در پارلمان است»، گفت.
در حال حاضر، ChatGPT OpenAI نوعی RAG را زمانی که جستجوی وب مربوط به یک سؤال کاربر را انجام میدهد، انجام میدهد، اطلاعات به روز شده و پیوند به منبع را که کاربر میتواند آن را تأیید کند، ارائه میدهد. مدلهای هوش مصنوعی دوقلوی Google نیز همین کار را انجام میدهند. و GPT از OpenAI میتواند برای استفاده از اطلاعاتی از منابع دادههای خارجی پیکربندی شود که این نیز نوعی RAG است.
آیا واقعا مشکل توهم را حل میکند؟
برای شنیدن برخی از صحبتها - من در جشنواره بینالمللی روزنامهنگاری اخیر در پروجا، ایتالیا بودم، جایی که بسیاری از اعضای پانل RAG را به عنوان راه حلی برای مشکل توهمپردازی در هوش مصنوعی تولیدی ذکر کردند - به نظر میرسد که RAG همه مشکلات هوش مصنوعی را حل خواهد کرد. اما آیا واقعا اینطور است؟
دیوید فاستر، بنیانگذار Applied Data Science Partners و نویسنده Generative Deep Learning: Teaching Machines how to Paint, Write, Compose and Play، در مورد حل مشکل توهمپردازی هوش مصنوعی تولیدی، گفت: «RAG بخشی از راه حل است.»
اما فاستر روشن کرد که این یک راه حل جامع برای مشکل جعل LLM نیست. او گفت: «این یک راه حل مستقیم نیست، زیرا LLM هنوز میتواند در اطراف منبع در پاسخ خود توهمپردازی کند.»
فاستر برای توضیح اینکه چرا RAG یک راه حل کامل نیست، از یک تشبیه استفاده کرد. او گفت: «فرض کنید یک دانش آموز امتحان ادبیات انگلیسی میدهد اما در خود امتحان دسترسی به متن منبع ندارد.» «ممکن است بتوانند یک مقاله قابل قبولی بنویسند، اما احتمال زیادی وجود دارد که نقل قولها را اشتباه به خاطر بیاورند یا ترتیب رویدادها را به درستی به یاد نیاورند.»
RAG شبیه فراهم کردن دسترسی آسان به متن منبع برای یادآوری حافظه دانش آموز است. (انسانانگاری ابزارهای هوش مصنوعی مشکل ساز است، البته، اما ممکن است هنگام صحبت کردن در تشبیهات اجتناب ناپذیر باشد.)
فاستر گفت: «اگر متن منبع را به دانش آموز بدهید، میتواند اطلاعات مربوطه را "جستجو" کند و بنابراین خطاهای یادآوری را کاهش دهد.» «این RAG است. با این وجود، دانش آموز ممکن است همچنان اطلاعات را از جای اشتباه در کتاب بازیابی کند - بنابراین هنوز هم نتیجهگیریهای توهمآمیز نادرست را استخراج میکند - یا ممکن است اطلاعات اضافی را توهم کند که وجود نداشته است.»
به همین دلیل، فاستر RAG را «کاهش» مینامد، نه «درمان توهم».
یک گام به جلو - اما نه یک گلوله نقرهای
سؤال یک میلیون دلاری این است که آیا ارزش صرف زمان، تلاش و پول برای ادغام RAG در استقرار هوش مصنوعی تولیدی وجود دارد یا خیر. جیانسیراکوسا از دانشگاه بنتلی مطمئن نیست که این کار را انجام دهد. «LLM هنوز در حال حدس زدن پاسخها است، اما با RAG، فقط حدسها اغلب بهبود مییابد زیرا به آن گفته میشود که برای پاسخها کجا را جستجو کند.» او گفت: «مشکل همان مشکل همه مدلهای زبان بزرگ است: «هنوز درک عمیقی از کلمات و جهان وجود ندارد.»
جیانسیراکوسا همچنین اشاره کرد که ظهور نتایج جستجوی کمک شده توسط هوش مصنوعی تولیدی - و "enshittification" اخیر وب از طریق محتوای تولید شده توسط هوش مصنوعی - به این معنی است که آنچه ممکن است در یک مرحله راه حل مفیدی برای یک نقص اساسی در ابزارهای هوش مصنوعی تولیدی باشد، ممکن است کمتر مفید باشد اگر مدلهای زبان هوش مصنوعی از آشغال تولید شده توسط هوش مصنوعی که آنلاین پیدا میشود، استفاده کنند.
ما اخیراً این مشکل را با AI Overview گوگل دیدهایم که از رتبهبندی صفحه بازی شده برای تعیین منابع «دقیق» که مدل هوش مصنوعی گوگل سپس پاسخهایی از آن استخراج میکند، استفاده میکند.
جیانسیراکوسا گفت: «ما میدانیم که جستجوی وب پر از اطلاعات غلط است و میدانیم که مدلهای زبان بزرگ پر از توهمات هستند، بنابراین میتوانید حساب کنید که چه اتفاقی میافتد وقتی این دو را با هم ترکیب کنید.»
منبع : Arstechnica
🔹این مقاله به صورت ماشینی، توسط Aiticle تولید شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
اگر هوش مصنوعی صدای شما را بگیرد چیکار میکنید؟
مطلبی دیگر از این انتشارات
یکی از کارکنان سابق OpenAI میگوید شرکت برنامهای برای آغاز رقابت AGI با چین و روسیه داشته است
مطلبی دیگر از این انتشارات
فروشگاه Gpt Store از حالا برای همه به رایگان در دسترس است!