<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
    <channel>
        <title>نوشته های Mohammad Shojaei</title>
        <link>https://virgool.io/feed/@realshojaei</link>
        <description>من محمد شجاعی هستم، توسعه‌دهنده و علاقه‌مند به هوش مصنوعی.</description>
        <language>fa</language>
        <pubDate>2026-04-15 01:35:12</pubDate>
        <image>
            <url>https://files.virgool.io/upload/users/1542509/avatar/w94mTf.png?height=120&amp;width=120</url>
            <title>Mohammad Shojaei</title>
            <link>https://virgool.io/@realshojaei</link>
        </image>

                    <item>
                <title>چگونه هوش مصنوعی یاد می‌گیرد اشتباهات خود را اصلاح کند</title>
                <link>https://virgool.io/@realshojaei/%DA%86%DA%AF%D9%88%D9%86%D9%87-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%DB%8C%D8%A7%D8%AF-%D9%85%DB%8C-%DA%AF%DB%8C%D8%B1%D8%AF-%D8%A7%D8%B4%D8%AA%D8%A8%D8%A7%D9%87%D8%A7%D8%AA-%D8%AE%D9%88%D8%AF-%D8%B1%D8%A7-%D8%A7%D8%B5%D9%84%D8%A7%D8%AD-%DA%A9%D9%86%D8%AF-zjr8ujwlextm</link>
                <description>تحلیل و بررسی مقاله «بازاندیشی، تلاش مجدد، پاداش: خودبهبودی مدل‌های زبانی بزرگ از طریق یادگیری تقویتی»(Reflect, Retry, Reward: Self-Improving LLMs via Reinforcement Learning)بیشتر تلاش‌ها برای بهبود توانایی‌های مدل‌های زبانی بر بزرگ‌تر کردن مقیاس متمرکز بوده‌اند: یعنی استفاده از پارامترهای بیشتر، داده‌های آموزشی حجیم‌تر و پردازنده‌های گرافیکی (GPU) قدرتمندتر. اما این مقاله رویکرد متفاوتی را ارائه می‌دهد. در این روش، به مدل یاد داده می‌شود که وقتی دچار خطا می‌شود، ابتدا نقد کوتاهی از عملکرد خود بنویسد (بازاندیشی کند) و سپس دوباره برای پاسخ صحیح تلاش کند. نکته کلیدی این است که پاداش یادگیری تقویتی فقط به بخش «بازاندیشی» داده می‌شود. به این ترتیب، مدل به تدریج یاد می‌گیرد چگونه خطاهای خود را تشخیص دهد، به جای آنکه صرفاً پاسخ‌های خاصی را برای وظایف مختلف به خاطر بسپارد.نویسندگان این مقاله، با استفاده از این روش بر روی دو معیار ارزیابی چالش‌برانگیز و خودکار – یکی مربوط به «فراخوانی توابع» (APIGen) و دیگری «معماهای ریاضی» به سبک بازی Countdown – به ترتیب ۱۸ و ۳۴ درصد بهبود عملکرد نشان دادند. جالب اینجاست که مدل‌های نسبتاً کوچک (۱.۵ تا ۷ میلیارد پارامتر) با این روش، عملکردی بهتر از مدل‌های بسیار بزرگ‌تر (۷۰ میلیارد پارامتر) از خود نشان دادند.این روش چگونه کار می‌کند؟مراحل کار به این صورت است:تلاش اول: مدل زبانی بزرگ (LLM) به شکل معمول به درخواست پاسخ می‌دهد.بررسی صحت: یک سیستم ارزیاب خودکار، پاسخ را «صحیح» یا «غلط» علامت‌گذاری می‌کند.بازاندیشی درونی (Self-reflection): در صورت غلط بودن پاسخ، مدل یادداشت کوتاهی درباره علت خطای خود (مثلاً «اینجا اشتباه کردم») تولید می‌کند.تلاش مجدد: مدل با در نظر گرفتن یادداشت انتقادی خود، دوباره برای پاسخ به درخواست تلاش می‌کند.پاداش‌دهی با GRPO: اگر تلاش مجدد موفقیت‌آمیز باشد، تنها توکن‌هایی (واژه‌ها یا اجزای کلام) که در فرآیند بازاندیشی (مرحله ۳) تولید شده‌اند، سیگنال پاداش مثبت دریافت می‌کنند.دو نکته هوشمندانه در طراحی این روش، اجرای آن را تسهیل کرده است:بهینه‌سازی گروهی نسبی (GRPO): این تکنیک، نیاز به یک شبکه ارزش (value network) جداگانه را در یادگیری تقویتی حذف می‌کند. در نتیجه، فرآیند یادگیری تقویتی برای مدل‌های کوچک (۱ تا ۸ میلیارد پارامتر) سبک و قابل اجرا باقی می‌ماند.آموزش بر روی مجموعه داده‌ای از خطاها: مدل تنها بر روی نمونه‌هایی آموزش داده می‌شود که در آن‌ها مدل پایه (بدون این روش) دچار خطا شده است. این کار باعث کاهش زمان استفاده از پردازنده‌های گرافیکی (GPU) شده و فرآیند یادگیری را بر نقاط ضعف مدل متمرکز می‌کند.چرا نتایج این پژوهش اهمیت دارند؟عملکرد بهتر مدل‌های کوچک: مدل‌های کوچک‌تر با این روش، عملکردی بهتر از مدل‌های پایه (baseline) بسیار بزرگ‌تر از خود نشان می‌دهند.یادگیری عمیق‌تر: نکته جالب‌تر این است که پس از به‌کارگیری GRPO، بسیاری از پرسش‌ها در همان تلاش اول با موفقیت پاسخ داده می‌شوند. این امر نشان می‌دهد که روش‌های اکتشافی (heuristics) تشخیص خطا که مدل آموخته است، به توانایی استدلال کلی آن نیز تعمیم پیدا می‌کند.عدم فراموشی فاجعه‌بار: نویسندگان همچنین عملکرد مدل را بر روی چهار معیار ارزیابی گسترده دیگر (MMLU-Pro، GSM8K، HellaSwag، MATH) بررسی کرده و کاهش عملکردی کمتر از ۱ درصد را مشاهده نمودند. این نشان می‌دهد که پدیده «فراموشی فاجعه‌بار» (catastrophic forgetting) – یعنی فراموش کردن آموخته‌های قبلی پس از یادگیری مطالب جدید – در این روش بسیار ناچیز است.دیدگاه منبازاندیشی بر تکرار صرف، برتری دارد. این مقاله یادآور نظریه‌های یادگیری در انسان است: فراشناخت (metacognition) یا توانایی اندیشیدن درباره تفکر خود، اغلب دستاوردهای بیشتری نسبت به تمرین صرف و تکراری به همراه دارد. با پاداش دادن به فرآیند رسیدن به بینش و درک خطا، به جای پاداش صرف به پاسخ نهایی، مدل مهارت‌های اشکال‌زدایی (debugging) قابل تعمیمی را می‌آموزد.رویکردی عملی برای مدل‌های با اندازه متوسط. آموزش مدل با استفاده از هشت پردازنده H100 و برای کمتر از ۲۰۰۰ مرحله یادگیری تقویتی، به شکلی امیدوارکننده، منطقی و قابل دسترس است. این بدان معناست که مراکز دانشگاهی و شرکت‌های نوپایی که به توان محاسباتی لازم برای آموزش مدل‌های ۷۰ میلیارد پارامتری دسترسی ندارند، با این روش همچنان می‌توانند به عملکردهای سطح بالا دست یابند.محدودیت ارزیاب‌های خودکار (گلوگاه روش). این روش برای وظایفی که در آن‌ها یک ارزیاب (oracle) خودکار می‌تواند به وضوح پاسخ را «صحیح» یا «غلط» تشخیص دهد (مانند اجرای کد، تست‌های واحد نرم‌افزار، یا حل معادلات) بسیار مناسب است. اما برای وظایفی با پاسخ‌های باز، مانند نویسندگی خلاق، مشاوره در زمینه سیاست‌گذاری، یا سایر کارهای نیازمند قضاوت انسانی، تا زمانی که ارزیاب‌های خودکار قابل اعتمادی توسعه نیابند، این روش کاربرد محدودی خواهد داشت.شفافیت بیشتر بازاندیشی به مرور زمان. نویسندگان مقاله نشان می‌ده دهند که یادداشت‌های بازاندیشی اولیه مدل، اغلب طولانی و مبهم هستند، اما پس از آموزش با GRPO، این یادداشت‌ها به نکات کلیدی، کوتاه و متمرکز تبدیل می‌شوند. این یافته با تجربه شخصی من نیز مطابقت دارد: پرگویی اغلب نشانه‌ای از سردرگمی است، در حالی که ایجاز و اختصار، نشان‌دهنده شفافیت ذهن و درک عمیق است.هم‌افزایی‌های (Synergies) بالقوه. من علاقه‌مندم که این روش را با رویکرد «زنجیره تفکر» (Chain-of-Thought یا CoT) ترکیب کنم. CoT به بهبود استدلال پیش‌رونده (forward reasoning) کمک می‌کند، در حالی که بازاندیشی مبتنی بر GRPO، تحلیل خطای پس‌رونده (backward error analysis) را تقویت می‌کند. ترکیب این دو رویکرد می‌تواند هر دو جنبه را پوشش داده و به نتایج بهتری منجر شود.پرسش‌های باز (نیازمند پژوهش بیشتر):تعمیم‌پذیری بین وظایف مختلف: آیا آموزش مهارت بازاندیشی بر روی یک نوع وظیفه (مثلاً فراخوانی توابع) می‌تواند به بهبود عملکرد در وظایف دیگر (مانند حل معماهای منطقی) کمک کند؟ مقاله به این امکان اشاره می‌کند، اما آن را به طور مستقیم آزمایش نکرده است.جایگزینی ارزیاب‌های خودکار با قضاوت انسانی: آیا می‌توان ارزیاب‌های خودکار (که پاسخ را صرفاً صحیح/غلط می‌دانند) را با بازخورد انسانی (که ممکن است دقیق نباشد و همراه با خطا باشد) جایگزین کرد؟برنامه‌ریزی بلندمدت و وظایف چندمرحله‌ای: GRPO در حال حاضر تنها یک تلاش مجدد را پاداش می‌دهد. برای وظایف پیچیده‌تر و چندمرحله‌ای (مانند عامل‌های هوشمندی که از ابزارهای مختلف استفاده می‌کنند)، ممکن است به فرآیندهای بازاندیشی عمیق‌تر و چندلایه‌ای نیاز باشد.نتیجه‌گیریروش «بازاندیشی، تلاش مجدد، پاداش» چیزی فراتر از یک ترفند ساده است؛ به نظر می‌رسد این روش، حلقه‌ای مفقوده در جعبه‌ابزار توسعه هوش مصنوعی خودبهبودگر (self-improving AI) باشد. این مقاله نشان می‌دهد که می‌توان به مدل‌های زبانی آموخت تا نواقص خود را تشخیص داده و آن‌ها را اصلاح کنند – آن هم با حجم داده‌های آموزشی نسبتاً کم، توان محاسباتی معقول، و بدون نیاز به یک مدل «معلم» بسیار بزرگ. برای تمام پژوهشگران و توسعه‌دهندگانی که بر روی ساخت مدل‌های زبانی بزرگ و متخصص در حوزه‌های خاص کار می‌کنند، به‌ویژه آن‌هایی که با محدودیت بودجه مواجه هستند، این تکنیک ارزش بررسی، پیاده‌سازی و توسعه بیشتر را دارد.</description>
                <category>Mohammad Shojaei</category>
                <author>Mohammad Shojaei</author>
                <pubDate>Wed, 11 Jun 2025 19:23:48 +0330</pubDate>
            </item>
                    <item>
                <title>آیا مدل‌های هوش مصنوعی واقعاً فکر می‌کنند؟</title>
                <link>https://virgool.io/@realshojaei/%D8%A2%DB%8C%D8%A7-%D9%85%D8%AF%D9%84-%D9%87%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%88%D8%A7%D9%82%D8%B9%D8%A7%D9%8B-%D9%81%DA%A9%D8%B1-%D9%85%DB%8C-%DA%A9%D9%86%D9%86%D8%AF-vt4soxpkl67g</link>
                <description>نگاهی خودمانی به مقاله جدید اپلمقاله اخیر اپل که می‌گوید شاید هوش مصنوعی اون‌قدرها هم که فکر می‌کنیم باهوش نباشه و کاربرای فضای مجازی واکنش‌های متفاوتی داشتن بیایین بررسی کنیم .چند وقت پیش، اپل یه مقاله منتشر کرد با یه عنوان : «توهم تفکر: فهمیدن نقاط قوت و ضعف مدل‌های استدلالی از دریچه پیچیدگی مسئله».خلاصه‌ش اینه که خیلی‌ها ازش این‌جوری برداشت کردن که این هوش مصنوعی‌های خفن امروزی شاید واقعاً «فکر» نکنن. راستش من خودمم فکر نمی‌کنم این مدل‌ها همین فردا دنیا رو بگیرن و یه ابرهوش واقعی بشن، ولی با کلیت حرف این مقاله هم خیلی حال نمی‌کنم. مثل همیشه، این مقاله حسابی سر و صدا راه انداخت؛ یه عده گفتن «دمت گرم اپل، حرف دلمونو زدی!»، یه عده دیگه هم گفتن «این چه مزخرفیه؟ اپل خودش از قافله عقب مونده!». بیاید خودمونی‌تر ببینیم جریان چیه و چی به چیه.مقاله اپل چی می‌گه؟ خیلی ساده!نویسنده‌های اپل می‌گن خیلی رو عملکرد این مدل‌های هوش مصنوعی تو امتحانای ریاضی و کدنویسی حساب باز نکنید. چرا؟ چون:(الف) این امتحانا یه جورایی «آلوده‌»ن، یعنی شاید جواباش از قبل تو داده‌هایی که به مدل خوروندن باشه،(ب) تازه، فهمیدن اینکه یه مسئله چقدر «سخته» خودش یه معضل گنده‌ست!برای همین، رفتن سراغ یه راه دیگه و مدل‌ها رو با چند تا بازی فکری امتحان کردن (مثل برج هانوی، ولی با سختی‌های مختلف). از پازلای خیلی ساده (برج هانوی با یه دیسک) تا پازلای خیلی پیچیده (۲۰ تا دیسک).چیزای مهمی که اپل فهمید:۱. پازلای خیلی ساده: مدلایی که خیلی اهل فکر کردن نیستن، یا همون‌قدر خوب بودن یا حتی بهتر! ولی مدلای متفکر گاهی زیادی فکر می‌کنن و گند می‌زنن!۲. پازلای متوسط: اینجا مدلای متفکر دیگه خودشونو نشون دادن و حسابی بهتر عمل کردن.۳. پازلای خیلی سخت: وقتی کار خیلی سخت می‌شد، حتی مدلای متفکر هم دیگه جواب درست نمی‌دادن و انگار کم می‌آوردن، حتی اگه راه حل رو جلوشون می‌ذاشتی!نتیجه‌شون اینه که مدلای متفکر یه «حد پیچیدگی» دارن که نمی‌تونن ازش رد شن و شاید یه جور محدودیت ذاتی تو توان محاسباتیشون باشه.نظر من چیه؟ یه چند تا ایراد به چشمم میاد:۱. این پازلا شاید انتخاب خوبی نباشن!اگه نگرانیم داده‌های ریاضی و کدنویسی آلوده‌ست، چرا سراغ پازلای معروفی مثل برج هانوی رفتیم که راه‌حلشون تو هر گوشه اینترنت پیدا می‌شه و احتمالاً تو داده‌های مدل‌ها هم بوده؟جای تعجب نداره که دادن الگوریتم به مدل کمکی نکرده؛ احتمالاً از قبل بلدش بوده! خود مقاله‌م می‌گه مدل‌ها تو اجرای دقیق دستورها مشکل دارن، حتی اگه راه حل رو بدونن.این مدل‌ها بیشتر رو ریاضی و کدنویسی تربیت شدن، نه پازل. شاید پازلا معیار خوبی برای تست استدلال نباشن. خود اپل‌م گفته عملکرد مدل‌ها تو پازلای مختلف فرق داره، مثلاً برج هانوی با کلی حرکت یا پازلای ساده‌تر مثل گذر از رودخانه. منتقدا هم گفتن این پازلا بیشتر «طاقت تکرار کارای زیاد» رو می‌سنجن تا فکر کردن واقعی.۲. اون «حد پیچیدگی» شاید ثابت نباشه!وقتی پازل گنده می‌شه (مثل برج هانوی ۱۰ دیسکه با ۱۰۲۳ حرکت)، مدل شاید بفهمه مراحل زیاده و به‌جای حل قدم‌به‌قدم، دنبال میان‌بر بگرده.پس چیزی که تست می‌کنیم از «می‌تونه مراحل رو بره؟» می‌شه «می‌تونه یه راه کلی پیدا کنه؟» یا «حوصله‌ش می‌رسه؟». اینکه نزدیک شکست کمتر تلاش می‌کنن هم باحاله؛ شاید دارن انرژی‌شونو مدیریت می‌کنن یا می‌فهمن از پسش برنمیان!واسه همین نمی‌دونیم واقعاً «نمی‌تونن» حل کنن یا «نمی‌خوان» این همه مرحله رو برن!۳. وجود حد پیچیدگی یعنی استدلال نمی‌کنن؟نه بابا! چند نفر از ما می‌تونیم هزار تا حرکت برج هانوی رو بدون اشتباه بریم؟ اگه نتونیم یعنی فکر نمی‌کنیم؟ معلومه که نه! فقط حوصله و دقت این همه تکرار رو نداریم.فکر کردن به ۱۰ مرحله‌م فکر کردنه، حتی اگه تو مرحله یازدهم گیر کنی. اینکه مدل‌ها تو اجرای الگوریتمای طولانی مشکل دارن مهمه، ولی معنیش این نیست که کلاً فکر نمی‌کنن.ولی مقاله یه چیزای باحالم داره!با همه اینا، مقاله اپل چند تا نکته جالب داره:اینکه مدلای متفکر تو مسائل ساده زیادی فکر می‌کنن و خرابکاری می‌کنن خیلی باحاله و نشون می‌ده چجوری کار می‌کنن.تو مسائل متوسط، مدل اول چند تا راه غلط می‌ره و بعد خودشو درست می‌کنه و جوابو پیدا می‌کنه؛ یه جورایی نشون می‌ده داره حل می‌کنه، هرچند کامل نیست.تو مسائل سخت، اینکه هیچ جواب درستی به ذهنشون نمی‌رسه، حتی قبل از اینکه بی‌خیال شن، نشون می‌ده چقدر قاطی می‌کنن.اینکه با سخت‌تر شدن، اول بیشتر زور می‌زنن ولی یهو ول می‌کنن، حتی اگه توان محاسباتی داشته باشن، خیلی عجیبه و جای فکر داره.بقیه چی می‌گن؟ واکنشا از در و دیوار:مثل همیشه، این مقاله کلی سروصدا کرد:کسایی که همیشه موضع دفاعی راجب هوش مصنوعی میگیرن: گفتن «دیدی گفتم! اینا فقط ادا درمیارن!» و از تجربه‌شون با مدلایی مثل o3 گفتن که تو مسائل سخت کم میارن.منتقدا: گفتن «این مقاله چرت و پرته! اپل خودش تو هوش مصنوعی جا مونده، داره بهونه میاره!» حتی گیر دادن که چرا از مدلای خودش استفاده نکرده.فنی‌ها: بحثاشون تخصصی‌تر بود. بعضیا گفتن خوبه که محدودیتا رو نشون داده، بعضیا به روش و پازلا ایراد گرفتن.فنای اپل: اینا به نیت اپل شک کردن و گفتن شاید داره برای خبر بد آماده می‌شه یا می‌خواد بگه چرا مدل زبون درست‌حسابی نداره.صنعت و دانشگاه: نظرا جورواجور بود. یکی گفت نتیجه‌گیری گمراه‌کننده‌ست، یکی گفت حرف دل مهندسای هوش مصنوعی رو زده. حتی یه جواب رسمی دانشگاهی‌م دادن!حرف آخر من:فکر نمی‌کنم این مقاله ثابت کنه مدلای هوش مصنوعی «واقعاً» فکر نمی‌کنن. جامعه هوش مصنوعی‌م هنوز رو این موضوع توافق نکرده و کلی بحث سر روش تحقیق، نتیجه‌ها و حتی نیت اپل هست. ولی یافته‌هاش درباره عملکرد مدل‌ها تو سختی‌های مختلف و گیر کردنشون چیزای خوبی بهمون می‌گه.به نظرم شاید مدل‌ها تو مسائل طولانی و تکراری (مثل پازلای پیچیده) یهو تصمیم بگیرن بی‌خیال شن، نه اینکه فکر کردنشون محدود باشه. اینکه تو اجرای الگوریتمای طولانی مشکل دارن، حتی اگه راه حل رو بدونن، یه ضعف خاصه. ما آدما هم اگه یه مسئله خیلی پیچیده و خسته‌کننده باشه، ممکنه قاطی کنیم یا ولش کنیم، ولی معنیش این نیست که فکر نمی‌کنیم! هنوز معلوم نیست تو این مدل‌ها فرق بین «نمی‌تونن فکر کنن» و «نمی‌خوان یه کار طولانی رو ادامه بدن» چیه؛ سؤال مهمیه.شما چی فکر می‌کنید؟ این مدل‌ها واقعاً فکر می‌کنن یا فقط فیلم بازین و شاید این فیلم بازی کردنشونم به‌خاطر محدودیتای محاسباتیه، نه اینکه کلاً بلد نباشن؟</description>
                <category>Mohammad Shojaei</category>
                <author>Mohammad Shojaei</author>
                <pubDate>Mon, 09 Jun 2025 18:33:01 +0330</pubDate>
            </item>
                    <item>
                <title>مقایسه RAG و CAG و Fine tuning</title>
                <link>https://virgool.io/codenevis/%D9%85%D9%82%D8%A7%DB%8C%D8%B3%D9%87-rag-%D9%88-caf-%D9%88-fine-tuning-iyau9foytakk</link>
                <description>خب، بذارید یه گپ بزنیم درباره مدل‌های زبانی بزرگ، همون LLMها. می‌تونن کد بزنن، ایمیل بنویسن، حتی شعر بگن! ولی خب، بیایم یه کم واقع گرا باشیم، اینا کامل نیستن. تا حالا شده ازشون یه چیزی که هفته پیش اتفاق افتاده بپرسی و یه جورایی فقط سکوت تحویلت بدن (البته به صورت استعاری)؟ یا اینکه با کلی اعتماد به نفس یه چیزی بهت بگن که... خب، کاملاً اشتباه باشه؟ آره، این جور چیزا پیش میاد.داستان اینه که LLMها به داده‌هایی که باهاشون آموزش دیدن محدودن. اگه داده‌ها قدیمی باشن، دانششونم قدیمی می‌مونه (knowledge cut-off). اگه داده‌ها موضوع خاص تو رو خوب پوشش نداده باشن، دیگه نباید انتظار داشته باشی یه جواب تخصصی درست بگیری. و گاهی هم، فقط یه چیزایی از خودشون درمیارن—به اینا می‌گیم &quot;hallucinations&quot;، و باور کن یه دردسر حسابی‌ان.برای همین، یه سری آدمای باهوش تو دنیای هوش مصنوعی دست به کار شدن تا این LLMها رو بهتر کنن، باهوش‌تر و قابل اعتمادترشون کنن، مخصوصاً برای کارای خاص. سه تا روش اصلی که احتمالاً اسمشون به گوشت می‌خوره اینان: Retrieval-Augmented Generation (RAG)، Cache-Augmented Generation (CAG) و Fine-Tuning قدیمی و دوست‌داشتنی.هر سه تاشون می‌خوان LLMها رو ارتقا بدن، ولی هر کدوم یه جور خاص کار می‌کنن و تو موقعیت‌های مختلف می‌درخشن. فکر کن مثل اینه که بخوای یه ماشین رو بهتر کنی: یه GPS بهتر می‌خوای (RAG)، یه صندوق بزرگ‌تر که برای یه سفر خاص پر شده (CAG)، یا یه تنظیم کامل موتور برای مسابقه (Fine-Tuning)؟ بیا یه کم اینا رو باز کنیم.دادن برگه تقلب به LLM درست موقع نیاز = RAGچیه این RAG  که میگن؟تصور کن LLMت داره امتحان می‌ده، ولی بهش اجازه دادی یه سری برگه تقلب ببره که فقط به سوالایی که ازش می‌پرسن ربط داره. این تقریباً همون RAGه. LLM رو به منابع دانش خارجی (مثل اسناد شرکتت، یه دیتابیس، یا حتی نتایج تازه از وب) وصل می‌کنه، درست همون لحظه که یه سوال می‌پرسی.چطور کار می‌کنه (به زبون ساده):آماده کردن برگه‌ها (Indexing): همه اسناد دانشت رو می‌گیری، به تیکه‌های کوچیک (&quot;chunks&quot;) تقسیمشون می‌کنی و تبدیلشون می‌کنی به یه سری کد عددی خاص (embeddings) که معنیشون رو نگه می‌داره. بعد اینا رو تو یه کتابخونه قابل جستجو (vector database) می‌ذاری.پیدا کردن برگه درست (Retrieval): وقتی سوالی می‌پرسی، سوالت هم به کد عددی تبدیل می‌شه. سیستم تو کتابخونه دنبال تیکه‌هایی می‌گرده که کدشون به کد سوالت نزدیک‌تره.جواب دادن با برگه‌ها (Generation): LLM سوالت رو می‌گیره، به علاوه اون تیکه‌های مرتبطی که پیدا کرده. از دانش عمومی خودش و این برگه‌ها استفاده می‌کنه تا یه جواب بهت بده که امیدواریم درست و حسابی باشه.چرا RAG باحاله (مزایا):اطلاعات تازه: RAG می‌تونه داده‌های به‌روز رو بکشه، دیگه نگران قطع دانش LLM نیستی. برای اخبار روز یا چیزایی که زود به زود عوض می‌شن عالیه.توهم یا hallucinations کمتر: چون بهش اطلاعات واقعی می‌دی، کمتر چرت و پرت می‌گه.شفافیت: معمولاً می‌تونی ببینی از چه اسنادی استفاده کرده (مثل رفرنس دادن!)، پس می‌تونی چک کنی کارش درسته یا نه. هوش مصنوعی که بشه بهش اعتماد کرد، خیلی خوبه.به‌صرفه (بعضی وقتا): از اینکه مدام یه مدل بزرگ رو آموزش بدی ارزون‌تره، مخصوصاً اگه داده‌هات هی تغییر کنه.هوش خاص حوزه: می‌تونی راحت بهش بگی از ویکی داخلی شرکتت یا گزارشای صنعتت استفاده کنه.ولی یه لحظه، مشکلم داره (معایب):کند بودن: اون مرحله retrieval یه کم طول می‌کشه. جستجو تو کتابخونه باعث می‌شه جواب دادن طولانی بشه.زباله بریزی، زباله می‌گیری: اگه retrieval خراب کنه و چیزای بی‌ربط بیاره، جوابتم خراب می‌شه. کیفیت منبع و جستجو خیلی مهمه.پیچیده‌ست: راه انداختن و نگه داشتن سیستم RAG (indexing، دیتابیس، retriever) کار ساده‌ای نیست.سوال اصلی: RAG is dead ؟شاید یه جاهایی بشنوی که با اومدن CAG دیگه RAG مرده. ولی نه، اشتباه نکن! RAG هنوز زنده‌ست و برای پایگاه‌های دانش پویا، بزرگ یا چیزایی که مدام عوض می‌شن و نیاز به دقت لحظه آخری دارن، هنوز بهترین گزینه‌ست. یه سری چالش داره، ولی انعطاف‌پذیریش حرف نداره.پر کردن مغز LLM از قبل (CAG)چیه این CAG؟حالا فکر کن به جای اینکه موقع امتحان برگه بدی، کل کتاب درسی رو قبلش به LLM بدی و بذاری بخونتش (دانش رو پیش‌بارگذاری کنه) تو حافظه کوتاه‌مدتش (context window). CAG می‌خواد از context windowهای بزرگ‌تر LLMهای جدید مثل Gemini استفاده کنه.چطور کار می‌کنه (به زبون ساده):بار کردن کتاب (Preloading): همه اسناد مرتبطی که فکر می‌کنی LLM برای یه کار یا موضوع خاص نیاز داره رو با دقت انتخاب می‌کنی. فقط باید تو context window مدل جا بشه.بذار &quot;بخونه&quot; (KV Cache): LLM این اطلاعات رو یه بار پردازش می‌کنه و &quot;درک&quot; داخلیش (KV cache، یه جور محاسبات میانی) ذخیره می‌شه.جواب سریع (Inference): وقتی سوال می‌پرسی، LLM اون درک ذخیره‌شده رو با سوالت بارگذاری می‌کنه. دیگه لازم نیست جایی رو بگرده؛ دانش تو ذهنشه.چرا CAG جذاب به نظر میاد (مزایا):سریع مثل برق: چون retrieval لحظه‌ای نداره، جوابات سریع‌تر می‌رسه. تأخیرش از RAG خیلی کمتره.شاید پایدارتر: چون LLM همه اطلاعات مرتبط رو از قبل می‌بینه (اگه جا بشه!)، ممکنه جوابای منسجم‌تر و دقیق‌تری تو اون حوزه بده.راه‌اندازی ساده‌تر (شاید): دیگه خط لوله retrieval جدا نداری، که می‌تونه کار رو راحت‌تر کنه.بدون خطای retrieval: اگه چیزی رو نمی‌خواد پیدا کنه، دیگه سند اشتباه نمیاره!خب، مشکلش چیه؟ (معایب CAG):محدودیت context window : این بزرگ‌ترین دردسرشه. CAG فقط وقتی کار می‌کنه که کل دانشت تو context window LLM جا بشه. برای اسناد زیاد یا کتابای بزرگ، روی خیلی از مدلا نمی‌شه.دانش ایستا: اطلاعات پیش‌بارگذاری‌شده ثابت می‌مونه. اگه چیزی عوض شه، باید کل پروسه رو از اول بری، که خیلی گرون تموم می‌شه. برای داده‌های پویا خوب نیست.عملکرد ممکنه افت کنه: حتی اگه داده‌ها جا بشن، زمینه‌های خیلی طولانی گاهی LLM رو گیج می‌کنن یا باعث می‌شن چیزای اول رو &quot;فراموش&quot; کنه.انعطاف کمتر: اگه کاربر چیزی خارج از اطلاعات پیش‌بارگذاری‌شده بپرسه، LLM قفل می‌کنه. RAG می‌تونه برای سوالای غافلگیرکننده چیز پیدا کنه.ولی CAG برای موقعیتای خاص خوبه: مثلاً پرسیدن از یه دفترچه راهنمای ثابت یا یه سری سوالات متداول که سرعت برات مهمه و حجم داده‌ها قابل کنترله. ولی جایگزین کامل RAG نیست، چون context window محدودش می‌کنه و دانشش ثابته.و اما Fine-Tuning: فرستادن LLM به دانشگاه تخصصیچیه ؟Fine-Tuning مثل اینه که یه LLM باهوش عمومی رو بگیری و بفرستیش یه دوره تخصصی برای یه مهارت خاص، یه حوزه، یا حتی یه سبک و شخصیت خاص. اینجا دیگه وزن‌های داخلی مدل رو با مثالای جدید تغییر می‌دی.چطور کار می‌کنه (به زبون ساده):ساختن برنامه درسی اختصاصی (Data Prep): یه مجموعه داده از مثالای باکیفیت که برای هدفت مناسبه جمع می‌کنی (مثلاً جوابای خوب خدمات مشتری، سوال و جوابای پزشکی، کد با یه سبک خاص).آموزش دادن متخصص (Training): یه LLM آماده رو می‌گیری و آموزشش رو ادامه می‌دی، ولی فقط با داده‌های خودت. این پارامترای مدل رو تنظیم می‌کنه تا تو اون کار خاص بهتر بشه. (تکنیکایی مثل LoRA این رو از آموزش کامل راحت‌تر می‌کنه).استخدام متخصص: حالا LLMت یه حرفه‌ای شده!چرا Fine-Tuning باحاله (مزایا):عملکرد حرفه‌ای: می‌تونه تو کارایی که براش آموزش دیده بهترین نتیجه رو بده.تسلط رو موضوع: LLM رو تو اصطلاحات، سبک‌ها یا دانش خاص یه حوزه استاد می‌کنه.سبک شخصی: می‌خوای LLMت مثل برندت حرف بزنه؟ Fine-Tuning این کارو می‌کنه.تأخیر کمتر (بعد آموزش): وقتی آموزشش تموم شه، دانش توش پخته شده. دیگه retrieval نمی‌خواد، پس برای کارای تخصصیش سریع جواب می‌ده.توهم یا hallucinations کمتر (تو تخصصش): با یادگیری عمیق یه حوزه، تو اون زمینه قابل اعتمادتر می‌شه.ولی یه بهایی داره (معایب):داده‌خور: به یه عالمه داده باکیفیت و خاص نیاز داره، که جمع کردنش سخت و گرونه.خطر Overfitting: ممکنه زیادی به داده‌های آموزشی عادت کنه و تو مثالای واقعی یه کم متفاوت کم بیاره.فراموشی (&quot;Catastrophic Forgetting&quot;): گاهی تخصصی شدن باعث می‌شه تو کارای عمومی که قبلاً بلد بود ضعیف‌تر بشه.هزینه اولیه بالا: خود آموزش به قدرت محاسباتی زیاد (GPUها) و زمان نیاز داره.نیاز به آپدیت: اگه حوزه عوض شه، باید با داده‌های جدید دوباره آموزشش بدی.پس Fine-Tuning وقتی خوبه که تخصص عمیق، یه سبک خاص یا بهترین عملکرد تو یه کار مشخص می‌خوای و داده و منابع لازم رو داری.نبرد بزرگ: RAG در برابر CAG در برابر Fine-Tuning - کدومو برداریم؟برنده مطلق نداریم. همه‌چیز بستگی به نیازات داره:اطلاعات تازه، دانش بزرگ یا قابل چک کردن می‌خوای؟ RAG بهترین انتخابته. داده‌های در حال تغییر رو خوب مدیریت می‌کنه و می‌تونی منبعشم ببینی، حتی اگه یه کم کندتر باشه.سرعت بالا یا کار با دانش محدود و ثابت می‌خوای؟ CAG می‌تونه جواب بده. سریع و ساده‌ست، اگه داده‌هات تو context window جا بشه. ولی محدودیتاشو یادت باشه!تخصص عمیق، سبک خاص یا بهترین عملکرد تو یه کار مشخص می‌خوای؟ Fine-Tuning راه درستشه، اگه داده و پول آموزش رو داشته باشی.به اینا فکر کن:دانشت چقدر عوض می‌شه؟ (پویا -&gt; RAG؛ ثابت -&gt; CAG/Fine-Tuning)پایگاه دانشت چقدر بزرگه؟ (خیلی زیاد -&gt; RAG؛ کم یا متوسط -&gt; CAG شاید کار کنه؛ Fine-Tuning دانش رو تو خودش جا می‌ده، ولی آماده کردن داده مهمه)سرعت برات حیاتیه؟ (CAG/Fine-Tuned &gt; RAG)می‌خوای بدونی LLM چرا یه چیزی گفت؟ (RAG &gt; CAG/Fine-Tuning)بودجه و منابعت چقدره؟ (راه‌اندازی RAG پیچیده‌ست، آموزش Fine-Tuning گرونه، CAG اگه بشه ساده‌تره)یه نکته باحال: ترکیبی برو!لازم نیست همیشه فقط یکی رو انتخاب کنی. آدمای زرنگ گاهی اینا رو قاطی می‌کنن. مثلاً یه LLM رو برای یه حوزه کلی (مثل پزشکی) Fine-Tune کنی، بعد با RAG داده‌های به‌روز بیمار یا مقاله‌های جدید بهش بدی. یا CAG رو برای سوالات متداول ثابت و RAG رو برای بقیه کارا بذاری.یه مثال واقعی: ساختن امتحان از یه کتابفرض کن می‌خوای یه هوش مصنوعی از یه کتاب درسی امتحان درست کنه. هر روش چطور این کارو می‌کنه؟RAG:کتاب رو به تیکه‌ها (chunks) تقسیم می‌کنی، embed می‌کنی و تو یه vector database می‌ذاری.برای سوالای فصل سوم، دیتابیس رو برای تیکه‌های مرتبط با فصل سوم جستجو می‌کنی.به LLM می‌گی: &quot;با این متنای پیدا شده از فصل سوم، 5 تا سوال چندگزینه‌ای بساز&quot;، به علاوه متنایی که پیدا کرده.خوبیا: انعطاف‌پذیره، می‌تونی راحت رو بخشای خاص زوم کنی.بدیا: اگه retrieval خوب نباشه، شاید ارتباط بین فصل‌ها رو از دست بده، retrievalم یه کم تأخیر داره.CAG:سعی می‌کنی کل کتاب رو تو context window LLM جا بدی و KV cache رو بسازی. (اگه کتابت &quot;جنگ و صلح&quot; باشه، شانس بیاری!)بعد می‌گی: &quot;5 تا سوال چندگزینه‌ای از فصل سوم با محتوای پیش‌بارگذاری‌شده بساز.&quot;خوبیا: سریع‌تر جواب می‌ده، اگه کل کتاب جا بشه شاید زمینه بزرگ‌تری رو ببینه.بدیا: جا شدن کتاب یه چالش بزرگه، ثابته (اگه خطایی تو کتاب باشه نمی‌تونی راحت درستش کنی)، زمینه‌های خیلی طولانی ممکنه اذیتش کنه.Fine-Tuning:باید یه مجموعه داده از سوال و جوابای کتاب بسازی. کار زیادی می‌بره، شاید صدها یا هزارتا مثال.بعد LLM رو با این داده‌ها آموزش می‌دی.به مدل Fine-Tuned می‌گی: &quot;5 تا سوال چندگزینه‌ای از فصل سوم بساز.&quot;خوبیا: سوالایی که دقیقاً به سبک و محتوای کتاب می‌خوره می‌ده، بعد آموزش سریع کار می‌کنه.بدیا: آماده کردن داده‌ها خیلی زحمت داره، آموزش گرونه، مدل دیگه فقط برای این کتاب و کار تخصصیه.می‌بینی؟ RAG انعطاف‌پذیره، CAG سریع ولی محدود به اندازه‌ست، Fine-Tuning تخصص می‌ده ولی هزینه اولیه‌ش بالاست.حرف آخرپس RAG، CAG و Fine-Tuning همه‌شون ابزارای باحالی تو جعبه ابزار LLMن. هیچ‌کدوم &quot;بهتر&quot; نیستن، فقط برای کارای مختلفن. RAG چیزا رو تازه و قابل اعتماد نگه می‌داره، CAG سرعت رو برای دانش محدود میاره، و Fine-Tuning متخصص می‌سازه. اگه بفهمی قوت و ضعفشون چیه و کجا به کار میان، می‌تونی بهترین روش (یا یه ترکیب) رو برای LLMت انتخاب کنی تا حسابی بدرخشه. پس بگرد ببین LLMت به چی نیاز داره و بهترین ارتقاء رو بهش بده!منابع Retrieval-Augmented Generation for Large Language Models: A Survey. arXiv (2312.10997v5).What is Retrieval-Augmented Generation (RAG)?. Google Cloud.Don’t Do RAG: When Cache-Augmented Generation is All You Need for Knowledge Tasks. arXiv (2412.15605).A Deep Dive into Cache Augmented Generation (CAG). ADaSci.A complete guide to retrieval augmented generation vs fine-tuning. Glean Blog.</description>
                <category>Mohammad Shojaei</category>
                <author>Mohammad Shojaei</author>
                <pubDate>Wed, 09 Apr 2025 23:27:25 +0330</pubDate>
            </item>
                    <item>
                <title>آینده تولید محتوا مبتنی بر هوش مصنوعی</title>
                <link>https://virgool.io/@realshojaei/%D9%85%D8%AE%D8%B2%D9%86-%D9%85%D9%86%D8%A7%D8%A8%D8%B9-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-e5qrmzhw9rhz</link>
                <description>چگونه ابزارهای هوش مصنوعی روش تولید و مصرف محتوا را متحول می کنندهوش مصنوعی (AI) به سرعت دنیای اطراف ما را متحول می کند و صنعت تولید محتوا نیز از این قاعده مستثنی نیست. ابزارهای هوش مصنوعی برای خودکارسازی و بهبود طیف وسیعی از وظایف، از نوشتن و ویرایش گرفته تا تولید تصاویر و ویدیوها، استفاده می‌شوند. این منجر به فرآیند تولید محتوای کارآمدتر و سازنده تر می شود و همچنین فرصت های جدیدی را برای خلاقیت باز می کند.ابزارهای تولید محتوا مبتنی بر هوش مصنوعیدر حال حاضر تعدادی ابزار مبتنی بر هوش مصنوعی در دسترس هستند که می توان از آنها برای ایجاد محتوا استفاده کرد. برخی از محبوب ترین ابزارها عبارتند از:* Jasper: یک تولید کننده متن به تصویر که می تواند تصاویر واقعی و اصلی ایجاد کند.* Copy.ai: یک ابزار کپی‌نویسی در رسانه‌های اجتماعی که می‌تواند به شما در نوشتن پست‌های جذاب و موثر در رسانه‌های اجتماعی کمک کند.* Narrato: ابزاری برای برنامه‌ریزی و ایجاد محتوا که می‌تواند به شما در ایده‌پردازی ایده‌ها و ایجاد خطوط کلی برای محتوای خود کمک کند.* Surfer: یک ابزار سئو و تحقیق محتوا است که می تواند به شما کمک کند محتوای خود را برای موتورهای جستجو بهینه کنید.* Byword: یک دستیار نوشتن که می تواند به شما در بهبود گرامر و سبک خود کمک کند.* Synthesia: ابزاری برای ایجاد ویدیو که می تواند ویدیوهای واقعی و شخصی سازی شده تولید کند.* Murf: یک تولید کننده صدای AI تبدیل متن به گفتار که می تواند صداهای واقعی و جذاب ایجاد کند.* Canva: یک ابزار طراحی گرافیکی است که می تواند برای ایجاد انواع محتوای بصری از جمله اینفوگرافیک، ارائه و گرافیک رسانه های اجتماعی استفاده شود.* DeepBrain AI: دستیار نوشتن که می تواند به شما در بهبود سبک نوشتن و خلاقیت کمک کند.* Rapidely: ابزاری برای ایجاد صفحه وب که می تواند به شما در ایجاد یک وب سایت سفارشی بدون هیچ گونه تجربه کدنویسی کمک کند.* Trellis: ابزاری برای اتوماسیون اسناد قانونی که می تواند به شما در ایجاد قراردادها، شرایط خدمات و سایر اسناد قانونی کمک کند.* AdZis: ابزاری برای تولید توضیحات محصول که می تواند به شما در نوشتن توضیحات محصول با کیفیت بالا برای فروشگاه تجارت الکترونیکی خود کمک کند.اینها تنها تعدادی از بسیاری از ابزارهای ایجاد محتوای مبتنی بر هوش مصنوعی هستند که در دسترس هستند. همانطور که فناوری هوش مصنوعی همچنان در حال توسعه است، می‌توان انتظار داشت که در آینده ابزارهای نوآورانه و قدرتمندتری ظهور کنند.**مزایای استفاده از ابزارهای تولید محتوای مبتنی بر هوش مصنوعی**استفاده از ابزارهای ایجاد محتوای مبتنی بر هوش مصنوعی مزایای زیادی دارد. برخی از قابل توجه ترین مزایای عبارتند از:* افزایش کارایی: ابزارهای هوش مصنوعی می‌توانند بسیاری از وظایف مربوط به تولید محتوا را خودکار کنند، که می‌تواند زمان شما را برای تمرکز بر کارهای خلاقانه‌تر و استراتژیک‌تر آزاد کند.* کیفیت بهبود یافته: ابزارهای هوش مصنوعی می توانند به شما کمک کنند تا محتوای با کیفیتی ایجاد کنید که با صدای و سبک برند شما سازگار باشد.* افزایش دسترسی: ابزارهای هوش مصنوعی می توانند به شما کمک کنند تا محتوایی ایجاد کنید که احتمال دیده شدن و اشتراک گذاری آن توسط مخاطبان هدف شما بیشتر باشد.* کاهش هزینه ها: ابزارهای هوش مصنوعی می توانند به شما کمک کنند تا در هزینه های تولید محتوا صرفه جویی کنید، به خصوص اگر از ابزار پولی استفاده می کنید.**آینده تولید محتوای مبتنی بر هوش مصنوعی**آینده تولید محتوا مبتنی بر هوش مصنوعی است. ابزارهای هوش مصنوعی پیچیده تر و مقرون به صرفه تر می شوند و تأثیر قابل توجهی بر نحوه تولید و مصرف محتوا دارند. همانطور که فناوری هوش مصنوعی همچنان در حال توسعه است، می‌توان انتظار داشت که در آینده ابزارهای نوآورانه و قدرتمندتری ظهور کنند.در نتیجه، ابزارهای تولید محتوای مبتنی بر هوش مصنوعی در حال تحول در صنعت هستند. ابزارهای هوش مصنوعی با توانایی خود در خودکارسازی وظایف، بهبود کیفیت، افزایش دسترسی و کاهش هزینه ها، تولید محتوا را کارآمدتر و موثرتر از همیشه می کنند. اگر شما یک تولید کننده محتوا هستید، من شما را تشویق می کنم که ابزارهای هوش مصنوعی را آزمایش کنید تا ببینید که چگونه می توانند به کار شما کمک کنند.</description>
                <category>Mohammad Shojaei</category>
                <author>Mohammad Shojaei</author>
                <pubDate>Thu, 21 Sep 2023 16:15:45 +0330</pubDate>
            </item>
            </channel>
</rss>