ویرگول
ورودثبت نام
mahsa sanaei
mahsa sanaei
خواندن ۳ دقیقه·۳ ماه پیش

راهنمای گام به گام برای تنظیم FINE TUNING در LLM


در عصر داده‌ها و هوش مصنوعی، مدل‌های یادگیری ماشینی بزرگ (LLMs) نقش اساسی در تسهیل وظایف مختلف دارند، از پردازش زبان طبیعی گرفته تا تصمیم‌گیری‌های پیچیده. اما چجوری میشه این مدل‌ها را بهینه‌سازی کرد تا نیازهای خاص ما را برآورده کنن؟ اینجاست که fine-tuning وارد میشه. در تصویر زیر ، مراحل کلیدی برای بهینه‌سازی LLM‌ها به نمایش گذاشته شدن.



البته، این تصویر راهنمایی است برای تنظیم fine-tuning مدل‌های بزرگ یادگیری ماشینی (LLMs) که چنین کار می‌کنه:


گام 1: انتخاب وظیفه یادگیری

ابتدا، تصمیم می‌گیریم که می‌خواهیم مدل‌مان روی چه کاری تمرکز کنه؛ مثلاً می‌تواند تشخیص دهد یک ایمیل اسپم هست یا نه، یا متون را از یک زبان به زبان دیگر ترجمه کند. برای این کار داده‌های مرتبط با اون وظیفه رو جمع‌آوری می‌کنیم.


گام ۲:کاهش زمان و هزینه آموزش با LoRA

بعدیش، به جای اینکه تمام بخش‌های مدل رو دوباره آموزش بدیم، فقط قسمت‌های کوچیکی به نام LoRA Adaptors رو تنظیم می‌کنیم. این باعث می‌شه که مدل راحت‌تر و ارزون‌تر به روز رسانی بشه.


در زمینه fine-tuningمدل‌های یادگیری ماشینی بزرگ (LLMs)، LoRA مخفف "Low-Rank Adaptation" هست. LoRA یک تکنیک موثر برای تنظیم ریز مدل‌های عصبی پیچیده هست که با هدف کاهش هزینه‌ها و افزایش سرعت آموزش مدل ابداع شده .


در LoRA، به جای تغییر تمام وزن‌های شبکه عصبی که می‌تواند بسیار پرهزینه و زمان‌بر باشد، فقط یک مجموعه کوچک از پارامترهای موثر به نام adaptorها تنظیم ریز میشن. این adaptorها معمولاً در لایه‌های مخفی شبکه جاسازی میشن و به نوعی به مدل اجازه میدن تا ویژگی‌های مورد نیاز برای انجام یک وظیفه خاص را یاد بگیره، بدون اینکه نیاز به بازآموزی کل مدل باشه.


این کار از طریق ایجاد تغییرات در ماتریس وزن‌های مدل به صورت کم‌بعد (low-rank) انجام میشه، که تغییرات کم‌بعد به معنای اینه که تنها تعداد کمی از وزن‌ها تغییر میکنه. این امر به ما اجازه میده که فقط جنبه‌های خاصی از مدل را که بیشترین تأثیر را بر عملکرد وظیفه داره، تنظیم کنیم.



در مورد (fine-tuning) در زمینه یادگیری ماشینی به روند ارتقاء یا تطبیق یک مدل پیش‌آموزش دیده (pretrained model) با یک وظیفه خاص گفته میشه. مدل‌های پیش‌آموزش دیده در داده‌های بسیار بزرگی آموزش دیدهن تا الگوهای کلی زبان، تصویر، یا هر نوع دیگری از داده‌ها را یاد بگیرن. اما وقتی صحبت از عملی کردن آن‌ها در یک دامنه یا وظیفه خاص میشه، نیاز است تا مدل‌ها را روی داده‌ها و وظایف مخصوص به آن دامنه آموزش بدیم.


درfine-tuning، مدل روی یک مجموعه داده کوچک‌تر و متمرکز روی یک وظیفه یا دامنه خاص آموزش میبینه. این کار به مدل کمک میکنه تا روی الگوها و ویژگی‌های مهم برای آن وظیفه خاص تمرکز کنه و در نتیجه، عملکرد بهتری داشته باشه.


گام۳:خط لوله‌ی چندین وظیفه‌ی fine-tuning

در اینجا، داده‌های خاص برای هر کار به مدل اضافه میشه و adaptor مربوط به اون کار رو فعال می‌کنیم. اینطوری مدل می‌تونه برای کارهای مختلف، مثل پاسخ به سوالات یا ترجمه، به طور خاص تنظیم بشه و عملکرد بهتری داشته باشه. همه‌ی این adaptorها تو یک محل، یعنی LoRA weights repo، ذخیره می‌شن تا وقتی نیاز بود سریع بتوان به آن‌ها دسترسی پیدا کرد.



یادگیری ماشینهوش مصنوعیتکنولوژیکنکورکامپیوتر
مهسا ثنائی هستم.مهندس کامپیوتر و فعال در حوزه جذاب هوش مصنوعی
شاید از این پست‌ها خوشتان بیاید