انتخاب داده‌های آموزشی به صورت تقویتی برای تطبیق دامنه

۵۷‌امین کنفرانس سالانه انجمن زبان‌شناسی رایانشی
۵۷‌امین کنفرانس سالانه انجمن زبان‌شناسی رایانشی

مدل‌های نظارت شده از مشکل تغییر دامنه رنج می‌برند که در آن عدم تطابق توزیع در داده‌ها در سراسر حوزه‌ها تا حد زیادی بر عملکرد مدل تاثیر می‌گذارد. برای حل این مشکل، ثابت شده‌است که انتخاب داده‌های آموزشی (‏TDS) ‏یک راه‌حل بالقوه برای انطباق دامنه در اعمال نفوذ داده‌های مناسب است. با این حال، روش‌های سنتی TDS به طور معمول به آستانه از پیش تعیین‌شده نیاز دارد که تنظیم آن نه آسان است و نه می‌تواند در میان وظایف به کار رود، و مدل‌ها به طور جداگانه با فرآیند TDS آموزش داده می‌شوند. در این مقاله، برای خود تطبیق دادن TDS با داده‌ها و کار، و ترکیب آن با آموزش مدل، یک چارچوب یادگیری تقویتی (‏RL)‏ پیشنهاد می‌کنیم که به طور همزمان به دنبال نمونه‌های آموزشی مربوط به دامنه هدف می‌گردد و نمایش‌های بهتری برای آن‌ها یاد می‌گیرد. یک مولد توزیع انتخاب (‏SDG)‏برای انجام انتخاب طراحی شده‌است و با توجه به پاداش‌های محاسبه‌شده از داده‌های انتخابی به روز می‌شود، که در آن یک پیش‌بینی‌کننده در چارچوب برای اطمینان از اینکه یک مدل خاص وظیفه می‌تواند بر روی داده‌های انتخاب‌شده آموزش داده شود و بازخوردی برای پاداش‌ها فراهم می‌کند. نتایج تجربی از برچسب گذاری بخشی از گفتار، تجزیه وابستگی، و آنالیز احساسات، و همچنین مطالعات تخریب، نشان می‌دهد که چارچوب پیشنهادی نه تنها در انتخاب و نمایش داده‌ها موثر است، بلکه برای تطبیق دادن وظایف مختلف NLP تعمیم داده می‌شود. ​

این متن ترجمه‌ای ‌خودکار از چکیده مقاله Reinforced Training Data Selection for Domain Adaptation ارایه شده در ۵۷‌امین کنفرانس سالانه Association for Computational Linguistics است.

برای مطالعه کامل این مقاله به همراه ترجمه‌ آنلاین و رایگان به این لینک مراجعه فرمایید.​