تسلط عمیق: چگونه مدل‌های عصبی عمیق را به درستی مقایسه کنیم

۵۷‌امین کنفرانس سالانه انجمن زبان‌شناسی رایانشی
۵۷‌امین کنفرانس سالانه انجمن زبان‌شناسی رایانشی

مقایسه بین مدل‌های شبکه عصبی عمیق (‏DNN)‏براساس عملکردشان در داده‌های نادیده برای پیشرفت زمینه NLP حیاتی است. با این حال، این مدل‌ها دارای تعداد زیادی از پارامترهای فوق محدب هستند و نقطه هم‌گرایی آن‌ها به مقادیر تصادفی انتخاب‌شده در شروع و در طول آموزش بستگی دارد. از این رو مقایسه مناسب DNN به جای مقایسه بین امتیازات ارزیابی منفرد همانطور که برای مدل‌های ساده و محدب استاندارد است، نیاز به مقایسه بین توزیع‌های امتیاز تجربی‌شان بر روی داده‌های پنهان دارد. در این مقاله، ما پیشنهاد می‌کنیم که با این مساله سازگار شویم، آزمایشی که اخیرا برای رابطه تقریبا تصادفی تسلط بین دو توزیع پیشنهاد شده‌است. ما معیارهایی را برای یک روش مقایسه با کیفیت بالا بین DNNها تعریف می‌کنیم و نشان می‌دهیم، هم از لحاظ نظری و هم از طریق تجزیه و تحلیل نتایج تجربی گسترده با مدل‌های DNN پیشرو برای وظایف برچسب‌گذاری توالی، که آزمون پیشنهادی با تمام معیارها مطابقت دارد در حالی که روش‌های پیشنهاد شده قبلی در انجام این کار شکست می‌خورند. امیدواریم آزمونی که در اینجا پیشنهاد می‌کنیم، یک تمرین کاری جدید در جامعه NLP ایجاد کند. ​

این متن ترجمه‌ای ‌خودکار از چکیده مقاله Deep Dominance - How to Properly Compare Deep Neural Models ارایه شده در ۵۷‌امین کنفرانس سالانه Association for Computational Linguistics است.

برای مطالعه کامل این مقاله به همراه ترجمه‌ آنلاین و رایگان به این لینک مراجعه فرمایید.​