شبکه های هوش مصنوعی شفاف، با استدلال های شبه انسانی

شبکه های عصبی شفاف
شبکه های عصبی شفاف

محققان دانشگاه MIT ادعا کرده‌اند که موفق به طراحی مدلی از هوش مصنوعی شده‌اند که استانداردهای جدیدی برای فهمیدن نحوه‌ی تصمیم‌گیری در شبکه‌های عصبی ایجاد می‌کند. تیم هوش و تصمیم‌گیری آزمایشگاه Lincoln این دانشگاه، شبکها‌ی عصبی طراحی کرده‌اند که با استدلال‌های شبه انسانی به سوالات مربوط به محتوای تصاویر پاسخ می‌دهد.

این سیستم در طی فرایند حل مسئله، توسط شبکه‌ی (TbD (Transparency by Design Network نحوه ی کار خود را با تفسیر گرافیکی پروسه‌ی تصمیم گیری نشان می‌دهد. این عمل به محققین کمک می‌کند تا علت هر تصمیم سیستم را در فرایند حل مسئله متوجه شوند.
این مدل نه تنها سطح جدیدی از شفافیت (transparency) را در شبکه های عصبی به دست می‌آورد، بلکه بسیار بهتر از اکثر مدل‌های visual-reasoning (مترجم: نشان دادن تصمیم گیری‌های سیستم به صورت گرافیکی) عمل می‌کند.

نمونه ای از کار این مدل
نمونه ای از کار این مدل

ای مقاله را میتوانید از لینک Transparency by Design: Closing the Gap Between Performance and Interpretability in Visual Reasoning دریافت کنید.


شبکه‌ی عصبی شفاف

ویژگی شفاف بودن شبکه‌های TbD به پژوهشگران اجازه می‌دهد هرگونه استدلال اشتباه که سیستم ممکن است مرتکب شود را اصلاح کنند، به صورتی که توسعه‌دهندگان این مدل باور دارند که این" سیستم اصلاح" دقیقا همان کمبودی هست که در شبکه‌های عصبی امروزی دیده میشود.

برای مثال ماشین‌های خودران باید به صورت مداوم عابرین را با دقت بالا تشخیص دهند، به همین دلیل طراحی این سیستم با توجه به پیچیدگی آن به شدت چالش‌برانگیز است. حتی با وجود یک شبکه‌ی عصبی کارا نیز درک سیستم تصمیم‌گیری آن ممکن است برای توسعه‌دهندگان نامفهوم باشد؛ مشکلی که رویکرد جدید MIT به دنبال حل آن است.

رایان سوکلاسکی (Ryan Soklaski)، کسی که شبکه‌ی TbD را با کمک همکاران محقق خود، آرژون مجومدار (Arjun Majumdar)، دوید ماشارکا (David Mascharka) و فلیپ تران (Philip Tran) ایجاد کرده، گفته است:

پیشرفت در بهبود کارایی visual-reasoning به بهای از دست دادن "تفسیر پذیری" آن است.

تیم توسعه با یک رویکرد مدولار این شبکه عصبی را ساخته اند؛ ساخت زیرشبکه‌هایی (sub-networks) که برای انجام دادن یک سری زیرعملیات (sub-problems) تخصص یافته‌اند به صورتی که شبکه TbD یک سوال را به بخش‌های کوچک‌تر تقسیم می‌کند و آن را به مدل‌های مرتبط تحویل می‌دهد. در این مدل هر زیرشبکه بر روی استنتاج شبکه‌ی دیگر ساخته شده‌است.

شکستن سلسله‌ی پیچیده‌ای از استدلال ها به یک سری از زیرمسئله‌ها که هر کدام قادر اند به صورت مجزا حل شوند، یک ابزار قدرتمند و شهودی برای استدلال است. -- آرژون مجومدار

پروسه حل مسئله این شبکه عصبی شبیه به پروسه حل مسئله انسان است، به همین دلیل قادر است به سوالات پیچیده استدلال مکانی مانند "رنگ مکعب‌ای که در سمت راست کره‌ی فلزی بزرگ است " پاسخ دهد. شبکه ی عصبی این سوال را به موئلفه‌های سازنده‌اش تبدیل میکند، کره‌ی فلزی بزرگ را تشخیص میدهد، مفهوم سمت راست بودن یک شئ را درک میکند و سرانجام مکعب را پیدا کرده و رنگ آن را اعلام میکند.
این شبکه عصبی خروجی هر مدل را به صورت یک "attention mask" نشان میدهد؛ یک نقشه حرارتی که بر روی شئ نشان داده میشود تا به پژوهشگران نشان دهد هر مدل چگونه تفسیر میشود، این عملیات به آن ها کمک میکند فرایند تصمیم گیری شبکه عصبی را درک کنند.

باوجود طراحی این سیستم برای "شفافیت بیشتر"، شبکه TbD موفق به کسب دقت ۹۹.۱ درصدی در state-of-the-art، توسط استفاده از یک دیتابیس معروف به CLEVR، شده است. همچنین به لطف شفافیت سیستم محققان میتوانند اشتباهات شبکه عصبی را دیده و بر اساس آن شبکه را اصلاح کنند.

تیم تحقیقاتی باور دارد با چنین بینشی به عملکرد شبکه‌های عصبی میتوان در آینده اعتماد کاربران را نسبت به سیستم‌های استدلال مکانی افزایش داد.


منبع: Transparent neural network boasts human-like reasoning