دکترای کامپیوتر - پدر رباتها :)
هوش مصنوعی به کجا می رود؟
قسمت اول
امروزه تقریبا هر جا راجع به موفقیتهای هوش مصنوعی میشنوید رد پایی از یادگیری عمیق در آن هست. خب این الگوریتم ها، توانایی بالایی در یافتن الگوهای آماری دارند و توانسته اند بطور شگفت انگیزی قابلیتهای انسان در دیدن و شنیدن را تقلید کنند. شبکه های عمیق از موتور جستجوی گوگل گرفته تا فید خبری فیسبوک و خلاصه خیلی از بیزینس ها را دستخوش تغییر کرده اند.
اگرچه بسیاری از این دستاوردها و به عبارتی نفوذ AI به صنایع و کاربردهای مختلف، مدیون یادگیری عمیق است، اما اگر کمی چشممان را باز کنیم میبینیم که این شبکه ها تنها کمتر از 10 سال از تاریخچه هوش مصنوعی را می سازند و تحقیقات این حوزه حتما به سمت و سوهای دیگری نیز راه پیدا خواهد کرد.
مجله MIT Technology Review به تازگی تحلیلی بر روی بیش از 16 هزار مقاله هوش مصنوعی بر روی پایگاه داده arXiv انجام داده و نتیجه این است که حوزه هوش مصنوعی به سمت «یادگیری تقویتی» یا همان RL حرکت خواهد کرد. این تحقیق به کشفیات جالبی اشاره کرده که یکی از آنها اشاره به وقوع 3 شیفت (یا به عبارتی سه موج) مختلف در طی 70 سال تاریخچه "هوش مصنوعی" دارد. اگر مایلید تحلیل را بخوانید به لینک زیر بروید.
اواخر دهه 90 و اوائل قرن جدید، جایی است که "یادگیری ماشین" رشده کرده و جانشین سیستم های خبره و پایگاه دانش شده، سپس حول وحوش 2010 "شبکههای عصبی" و نسل پیشرفتهتر آنها یعنی "یادگیری عمیق" فراگیر شدند و در چند سال اخیر هم شاهد یک شیفت دیگر به سمت روشهای "یادگیری تقویتی" هستیم. بیایید با هم نگاهی به این تاریخچه بندازیم.
سیستمهای پایگاه دانش
بیایید از دهه هشتاد شروع کنیم، جایی که سیستمهای پایگاه دانش (Knowledge-Based System) یا به روایتی دیگر سیستم های خبره (به عنوان اولین سیستم های هوشمند) محبوبیت پیدا کردند و در قلب پروژههای مهم کامپیوتری فعالیت میکردند. این سیستم ها شامل یک «پایگاه دانش» و یک «موتور استدلال» بودند. بخش استدلال این سیستم ها معمولا از مجموعهای از قوانین به شکل If-Then تشکیل میشد که فرایند تصمیمگیری را کنترل میکرد. مزیت این سیستمها نسبت به برنامههای رایج کامپیوتری این بود که قوانین در قالبی طراحی میشدند که نه فقط مهندسان کامپیوتر بلکه افراد با تخصصهای دیگر (مثلا یک پزشک) هم بتواند آنها را توسعه دهد.
یکی از معروفترین این سیستمها یک سیستم خبره پزشکی بنام Mycin بود که برای تشخیص عفونتهای باکتریهایی مانند مننژیت بکار میرفت و با آن تجویز آنتیبیوتیک به بیمار انجام میشد (نام مایسین از آخر اسم آنتی بیوتیکها گرفته شده بود)
قسمت دوم
با توسعه ی پروژههای کامپیوتری، سیستمهای پایگاه دانش با یک چالش بزرگ روبرو شدند: قوانین بسیار زیادی وجود داشتند که نمیشد یکی یکی برای همه آنها کد نوشت. به عبارتی به هوشمندی بیشتری نیاز بود.
موج اول، یادگیری ماشین
"یادگیری ماشین" درمان این درد بود! حالا بجای بکارگیری آدمها برای نوشتن صدها هزار خط کد، با بکارگیری یادگیری ماشین، کامپیوتر بصورت اتوماتیک، قواعد را از دادهها استخراج میکرد. شبکههای Bayesian، شبکههای عصبی، روشهای مارکوف، SVMها و الگوریتمهای تکاملی (مانند الگوریتم ژنتیک) و... همگی ابزارهایی برای این منظور بودند. همه آنها به نحوی، دنبال یافتن الگو در دادهها بودند و نقاط ضعف و قوت خودشان را داشتند.
موج دوم، شبکههای عصبی
در سال 2012 یک خبر مثل بمب در جامعه هوش مصنوعی ترکید. در مسابقات سالانهی ImageNet (که برای توسعهی هوش مصنوعی و بینایی ماشین شکل گرفته بود) یک استاد دانشگاه تورنتو به نام Geoffrey Hinton به همراه دانشجویانش یک شبکه عصبی طراحی کردند به نام AlexNet که بیشتر از 10% رکورد دقت تشخیص را بهبود داد. این موفقیت، نقطه عطفی بود برای گسترش شبکه های عصبی و یادگیری عمیق. بزودی موج بزرگی در دنیای هوش مصنوعی ایجاد شد و محققان و دانشگاه های زیادی را به سمت شبکههای عصبی کشاند.
و موج سوم، یادگیری تقویتی
هرچند این الگوریتمها خیلی هم جدید نیستند. و همانطور که Sutton در کتابش نوشته، این مفهوم در اواخر دهه 80 میلادی پا گرفته است و حتی قبلتر از آن تحت عناوین دیگری مثل Optimal Control مورد مطالعه بوده. نحوه کارکرد RL ها الهام گرفته از فرایند یادگیری در حیوانها و انسانهاست که با پاداش و تنبیه همراه است. از آنجا که تشریح کامل این مفهوم در این مقاله نمیگنجد، فقط محض یادآوری باید بگوییم روشهای یادگیری ماشین، به سه دسته تقسیم میشوند:
- Supervised Learning
- Unsupervised Learning
- Reinforcement Learning
نقطه عطف گسترش RL ها به موفقیت پروژه AlphaGo در 2015 برمیگردد. این برنامه کامپیوتری که میتواند یک نوع بازی تخته به نام Go را بازی کند توانست قهرمان جهان را شکست دهد. بعد از این اتفاق توجه های بیشتری به استفاده از RL ها جلب شده است. تحلیلها نشان میدهد که این روشها جایگاه بالاتری در سالهای آینده خواهند داشت.
پ.ن. روشهای یادگیری تقویتی در ابتدای راه هستند. برای یادگیری بدیهی ترین کارها نیاز است تا هزاران ساعت پردازش GPU صرف آنها شود و بجز شرکتهای بزرگ و پولدار مثل گوگل کسی از عهده ی تامین سخت افزار لازم برای اجرای آنها برنمی آید. اما ما هنوز چیزی از آینده نمیدانیم!
جواد امیریان
مطلبی دیگر از این انتشارات
الهام الگوریتمیک از طبیعت
مطلبی دیگر از این انتشارات
10 وبلاگ برتر علوم داده
مطلبی دیگر از این انتشارات
بررسی تفاوت علوم داده و یادگیری ماشینی