من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
پیشگامان یادگیری عمیق فکر میکنند که آینده آن روشن خواهد شد.

منتشر شده در thenextweb به تاریخ ۵ جولای ۲۰۲۱
لینک منبع: Pioneers of deep learning think its future is gonna be lit
یوشوا بنجیو، جفری هینتون، و یان لکان، چالشهای فعلی یادگیری عمیق و آیندهای که ممکن است در انتظار شما باشد را توضیح میدهند.
شبکههای عصبی عمیق از کاستیهای خود بدون کمک هوش مصنوعی نمادین عبور خواهند کرد، سه پیشگام یادگیری عمیق در مقاله منتشر شده در شماره جولای مجله ارتباطات ACM بحث میکنند.
در مقاله آنها، یوشوا بنجیو، جفری هینتون، و یان لکان، دریافتکننده جایزه تورینگ سال ۲۰۱۸، چالشهای فعلی یادگیری عمیق و تفاوت آن با یادگیری در انسانها و حیوانات را توضیح میدهند.
آنها همچنین پیشرفتهای اخیر در این زمینه را بررسی میکنند که ممکن است نقشهای را برای مسیرهای آینده برای تحقیق در یادگیری عمیق فراهم کنند.
این مقاله با عنوان «یادگیری عمیق برای هوش مصنوعی» آیندهای را پیشبینی میکند که در آن مدلهای یادگیری عمیق میتوانند با کمک اندک یا بدون کمک انسانها یاد بگیرند، نسبت به تغییرات در محیط خود انعطافپذیر باشند، و میتوانند طیف گستردهای از مشکلات بازتابی و شناختی را حل کنند.
چالشهای یادگیری عمیق
یادگیری عمیق اغلب با مغز انسانها و حیوانات مقایسه میشود. با این حال، در سالهای گذشته ثابت شدهاست که شبکههای عصبی مصنوعی، مولفه اصلی مورد استفاده در مدلهای یادگیری عمیق، فاقد کارایی، انعطافپذیری و تطبیقپذیری همتایان بیولوژیکی خود هستند.
بنجیو، هینتون، و لکان در مقاله خود به این کاستیها اعتراف میکنند. یادگیری با نظارت، در حالی که در بسیاری از وظایف موفق است، به طور معمول به مقدار زیادی داده برچسبگذاری شده توسط انسان نیاز دارد. به همین ترتیب، هنگامی که یادگیری تقویتی فقط مبتنی بر پاداش باشد، به تعاملات زیادی نیاز دارد، آنها مینویسند.
یادگیری با نظارت یک زیر مجموعه محبوب از الگوریتمهای یادگیری ماشینی است، که در آن یک مدل با نمونههای برچسبدار، مانند فهرستی از تصاویر و محتوای متناظر آنها ارائه میشود.
این مدل برای یافتن الگوهای تکرار شونده در مثالهایی که برچسبهای مشابهی دارند، آموزش داده میشود. سپس از الگوهای آموختهشده برای مرتبط کردن نمونههای جدید با برچسبهای مناسب استفاده میکند. یادگیری با نظارت به ویژه برای مشکلاتی مفید است که در آن مثالهای برچسبدار به وفور در دسترس هستند.
یادگیری تقویتی شاخه دیگری از یادگیری ماشینی است که در آن یک «عامل» یاد میگیرد تا «پاداش» را در یک محیط به حداکثر برساند. یک محیط میتواند به سادگی یک تخته آستانه tic-tac باشد که در آن یک بازیکن هوش مصنوعی برای قرار دادن سه Xs یا O پاداش میگیرد، یا به پیچیدگی یک محیط شهری است که در آن یک ماشین خود-راننده برای اجتناب از برخورد، اطاعت از قوانین راهنمایی و رانندگی و رسیدن به مقصد پاداش داده میشود. نماینده با انجام اقدامات تصادفی شروع میکند. زمانی که بازخورد را از محیط خود دریافت میکند، زنجیرهای از اقدامات را پیدا میکند که پاداش بهتری را فراهم میکند. زمانی که بازخورد را از محیط خود دریافت میکند، زنجیرهای از اقدامات را پیدا میکند که پاداش بهتری را فراهم میکند.
در هر دو مورد، همانطور که دانشمندان اذعان دارند، مدلهای یادگیری ماشینی نیاز به کار زیادی دارند. به سختی میتوان مجموعه دادههای دارای برچسب را تهیه کرد، به ویژه در زمینههای تخصصی که مجموعه دادههای عمومی و منبع باز ندارند، به این معنی که آنها به کار سخت و گرانقیمت حاشیهنویسان انسانی نیاز دارند. و مدلهای پیچیده یادگیری تقویتی به منابع محاسباتی عظیمی برای اجرای تعداد زیادی از دورههای آموزشی نیاز دارند، که آنها را برای تعداد کمی از آزمایشگاههای هوش مصنوعی بسیار ثروتمند و شرکتهای فنآوری در دسترس قرار میدهد.
بجیو، هینتون، و لکان نیز اذعان دارند که سیستمهای یادگیری عمیق فعلی هنوز در حوزه مشکلاتی که میتوانند حل کنند، محدود هستند. آنها در کارهای تخصصی عملکرد خوبی دارند اما « اغلب در خارج از حوزه باریکی که در آن آموزشدیدهاند، شکننده هستند.» اغلب، تغییرات جزئی مانند چند پیکسل اصلاحشده در یک تصویر یا تغییر بسیار اندک قوانین در محیط میتواند باعث منحرف شدن سیستمهای یادگیری عمیق شود.
شکنندگی سیستمهای یادگیری عمیق تا حد زیادی به دلیل مدلهای یادگیری ماشینی است که براساس «توزیع مستقل و یکسان» هستند.(i.i.d) مدلi.i.d همچنین فرض میکند که مشاهدات بر روی یکدیگر تأثیر نمیگذارند (به عنوان مثال، سکه یا قالبها مستقل از یکدیگر هستند(
دانشمندان می نویسند: "از روزهای آغازین، نظریه پردازان یادگیری ماشینی بر فرض i.i.d تمرکز کردهاند... متأسفانه، این یک فرض واقع بینانه در دنیای واقعی نیست ."
تنظیمات دنیای واقعی به دلیل عوامل مختلف دائماً در حال تغییر است، نمایش بسیاری از آنها بدون مدلهای علی، عملاً غیرممکن است. عاملهای هوشمند باید به طور مداوم محیط خود و دیگر عوامل را مشاهده و یاد بگیرند، و آنها باید رفتار خود را با تغییرات سازگار کنند.
دانشمندان مینویسند: «عملکرد بهترین سیستمهای هوش مصنوعی امروز، هنگامی که از آزمایشگاه به زمین میروند، مورد حمله قرار میگیرد.»
فرض i.i.d زمانی شکنندهتر میشود که به حوزههایی مانند بینایی کامپیوتری و پردازش زبان طبیعی که عامل باید با محیط با آنتروپی بالا سروکار داشته باشد، اعمال شود. در حال حاضر، بسیاری از محققان و شرکتها تلاش میکنند تا با آموزش شبکههای عصبی بر روی دادههای بیشتر، بر محدودیتهای یادگیری عمیق غلبه کنند، با این امید که مجموعه دادههای بزرگتر توزیع گستردهتری را پوشش دهند و شانس شکست در دنیای واقعی را کاهش دهند.
یادگیری عمیق در مقابل هوش مصنوعی ترکیبی
هدف نهایی دانشمندان هوش مصنوعی، تکرار نوعی هوش عمومی است که انسانها دارند. و ما میدانیم که انسانها از مشکلات سیستمهای یادگیری عمیق فعلی رنج نمیبرند.
به نظر میرسد که انسانها و حیوانات قادر به یادگیری مقادیر عظیمی از دانش پیشینه درباره جهان، عمدتا از طریق مشاهده، به شیوهای مستقل از وظیفه باشند. «این دانش از عقل سلیم حمایت میکند و به انسان اجازه میدهد تا کارهای پیچیده مانند رانندگی را با تنها چند ساعت تمرین یاد بگیرد.»
در جایی دیگر در این مقاله، دانشمندان اشاره میکنند که «انسانها میتوانند به شیوهای تعمیم یابند که متفاوت و قدرتمندتر از تعمیم i.i.d معمولی باشد: ما میتوانیم به درستی ترکیبات جدیدی از مفاهیم موجود را تفسیر کنیم، حتی اگر آن ترکیبات تحت توزیع آموزشی ما بسیار بعید باشند، تا زمانی که به الگوهای نحوی و معنایی سطح بالایی که قبلا آموختهایم احترام بگذارند.»
دانشمندان راهحلهای مختلفی را برای از بین بردن شکاف بین هوش مصنوعی و هوش انسانی ارائه میدهند. یکی از روشهایی که به طور گسترده در چند سال گذشته مورد بحث قرار گرفتهاست هوش مصنوعی ترکیبی است که شبکههای عصبی را با سیستمهای نمادین کلاسیک ترکیب میکند. دستکاری نماد بخش بسیار مهمی از توانایی انسان برای استدلال در مورد جهان است. همچنین یکی از چالشهای بزرگ سیستمهای یادگیری عمیق است.
بنجیو، هینتون و لکان به ترکیب شبکههای عصبی و هو مصنوعی نمادین اعتقاد ندارند. بنجیو در یک ویدئو که مقاله ACM را همراهی میکند، میگوید: برخی معتقدند که مشکلاتی وجود دارد که شبکههای عصبی نمیتوانند حل کنند و ما باید به هوش مصنوعی کلاسیک، رویکرد نمادین متوسل شویم. اما کار ما خلاف آن را نشان میدهد.
پیشگامان یادگیری عمیق بر این باورند که معماری بهتر شبکه عصبی در نهایت منجر به تمام جنبههای هوش انسانی و حیوانی، از جمله دستکاری نماد، استدلال، استنتاج سببی و حس مشترک خواهد شد.
پیشرفتهای پیشگامانه در یادگیری عمیق
بنجیو، هینتون و لکان در مقاله خود بر پیشرفتهای اخیر در یادگیری عمیق تاکید میکنند که به پیشرفت در برخی از زمینههایی که در آنها یادگیری عمیق با مشکل مواجه است، کمک کردهاست.
یک مثال، ترانسفورمر است، یک معماری شبکه عصبی که در قلب مدلهای زبانی مانند OpenAI's GPT-3 و Meena گوگل بودهاست. یکی از مزایای ترانسفورمرها توانایی آنها برای یادگیری بدون نیاز به دادههای برچسبدار است. ترانسفورمرها میتوانند ارائهها را از طریق یادگیری بدون نظارت توسعه دهند، و سپس میتوانند آن ارائهها را برای پر کردن جاهای خالی روی جملات ناقص یا تولید متن منسجم پس از دریافت یک اعلان اعمال کنند.
اخیرا، محققان نشان دادهاند که ترانسفورمرها را میتوان برای کارهای بینایی کامپیوتری نیز به کار برد. در ترکیب با شبکههای عصبی کانولوشن، ترانسفورمرها میتوانند محتوای نواحی پوشیده را پیشبینی کنند.
یک تکنیک امیدوارکنندهتر یادگیری مقابلهای است که تلاش میکند تا بازنماییهای برداری نواحی از دست رفته را به جای پیشبینی مقادیر دقیق پیکسل پیدا کند. این یک رویکرد جذاب است و به نظر میرسد که بسیار به آنچه ذهن انسان انجام میدهد نزدیکتر است. هنگامی که ما یک تصویر مانند تصویر زیر را میبینیم، ممکن است قادر به تجسم یک تصویر واقعگرایانه از بخشهای از دست رفته نباشیم، اما ذهن ما میتواند یک نمایش سطح بالا از آنچه که ممکن است در آن مناطق مستتر رخ دهد (به عنوان مثال، درها، پنجرهها، و غیره) ارائه دهد. (مشاهده خود من: این امر میتواند به خوبی با تحقیقات دیگر در این زمینه با هدف همسوسازی نمایشهای برداری در شبکههای عصبی با مفاهیم دنیای واقعی گره بخورد.)
فشار برای اینکه شبکههای عصبی وابستگی کمتری به دادههای برچسبگذاریشده توسط انسان داشته باشند در بحث یادگیری خودنظارتی، مفهومی که لکان بر روی آن کار میکند، قرار میگیرد.
این مقاله همچنین به «سیستم یادگیری عمیق ۲» اشاره میکند، اصطلاحی که از روانشناس برنده جایزه نوبل، دانیل کانمن، قرض گرفته شدهاست. سیستم ۲ وظایف مغز که نیاز به تفکر آگاهانه دارند را شرح میدهد که شامل دستکاری نماد، استدلال، برنامهریزی چند مرحلهای و حل مسائل پیچیده ریاضی است. یادگیری عمیق سیستم ۲ هنوز در مراحل اولیه خود است، اما اگر به واقعیت تبدیل شود، میتواند برخی از مشکلات کلیدی شبکههای عصبی، از جمله تعمیم خارج از توزیع، استنتاج سببی، یادگیری انتقال قوی، و دستکاری نماد را حل کند.
دانشمندان همچنین از کار بر روی «شبکههای عصبی که چارچوبهای ذاتی مرجع اشیا و قطعات آنها را تعیین میکنند و اشیا را با استفاده از روابط هندسی تشخیص میدهند» حمایت میکنند. این یک اشاره به «شبکههای کپسول» است، حوزهای از تحقیقات هینتون در چند سال گذشته بر روی آن تمرکز کردهاست. هدف شبکههای کپسول، ارتقای شبکههای عصبی از تشخیص ویژگیها در تصاویر تا تشخیص اشیا، ویژگیهای فیزیکی آنها و روابط سلسله مراتبی آنها با یکدیگر است. شبکههای کپسول میتوانند یادگیری عمیقی را با «فیزیک شهودی» فراهم کنند، ظرفیتی که به انسانها و حیوانات اجازه میدهد تا محیطهای سهبعدی را درک کنند.
هنوز راه درازی برای رسیدن به درک ما از این که چگونه شبکههای عصبی را واقعا موثر کنیم وجود دارد. هینتون به ACM گفت: «ما انتظار داریم که ایدههای کاملا جدیدی وجود داشته باشند.»
این مقاله در اصل توسط بن دیکسون در TechTalks منتشر شد، نشریهای که روندهای فنآوری، چگونگی تاثیر آنها بر روش زندگی و کسبوکار ما، و مشکلاتی که حل میکنند را بررسی میکند. اما ما همچنین در مورد جنبه منفی تکنولوژی، پیامدهای تاریکتر تکنولوژی جدید، و آنچه که باید به دنبالش باشیم بحث میکنیم.
این متن با استفاده از ربات مترجم مقاله هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه میتواند دارای برخی اشکالات ترجمه باشد.
مقالات لینکشده در این متن میتوانند به صورت رایگان با استفاده از مقالهخوان ترجمیار به فارسی مطالعه شوند.
مطلبی دیگر از این انتشارات
مسابقه برای حفظ اسرار از انقلاب محاسبات کوانتومی
مطلبی دیگر از این انتشارات
کشف دایناسور بزرگ جدید نشان میدهد که چرا بسیاری از گوشتخواران ماقبل تاریخ چنین بازوهای کوچکی داشتهاند
مطلبی دیگر از این انتشارات
چگونه خودمان ضد عفونیکننده دست بسازیم؟