من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
الگوریتم بدون نظارت هینتون و گوگل برین
جفری هینتون بار دیگر در کانون هوش مصنوعی قرار دارد، این بار با تحقیق جدیدی که با استفاده از یادگیری بدون نظارت به یک جهش عملکردی عظیم در تشخیص تصویر دست یافتهاست. همچنین پیشگام هوش مصنوعی و برنده جایزه تورینگ در توییتر ظهوری عجیب برای ترویج این تحقیق پیدا کرد، «یادگیری بدون نظارت بازنماییها به خوبی کار میکند بدون آنه نیاز به بازسازی داشته باشد».
نظر هینتون در مورد انواع دادهها و آموزش مدل، در سخنرانی او را در کنفرانس هفته گذشته AAAI 2020 در نیویورک منعکس شد. هینتون با معرفی تازهترین کار خود در زمینه کدگذار خودکار کپسول پشتهای (Stacked Capsule Auto-encoders)، به این پرسش پاسخ داد: «من همیشه میدانستم که یادگیری بدون نظارت کار درستی است.»
در همان سکوی AAAI، دیگر برنده جایزه تورینگ، یان لکون موافق بود که یادگیری بدون نظارت ممکن است یک تغییر دهنده بازی برای هوش مصنوعی باشد که رو به جلو حرکت میکند: «ما امروز چیزهای زیادی در مورد محدودیتهای یادگیری عمیق خواندیم، اما بیشتر آنها در واقع محدودیتهای یادگیری تحت نظارت هستند … این استدلالی است که جف [ هینتون ] چندین دهه است که انجام میدهد.» یادگیری بدون نظارت، که لکون ترجیح میدهد آن را «یادگیری خود ناظر» بنامد و با عبارت «یادگیری نیمه نظارت شده» همپوشانی میکند، به طور کلی به آموزش مدلی اشاره دارد که نیازی به برچسب زدن دادههای دستی ندارد.
مشروح صحبتهای سه نابغه یادگیری عمیق در کنفرانس AAAI 2020 را بخوانید.
در این مقاله یک چارچوب ساده برای یادگیری کنتراست نمایشهای بصری، گروهی از محققان گوگل برین از جمله هینتون یک چارچوب ساده اما قدرتمند تحت عنوان SimCLR برای یادگیری مقابلهای نمایشهای بصری پیشنهاد میکنند. این تیم نتیجهگیری میکند که «یک طبقهبندیکننده خطی آموزشدیده بر روی نمایشهای خودناظر که توسط SimCLR آموزش داده شدهاست، به دقت بالای ۷۶.۵٪ دست مییابد، که یک بهبود نسبی ۷ درصدی نسبت به حالت پایه قبلی است، که با عملکرد یک ResNet-۵۰ نظارت شده مطابقت دارد. وقتی که تنها ۱٪ از برچسبها خوب تنظیم شوند، ما به دقت ۸۵.۸% دست مییابیم که در مقایسه با الکسنت ۱۰۰ برابر برچسبهای کمتر اما عملکرد بهتری دارد.»
نتایج آزمایشی موثر موضوع مقاله را به یک موضوع داغ در میان جامعه یادگیری ماشین تبدیل کردهاست.
چگونگی یادگیری نمایش بصری به طور موثر بدون نظارت انسان، یک مشکل دیرینه برای محققان هوش مصنوعی بودهاست، با رویکردهای تولیدی و رویکردهای متمایز کننده دو روش اصلی موجود. از آنجا که رویکردهای متمایز مبتنی بر یادگیری مقابلهای در فضای پنهان اخیرا نتایج امیدوار کنندهای را نشان دادهاند، این جایی است که تیم از تلاشهای خود استفاده کردهاست. یادگیری نمایش بصری کنتراست اولین بار برای یادگیری نمایش با مقایسه جفتهای مثبت در مقابل جفتهای منفی معرفی شد.
در حالی که تحقیقات قبلی از یک بانک حافظه برای ذخیره بردار نمایش کلاس نمونه استفاده کردند، تیم الگوریتم های یادگیری خود - نظارت شده تطبیقی ساده شدهای را توسعه دادند که نیازی به معماریهای خاص یا بانک حافظه ندارند. چارچوب SimCLR با به حداکثر رساندن توافق بین دیدگاههای مختلف افزوده شده از یک مثال داده مشابه از طریق یک فقدان مقابلهای در فضای پنهان، بازنمایی را یاد میگیرد.
این تیم مشاهده کرد که افزایش داده نقش مهمی در ارایه بازنماییهای موثر ایفا میکند و معتقد است که انجام چندین عملیات افزایش داده - کراپ تصادفی، تحریف رنگی، تاری گاوسی، و غیره - در تعیین وظایف پیشبینی مقابلهای که منجر به بازنمایی موثر میشود، بسیار مهم است. و در مقایسه با یادگیری تحت نظارت، یادگیری بدون نظارت مزایای بیشتری از افزایش داده قویتر را نشان میدهد.
در حال حاضر، یادگیری تحت نظارت و یادگیری بدون نظارت دو روش اصلی یادگیری ماشین هستند. با این حال یادگیری نظارت شده سنتی نیازمند دادههای برچسب دار برای آموزش الگوریتم است، و مجموعه دادههای درست برچسب گذاری شده همیشه در دسترس نیستند. بنابراین یادگیری بدون نظارت نشاندهنده چیزی از یک راهحل ایدهآل است، زیرا به محققان اجازه میدهد تا دادههای بدون برچسب را مستقیما به یک مدل یادگیری عمیق تغذیه کنند، که سپس تلاش میکند ویژگیها و الگوها را استخراج کند و اساسا آن را درک کند. در عین حال، یادگیری تحت نظارت نیمه از مجموعه دادههای آموزشی متشکل از دادههای برچسب دار و بدون برچسب استفاده میکند (معمولا بیشتر از مورد اول). این روش به ویژه زمانی خوب عمل میکند که برچسب زدن دادهها وقت گیر است، و استخراج ویژگیهای مربوطه از دادهها دشوار است - برای مثال با تصاویر پزشکی مانند اسکنهای CT و MRI ها.
روشهای اصلی یادگیری ماشین از نزدیک در مطالعه جدید گوگل مغز مورد بررسی قرار گرفتهاند و محققان پیشنهاد دادهاند که برخی از روشهای قبلی برای یادگیری بدون نظارت یا خود - نظارت ممکن است به طور غیر ضروری پیچیده باشند. محققان میگویند که قدرت و عملکرد چارچوب ساده جدید آنها نشان میدهد که « علیرغم افزایش اخیر علاقه، یادگیری خودناظر همچنان کمارزش باقی میماند.»
توصیه میشود برای تکمیل بحث مقاله کامل هینتون با عنوان A Simple Framework for Contrastive Learning of Visual هستید را با کمک مقالهخوان ترجمیار همراه با ترجمه فارسی و به صورت رایگان از این لینک مطالعه نمایید
چاپشده در: syncedreview به تاریخ ۱۹ فوریه ۲۰۲۰
نویسنده: Fangyu Cai
لینک مقاله اصلیhttps://medium.com/syncedreview/geoffrey-hinton-google-brain-unsupervised-learning-algorithm-improves-sota-accuracy-on-imagenet-f0537f5b716a
این مقاله توسط ربات هوشمند ترجمه انگلیسی به فارسی علمی و به صورت خودکار ترجمه شده و میتواند به صورت محدود دارای اشکالات ترجمه باشد.
مطلبی دیگر از این انتشارات
داروهای موثر بر ویروس کرونای جدید (COVID-19)
مطلبی دیگر از این انتشارات
طبق مطالعات، نوجوانان و جوانانی که ویپ میکشند بیشتر در معرض خطر ابتلا به کووید ۱۹ هستند
مطلبی دیگر از این انتشارات
توییتر بهطور دائم حساب شخصی مارجوری تیلور گرین را به دلیل اطلاعات نادرست کووید۱۹ به حالت تعلیق درآورد.