من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
مشکل هم ترازی؛ پیوند یادگیری ماشین و ارزشهای انسانی
منتشرشده در مجله Forbes به تاریخ ۲۹ اکتبر ۲۰۲۰
لینک مقاله اصلی: “The Alignment Problem”, Linking Machine Learning And Human Values
این یک برداشت و خلاصه از کتاب «مشکل همترازی؛ پیوند یادگیری ماشین و ارزشهای انسانی» (The Alignment Problem, Linking Machine Learning And Human Values) است. همانطور که ادامه عنوان کتاب بیان میکند، این کتاب تلاشی است برای بحث در مورد جنبههای فازی ارزش انسانی با ارتباط رو به رشد یادگیری ماشین (ML). منظور نویسنده از یادگیری ماشین (ML)، تقریبا به طور انحصاری شبکههای عصبی است. با این حال، مثل بیشتر کتابها، درباره چند موضوع صحبت نکرده بود. این کتاب برای کسانی که به تاثیر اجتماعی بالقوه هوش مصنوعی علاقمند هستند، قطعا ارزش خواندن را دارد.
این کتاب سه بخش دارد. من با نامگذاری این سه بخش مشکل دارم، اما ترتیب فصلها منطقی است. بخش اول «Prophecy» است که به نظر من برای بخش آخر عنوان بهتری بود. سه فصل اول، بر خلاف عنوانشان، پایههای بحث را با تعریف و بحث در مورد نمایش، عدالت و شفافیت میچینند. تعداد زیادی مقاله دو مساله اول را پوشش دادهاند.
نمایش، فصل اول، با توصیف تکامل سیستمهای بینایی ماشین بر نیاز به نمایش طیف گستردهای از افراد تمرکز دارد. این امر شامل جهتگیری ذاتی تصاویر مردهای عمدتا سفید در بسیاری از پایگاههای داده اولیه مورد استفاده برای آموزش سیستمها میباشد. این فصل به خوبی نوشته شدهاست اما چیز جدیدی ارائه نمیدهد. دوباره، عدالت وارد زمینه جدیدی نمیشود و سیستمهای پارولها و مشکلات آنها را توصیف میکند. نکته این فصل در مورد این است که چگونه یک سیستم معیوب، مانند عدالت کیفری، بهترین چیز برای استفاده به عنوان یک الگو در هنگام آموزش موتور استنتاج نیست.
تا اینجا، بهترین فصل بین سه فصل اول، شفافیت است. عدم شفافیت در سیستمهای یادگیری ماشین، یکی از بزرگترین موانع برای پذیرش گسترده است و یکی از دلایل اصلی درگیر شدن دولتها است. اینکه این فصل سومین فصل باشد اهمیت دارد، زیرا دو فصل اول مثالهایی از اینکه چرا به شفافیت نیاز داریم را نشان میدهند.
بنیانگذاران و توسعه دهندگان شرکت هوش مصنوعی دوست دارند در مورد «جعبه سیاه» صحبت کنند، انگار که هیچ چیزی وجود ندارد که بتوان آن را انجام داد. این درست نیست. این بدان معناست که ارائه بینش نیازمند تغییر در طراحی است. شرکتها میدانند که برای تحلیل، چگونه کدهای نودها را در لایههای خود نوشتهاند. توسعه دهندگان براساس نتایج آموزشی، وزن دهی را بنا به دلایل تغییر میدهند. این اطلاعات را می توان باز کرده و تحلیل کرد. تنها مجموعه دادهها نیستند که باید مشاهده شوند، بلکه موتورهای یادگیری ماشین نیز نیازمند نظارت هستند.
پس از فصلهای مقدماتی، بقیه فصلها بر ML تکیه میکنند که در فصل چهارم به خوبی تعریف شدهاست: یادگیری تقویتی. برای اینکه به طور کامل اما غیر فنی، درک کنید که یادگیری تقویتی چیست و چه تفاوتی با یادگیری تحت نظارت دارد، این فصل عالی است. این، فصل مورد علاقه من در کتاب است.
میتوانم بگویم که فصل ۵، شکلدهی، الکی است. تمرکز این فصل بر روی این است که چگونه رفتار انسان را شکل میدهیم و این فصل در مورد این که چگونه می توان آن را بر یادگیری ماشین اعمال کرد، ضعیف عمل کرده است. با این حال، در این میان، توصیف خوبی از پراکندگی و اینکه چگونه میتوانیم با اطلاعات پراکنده کار کنیم تا بتوانیم استنتاجهای کارآمدتر انجام دهیم، ارائه میدهد. فصل آخر در بخش میانی، کنجکاوی، نیز کمی بیش از حد بر روی انسانها تمرکز دارد و در مورد این که چگونه دانش میتواند با هوش مصنوعی سازگار کمتر متمرکز شده. یکی از مشکلاتی که با آن مواجه شدم، ارتباط بین این دو بود که میگفت «یک سیستم برچسبگذاری تصویری مانند الکس-نت ممکن است به صدها هزار تصویر نیاز داشته باشد، که هر کدام توسط انسانها برچسبگذاری شدهاند. کاملا واضح است که این نحوه کسب مهارتهای بصری ما در اوایل زندگی نیست.» مشکل این است که نویسنده ناگهان وارد یادگیری تحت نظارت میشود. نوزادان چیزهای زیادی میبینند.
آنها سپس خودشان به برخی از آنها برچسب میزنند و علاوهبر این توسط دیگر انسانها و اقدامات خودشان تقویت شده و برچسبها را اصلاح کرده و برچسبهای جدید اضافه میکنند.
یادگیری انسان تنها به برچسبها وابسته نیست، بلکه «به وضوح» این بخشی از یادگیری ما است.
سه فصل آخر درباره تقلید، استنباط و عدم قطعیت است. فصل تقلید جذاب بود چون توضیح خوبی از نقاط قوت و ضعف یادگیری تقلید ارائه میداد.
فصل ۸، استنباط، تنها به این دلیل که نویسنده (یا ویراستار …) تصمیم گرفته بود که عنوان هر فصل تنها یک کلمه داشته باشد، به درستی نامگذاری نشده است. شبکههای عصبی تماما در مورد استنباط هستند. پس چرا فقط یک فصل با این عنوان وجود دارد؟ این فصل بر یادگیری تقویت معکوس، نوعی استنباط، متمرکز است. در استنباط «نرمال»، ما به اعمال نگاه میکنیم و سعی میکنیم یک هدف را استنباط کنیم. یادگیری تقویت معکوس آن را تغییر میدهد. برای یک هدف خاص، یک ذهن یا ماشین میتواند اقدامات مورد نیاز برای رسیدن به آن هدف را استنباط کند. همانطور که این کتاب نشان میدهد، این موضوع میتواند تاثیرات هیجان انگیزی بر آموزش حرکت رباتیک و حوزههای دیگری داشته باشد که در آنها دستورالعملهای خاص برای اقدامات برای سلامت یا کامل بودن، بیش از حد پیچیده هستند.
فصل آخر درباره عدم قطعیت است. این فصل هم بدون اینکه به چیز خاصی برای تاثیرگذاری بر یادگیری ML ارتباط داشته باشد، نامشخص باقی میماند. با توجه به اینکه دنیای واقعی غیرقطعی است، تعدادی از خطرات نتیجهگیریهای سخت ML را تکرار میکند. دوباره، هیچ چیز ویژه و جدیدی ندارد، اما کتاب را به یک گروه موازی از بخشها تبدیل میکند.
«مشکل همترازی» غیر فنی است، اما برای مخاطبان غیر فنی کمی بیش از حد طولانی است. این موضوع در درجه اول به خاطر مقدار اطلاعات روانشناسی، صرفا انسانی، است که به این کتاب اضافه شدهاست. ممکن است اینها از نظر برخی مهم و مفید باشند. با این حال، این کتاب همچنان یک مدخل خوب دیگر در لیست مواردی است که هدف آنها بحث در مورد اهمیت روزافزون هوش مصنوعی در تجارت، دولت و زندگی ما است.
این متن با استفاده از ربات ترجمه تخصصی مقالات کامپیوتر و یادگیری ماشین ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه میتواند دارای برخی اشکالات ترجمه باشد.
مطلبی دیگر از این انتشارات
آسیبپذیری در برابر ایدز بخاطر واکسن ویروس کرونا؟
مطلبی دیگر از این انتشارات
کامپیوترهای کوانتومی میتوانند فراتر از صفر و یک نگاه کنند!
مطلبی دیگر از این انتشارات
اگر میتوانستم دوباره شروع کنم، چگونه علم داده را یاد میگرفتم