مشکل هم ترازی؛ پیوند یادگیری ماشین و ارزش‌های انسانی

منتشرشده در مجله Forbes به تاریخ ۲۹ اکتبر ۲۰۲۰
لینک مقاله اصلی: “The Alignment Problem”, Linking Machine Learning And Human Values

این یک برداشت و خلاصه از کتاب «مشکل هم‌ترازی؛ پیوند یادگیری ماشین و ارزش‌های انسانی» (The Alignment Problem, Linking Machine Learning And Human Values) است. همانطور که ادامه عنوان کتاب بیان می‌کند، این کتاب تلاشی است برای بحث در مورد جنبه‌های فازی ارزش انسانی با ارتباط رو به رشد یادگیری ماشین (ML). منظور نویسنده از یادگیری ماشین (ML)، تقریبا به طور انحصاری شبکه‌های عصبی است. با این حال، مثل بیشتر کتاب‌ها، درباره چند موضوع صحبت نکرده بود. این کتاب برای کسانی که به تاثیر اجتماعی بالقوه هوش مصنوعی علاقمند هستند، قطعا ارزش خواندن را دارد.

این کتاب سه بخش دارد. من با نامگذاری این سه بخش مشکل دارم، اما ترتیب فصل‌ها منطقی است. بخش اول «Prophecy» است که به نظر من برای بخش آخر عنوان بهتری بود. سه فصل اول، بر خلاف عنوانشان، پایه‌های بحث را با تعریف و بحث در مورد نمایش، عدالت و شفافیت می‌چینند. تعداد زیادی مقاله دو مساله اول را پوشش داده‌اند.

نمایش، فصل اول، با توصیف تکامل سیستم‌های بینایی ماشین بر نیاز به نمایش طیف گسترده‌ای از افراد تمرکز دارد. این امر شامل جهت‌گیری ذاتی تصاویر مردهای عمدتا سفید در بسیاری از پایگاه‌های داده اولیه مورد استفاده برای آموزش سیستم‌ها می‌باشد. این فصل به خوبی نوشته شده‌است اما چیز جدیدی ارائه نمی‌دهد. دوباره، عدالت وارد زمینه جدیدی نمی‌شود و سیستم‌های پارولها و مشکلات آن‌ها را توصیف می‌کند. نکته این فصل در مورد این است که چگونه یک سیستم معیوب، مانند عدالت کیفری، بهترین چیز برای استفاده به عنوان یک الگو در هنگام آموزش موتور استنتاج نیست.

تا اینجا، بهترین فصل بین سه فصل اول، شفافیت است. عدم شفافیت در سیستم‌های یادگیری ماشین، یکی از بزرگ‌ترین موانع برای پذیرش گسترده است و یکی از دلایل اصلی درگیر شدن دولت‌ها است. اینکه این فصل سومین فصل باشد اهمیت دارد، زیرا دو فصل اول مثال‌هایی از اینکه چرا به شفافیت نیاز داریم را نشان می‌دهند.

بنیانگذاران و توسعه دهندگان شرکت هوش مصنوعی دوست دارند در مورد «جعبه سیاه» صحبت کنند، انگار که هیچ چیزی وجود ندارد که بتوان آن را انجام داد. این درست نیست. این بدان معناست که ارائه بینش نیازمند تغییر در طراحی است. شرکت‌ها می‌دانند که برای تحلیل، چگونه کدهای نودها را در لایه‌های خود نوشته‌اند. توسعه دهندگان براساس نتایج آموزشی، وزن دهی را بنا به دلایل تغییر می‌دهند. این اطلاعات را می توان باز کرده و تحلیل کرد. تنها مجموعه داده‌ها نیستند که باید مشاهده شوند، بلکه موتورهای یادگیری ماشین نیز نیازمند نظارت هستند.

پس از فصل‌های مقدماتی، بقیه فصل‌ها بر ML تکیه می‌کنند که در فصل چهارم به خوبی تعریف شده‌است: یادگیری تقویتی. برای اینکه به طور کامل اما غیر فنی، درک کنید که یادگیری تقویتی چیست و چه تفاوتی با یادگیری تحت نظارت دارد، این فصل عالی است. این، فصل مورد علاقه من در کتاب است.

می‌توانم بگویم که فصل ۵، شکل‌دهی، الکی است. تمرکز این فصل بر روی این است که چگونه رفتار انسان را شکل می‌دهیم و این فصل در مورد این که چگونه می توان آن را بر یادگیری ماشین اعمال کرد، ضعیف عمل کرده است. با این حال، در این میان، توصیف خوبی از پراکندگی و اینکه چگونه می‌توانیم با اطلاعات پراکنده کار کنیم تا بتوانیم استنتاج‌های کارآمدتر انجام دهیم، ارائه می‌دهد. فصل آخر در بخش میانی، کنجکاوی، نیز کمی بیش از حد بر روی انسان‌ها تمرکز دارد و در مورد این که چگونه دانش می‌تواند با هوش مصنوعی سازگار کمتر متمرکز شده. یکی از مشکلاتی که با آن مواجه شدم، ارتباط بین این دو بود که می‌گفت «یک سیستم برچسب‌گذاری تصویری مانند الکس-نت ممکن است به صدها هزار تصویر نیاز داشته باشد، که هر کدام توسط انسان‌ها برچسب‌گذاری شده‌اند. کاملا واضح است که این نحوه کسب مهارت‌های بصری ما در اوایل زندگی نیست.» مشکل این است که نویسنده ناگهان وارد یادگیری تحت نظارت می‌شود. نوزادان چیزهای زیادی می‌بینند.

آن‌ها سپس خودشان به برخی از آن‌ها برچسب می‌زنند و علاوه‌بر این توسط دیگر انسان‌ها و اقدامات خودشان تقویت شده و برچسب‌ها را اصلاح کرده و برچسب‌های جدید اضافه می‌کنند.

یادگیری انسان تنها به برچسب‌ها وابسته نیست، بلکه «به وضوح» این بخشی از یادگیری ما است.

سه فصل آخر درباره تقلید، استنباط و عدم قطعیت است. فصل تقلید جذاب بود چون توضیح خوبی از نقاط قوت و ضعف یادگیری تقلید ارائه می‌داد.

فصل ۸، استنباط، تنها به این دلیل که نویسنده (یا ویراستار …) تصمیم گرفته بود که عنوان هر فصل تنها یک کلمه داشته باشد، به درستی نامگذاری نشده است. شبکه‌های عصبی تماما در مورد استنباط هستند. پس چرا فقط یک فصل با این عنوان وجود دارد؟ این فصل بر یادگیری تقویت معکوس، نوعی استنباط، متمرکز است. در استنباط «نرمال»، ما به اعمال نگاه می‌کنیم و سعی می‌کنیم یک هدف را استنباط کنیم. یادگیری تقویت معکوس آن را تغییر می‌دهد. برای یک هدف خاص، یک ذهن یا ماشین می‌تواند اقدامات مورد نیاز برای رسیدن به آن هدف را استنباط کند. همانطور که این کتاب نشان می‌دهد، این موضوع می‌تواند تاثیرات هیجان انگیزی بر آموزش حرکت رباتیک و حوزه‌های دیگری داشته باشد که در آن‌ها دستورالعمل‌های خاص برای اقدامات برای سلامت یا کامل بودن، بیش از حد پیچیده هستند.

فصل آخر درباره عدم قطعیت است. این فصل هم بدون اینکه به چیز خاصی برای تاثیرگذاری بر یادگیری ML ارتباط داشته باشد، نامشخص باقی می‌ماند. با توجه به اینکه دنیای واقعی غیرقطعی است، تعدادی از خطرات نتیجه‌گیری‌های سخت ML را تکرار می‌کند. دوباره، هیچ چیز ویژه و جدیدی ندارد، اما کتاب را به یک گروه موازی از بخش‌ها تبدیل می‌کند.

«مشکل هم‌ترازی» غیر فنی است، اما برای مخاطبان غیر فنی کمی بیش از حد طولانی است. این موضوع در درجه اول به خاطر مقدار اطلاعات روانشناسی، صرفا انسانی، است که به این کتاب اضافه شده‌است. ممکن است این‌ها از نظر برخی مهم و مفید باشند. با این حال، این کتاب همچنان یک مدخل خوب دیگر در لیست مواردی است که هدف آن‌ها بحث در مورد اهمیت روزافزون هوش مصنوعی در تجارت، دولت و زندگی ما است.

این متن با استفاده از ربات ترجمه تخصصی مقالات کامپیوتر و یادگیری ماشین ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.