مجتبی یکتا
مجتبی یکتا
خواندن ۴ دقیقه·۴ سال پیش

رمزگشایی از جعبه‌ی سیاه، پیش‌نیازِ همزیستی با هوش مصنوعی

نویسنده: کلینت دوزیه

ترجمه: مجتبی یکتا

سال 2020 از بسیاری جهات، سال وحشتناکی بود. همه‌گیریِ کووید-19 تقریبا کل جهان را تعطیل کرد و میلیون‌ها نفر بر اثر این ویروس آلوده و کشته شدند. بازار و اقتصاد بسیاری از کشورهای بزرگ راکد شده و میلیون‌ها نفر تنها در ایالات متحده شغل خود را از دست داده‌اند. و بدتر از همه‌ی اینها، 2020 سالی بود که ادی ون هالن (Eddie Van Halen) یکی از بزرگترین نوابغ موسیقی (سلطان گیتار از دیدگاه من) پس از نبردی طولانی با سرطان از پیش ما رفت. البته نمی‌گوییم در 2020 هیچ اتفاق خوبی رخ نداده، بلکه در یکی از حوزه‌ها شاهد چنان پیشرفتی تنها در سال 2020 بودیم که قبلا هرگز سابقه نداشته است؛ توسعه‌ی هوش مصنوعی.

از مهمترین پیشرفتهای هوش مصنوعی، می‌توان به تولید GPT-3 توسط شرکت OpenAI و ساخت AlphaFold توسط Deepmind، شرکت توسعه‌ی هوش مصنوعیِ زیرمجموعه‌ی گوگل، اشاره کرد. صادقانه بگویم، GPT-3 باحال‌تر و جالبتر از AlphaFold است، اما AlphaFold کار مهمتری انجام داده است. وقتی می گویم GPT-3 «باحال‌تر» است، منظورم این است که در نگاه اول انسان را بسیار تحت تاثیر قرار می‌‎دهد. GPT-3 همان چیزی است که به عنوان مدلی برای زبان طبیعی شناخته می‌شود، به این معنی که می‌تواند زبان طبیعی انسان را تفسیر و پردازش کند، اما این کار را به طرز غیرقابل باوری خوب انجام می‌دهد.

سیستم GPT-3 همه کاری انجام می‌دهد، از نوشتن مقاله و پاسخ به سوالات تا جعل شخصیت‌های تاریخی و خود را جای آنها گذاشتن. GPT-3 حتی برای رایانه کد می‌نویسد، طراحی وب سایت انجام می‌دهد و تنها از طریق توصیف یک چهره، تصویر آن را تولید می‌کند. کانال یوتوبِ ColdFusion ویدئویی عالی با جزئیات فراوان از GPT-3 منتشر کرده است. با این حال در بین کارشناسان در مورد اینکه GPT-3 دقیقا چقدر چشمگیر است، بحث و اختلاف نظر وجود دارد.

اما AlphaFold موفقیتی شگفت‌انگیز است و کارشناسان در مورد آن هیچ اختلاف نظری ندارند. به زبان ساده، AlphaFold مساله‌ای به قدمت چند دهه را در شناخت زیستیِ تاشدگیِ پروتئین (Protein folding) حل کرده است. مساله‌ی تاشدگی پروتئین این است (یا بود) که از طریق توالی اسیدهای آمینه‌ی پروتئین، بتوان شکل سه بعدی آن را تعیین کرد.

«حل شدن» این مساله یعنی AlphaFold توانسته است در مسابقه‌ی «ارزیابیِ انتقادیِ پیش‌بینی ساختار» (CASP) امتیاز 87 را بدست آورد. در این مسابقه کسب امتیاز 90 یا بشتر تقریبا معادل ساختار تعیین شده به صورت تجربی در نظر گرفته می‌شود. پیامدهای این دستاورد به ویژه در افزایش سرعت و کارآیی تحقیقات پزشکی و تولید دارو بسیار قابل توجه است. محقق هوش مصنوعی و سازنده‌ی پادکست، لکس فریدمن (Lex Fridman) ویدیوی خوبی در یوتوب در این زمینه منتشر کرده است.

با این حال، مشکل اساسی در چنین پیشرفت‌های هوش مصنوعی این است که محققان هنوز به طور کامل نحوه‌ی کار الگوریتم‌های موجود در این سیستم‌ها را درک نمی‌کنند. به عبارتی، این سیستم‌های هوش مصنوعی فرایندی از تصمیم‌گیری را برای تولید خروجی به کار می‌گیرند، اما محققان نمی‌دانند چرا این تصمیمات گرفته می‌شود. مشکل الگوریتم‌های هوش مصنوعی این است که «جعبه سیاه» هستند.

الگوریتم چیزی جز مجموعه‌ای از دستورالعمل‌ها نیست، آن را مثل یک دستور پخت غذا در نظر بگیرید. الگوریتم می‌تواند به اندازه‌ی «این دو عدد را با هم ضرب کنید»، ساده و یا به اندازه‌ی مغز انسان پیچیده باشد. هر نوعی از هوش، چه بیولوژیکی یا غیر بیولوژیکی، از الگوریتم یا مجموعه‌ای از الگوریتم‌ها برای تولید نتیجه یا حل مسئله بهره می‌برد. الگوریتم‌ها، برای انجام هر کاری از رانندگی با ماشین گرفته تا انجام تکالیف جبر یا حتی تماشای نت‌فلیکس، در حال استقرار و اجرا روی سخت‌افزاری به نام مغز شما هستند.

پس چرا همین مورد برای هوش مصنوعی به مشکل تبدیل می‌شود؟ محققان علوم کامپیوتر در توسعه‌ی الگوریتم‌های پیچیده‌ای مانند GPT-3 و AlphaFold بسیار موفق بوده‌اند، اما تنها این موفقیت‌ها نیستند. هوش مصنوعی در اتخاذ تصمیم‌هایی در سرویس‌هایی نظیر فیس‌بوک و یوتوب هم بسیار موفق بوده است، اما محققان هر روز کمتر می‌توانند توضیح دهند چرا سیستم چنان تصمیماتی گرفته است. بنابراین، این الگوریتم‌ها تبدیل به «جعبه سیاه» شده‌اند.

مکس تگمارک، محقق هوش مصنوعی، فیزیکدان و نویسنده‌ی کتاب «زندگی 3.0: انسان بودن در عصر هوش مصنوعی»، به تازگی در پادکست لکس فریدمن حاضر شده و درباره‌ی این موضوع بحث کرده است[1]. تگمارک در مورد فناوری‌هایی نظیر AlphaFold و GPT-3 می‌گوید: «... نکته‌ی مشترک در همه‌ی این سیستم‌ها علاوه بر قدرتمند بودن، این است که ما به طور کامل از نحوه‌ی عملکردشان اطلاعی نداریم ... آنها اساسا جعبه سیاه هستند ...» تگمارک پیشتر در مورد هدایتِ پژوهشی در MIT و تلاش برای شفاف‌سازیِ فرایندِ داخلیِ سیستم‌های هوش مصنوعی، صحبت کرده بود. او بر ضرورت حل این مشکل پیش از وقوع اتفاقی ناگوار و نه بعد از آن تاکید دارد.

رسیدن به این امر مرتبط با هستیِ ماست، و باید قبل از استقرارِ هوش مصنوعی در موقعیت‌های مهم‌تر و بالقوه خطرناکتر تحقق یابد، نه اینکه بعد از مشاهده‌ی آسیب‌ها، تازه به فکر چاره باشیم. الگوریتم‌های فیس‌بوک به طور بالقوه اتاق‌های پژواک [2] را افزایش داده و به قطبی شدن جامعه کمک کرده است، اما این مشکل حداقل اصلاح‌پذیر است. اما الگوریتمی که اتومبیل شما را می‌راند، هواپیما را هدایت می‌کند یا داروهای جدیدی اختراع می‌کند چطور؟ در این شرایط وقوع خطا به هیچ عنوان قابل پذیرش نیست. به همین دلیل، مشکل جعبه‌ی سیاه بسیار مهم است و باید قبل از آنکه سیستم هوش مصنوعی فاجعه‌ای درست کند، حل شود؛ زمان به تندی می‌گذرد و فرصت محدود است.

منبع: The Daily Illini

پی‌نوشت

[1] کتابِ مکس تگمارک به فارسی با ترجمه‌ی میثم محمدامینی، توسط فرهنگ نشر نو منتشر شده است.

[2] اصطلاح اتاق پژواک به این پدیده اشاره دارد که در شبکه‌های اجتماعی فرد تنها با عقاید خود یا عقایدی منطبق با عقاید خود روبرو می‌شود، بنابراین دیدگاه‌های او تقویت شده و دیگر ایده‌های جایگزین را در نظر نمی‌گیرد.


ماهنامه پیشران (آینده‌پژوهی کسب‌وکار)/‌شماره 44

بهمن ماه 1399

openaigpt3alphafolddeepmindهوش مصنوعی
می‌نویسم برای آدم‌ها و ماشین‌ها - توییتر: twitter.com/mojtaba2a
شاید از این پست‌ها خوشتان بیاید