نویسنده: کلینت دوزیه
ترجمه: مجتبی یکتا
سال 2020 از بسیاری جهات، سال وحشتناکی بود. همهگیریِ کووید-19 تقریبا کل جهان را تعطیل کرد و میلیونها نفر بر اثر این ویروس آلوده و کشته شدند. بازار و اقتصاد بسیاری از کشورهای بزرگ راکد شده و میلیونها نفر تنها در ایالات متحده شغل خود را از دست دادهاند. و بدتر از همهی اینها، 2020 سالی بود که ادی ون هالن (Eddie Van Halen) یکی از بزرگترین نوابغ موسیقی (سلطان گیتار از دیدگاه من) پس از نبردی طولانی با سرطان از پیش ما رفت. البته نمیگوییم در 2020 هیچ اتفاق خوبی رخ نداده، بلکه در یکی از حوزهها شاهد چنان پیشرفتی تنها در سال 2020 بودیم که قبلا هرگز سابقه نداشته است؛ توسعهی هوش مصنوعی.
از مهمترین پیشرفتهای هوش مصنوعی، میتوان به تولید GPT-3 توسط شرکت OpenAI و ساخت AlphaFold توسط Deepmind، شرکت توسعهی هوش مصنوعیِ زیرمجموعهی گوگل، اشاره کرد. صادقانه بگویم، GPT-3 باحالتر و جالبتر از AlphaFold است، اما AlphaFold کار مهمتری انجام داده است. وقتی می گویم GPT-3 «باحالتر» است، منظورم این است که در نگاه اول انسان را بسیار تحت تاثیر قرار میدهد. GPT-3 همان چیزی است که به عنوان مدلی برای زبان طبیعی شناخته میشود، به این معنی که میتواند زبان طبیعی انسان را تفسیر و پردازش کند، اما این کار را به طرز غیرقابل باوری خوب انجام میدهد.
سیستم GPT-3 همه کاری انجام میدهد، از نوشتن مقاله و پاسخ به سوالات تا جعل شخصیتهای تاریخی و خود را جای آنها گذاشتن. GPT-3 حتی برای رایانه کد مینویسد، طراحی وب سایت انجام میدهد و تنها از طریق توصیف یک چهره، تصویر آن را تولید میکند. کانال یوتوبِ ColdFusion ویدئویی عالی با جزئیات فراوان از GPT-3 منتشر کرده است. با این حال در بین کارشناسان در مورد اینکه GPT-3 دقیقا چقدر چشمگیر است، بحث و اختلاف نظر وجود دارد.
اما AlphaFold موفقیتی شگفتانگیز است و کارشناسان در مورد آن هیچ اختلاف نظری ندارند. به زبان ساده، AlphaFold مسالهای به قدمت چند دهه را در شناخت زیستیِ تاشدگیِ پروتئین (Protein folding) حل کرده است. مسالهی تاشدگی پروتئین این است (یا بود) که از طریق توالی اسیدهای آمینهی پروتئین، بتوان شکل سه بعدی آن را تعیین کرد.
«حل شدن» این مساله یعنی AlphaFold توانسته است در مسابقهی «ارزیابیِ انتقادیِ پیشبینی ساختار» (CASP) امتیاز 87 را بدست آورد. در این مسابقه کسب امتیاز 90 یا بشتر تقریبا معادل ساختار تعیین شده به صورت تجربی در نظر گرفته میشود. پیامدهای این دستاورد به ویژه در افزایش سرعت و کارآیی تحقیقات پزشکی و تولید دارو بسیار قابل توجه است. محقق هوش مصنوعی و سازندهی پادکست، لکس فریدمن (Lex Fridman) ویدیوی خوبی در یوتوب در این زمینه منتشر کرده است.
با این حال، مشکل اساسی در چنین پیشرفتهای هوش مصنوعی این است که محققان هنوز به طور کامل نحوهی کار الگوریتمهای موجود در این سیستمها را درک نمیکنند. به عبارتی، این سیستمهای هوش مصنوعی فرایندی از تصمیمگیری را برای تولید خروجی به کار میگیرند، اما محققان نمیدانند چرا این تصمیمات گرفته میشود. مشکل الگوریتمهای هوش مصنوعی این است که «جعبه سیاه» هستند.
الگوریتم چیزی جز مجموعهای از دستورالعملها نیست، آن را مثل یک دستور پخت غذا در نظر بگیرید. الگوریتم میتواند به اندازهی «این دو عدد را با هم ضرب کنید»، ساده و یا به اندازهی مغز انسان پیچیده باشد. هر نوعی از هوش، چه بیولوژیکی یا غیر بیولوژیکی، از الگوریتم یا مجموعهای از الگوریتمها برای تولید نتیجه یا حل مسئله بهره میبرد. الگوریتمها، برای انجام هر کاری از رانندگی با ماشین گرفته تا انجام تکالیف جبر یا حتی تماشای نتفلیکس، در حال استقرار و اجرا روی سختافزاری به نام مغز شما هستند.
پس چرا همین مورد برای هوش مصنوعی به مشکل تبدیل میشود؟ محققان علوم کامپیوتر در توسعهی الگوریتمهای پیچیدهای مانند GPT-3 و AlphaFold بسیار موفق بودهاند، اما تنها این موفقیتها نیستند. هوش مصنوعی در اتخاذ تصمیمهایی در سرویسهایی نظیر فیسبوک و یوتوب هم بسیار موفق بوده است، اما محققان هر روز کمتر میتوانند توضیح دهند چرا سیستم چنان تصمیماتی گرفته است. بنابراین، این الگوریتمها تبدیل به «جعبه سیاه» شدهاند.
مکس تگمارک، محقق هوش مصنوعی، فیزیکدان و نویسندهی کتاب «زندگی 3.0: انسان بودن در عصر هوش مصنوعی»، به تازگی در پادکست لکس فریدمن حاضر شده و دربارهی این موضوع بحث کرده است[1]. تگمارک در مورد فناوریهایی نظیر AlphaFold و GPT-3 میگوید: «... نکتهی مشترک در همهی این سیستمها علاوه بر قدرتمند بودن، این است که ما به طور کامل از نحوهی عملکردشان اطلاعی نداریم ... آنها اساسا جعبه سیاه هستند ...» تگمارک پیشتر در مورد هدایتِ پژوهشی در MIT و تلاش برای شفافسازیِ فرایندِ داخلیِ سیستمهای هوش مصنوعی، صحبت کرده بود. او بر ضرورت حل این مشکل پیش از وقوع اتفاقی ناگوار و نه بعد از آن تاکید دارد.
رسیدن به این امر مرتبط با هستیِ ماست، و باید قبل از استقرارِ هوش مصنوعی در موقعیتهای مهمتر و بالقوه خطرناکتر تحقق یابد، نه اینکه بعد از مشاهدهی آسیبها، تازه به فکر چاره باشیم. الگوریتمهای فیسبوک به طور بالقوه اتاقهای پژواک [2] را افزایش داده و به قطبی شدن جامعه کمک کرده است، اما این مشکل حداقل اصلاحپذیر است. اما الگوریتمی که اتومبیل شما را میراند، هواپیما را هدایت میکند یا داروهای جدیدی اختراع میکند چطور؟ در این شرایط وقوع خطا به هیچ عنوان قابل پذیرش نیست. به همین دلیل، مشکل جعبهی سیاه بسیار مهم است و باید قبل از آنکه سیستم هوش مصنوعی فاجعهای درست کند، حل شود؛ زمان به تندی میگذرد و فرصت محدود است.
منبع: The Daily Illini
[1] کتابِ مکس تگمارک به فارسی با ترجمهی میثم محمدامینی، توسط فرهنگ نشر نو منتشر شده است.
[2] اصطلاح اتاق پژواک به این پدیده اشاره دارد که در شبکههای اجتماعی فرد تنها با عقاید خود یا عقایدی منطبق با عقاید خود روبرو میشود، بنابراین دیدگاههای او تقویت شده و دیگر ایدههای جایگزین را در نظر نمیگیرد.
ماهنامه پیشران (آیندهپژوهی کسبوکار)/شماره 44
بهمن ماه 1399