نوام چامسکی را شاید بیشتر مردم به نظریات سیاسی و مخالفتهایش با سیاستهای رسمی ایالات متحده بشناسند، اما مهمتر از اینها، تخصص اصلی چامسکی زبانشناسی و علوم شناختیست و از او به عنوان پدر زبانشناسی مدرن و یکی از بنیانگذاران علوم شناختی یاد میشود. شاید خیلی بیراه نباشد اگر امثال ChatGPT را میوه درختی بدانیم که چامسکی بذر آن را کاشته، اما او در مقالهای که در نیویورکتایمز نوشته، خیلی نسبت به این بات خوشبین نیست؛ از یک طرف هوش انسانی و فرایند شناخت و آگاهی در ذهن انسان را بسیار پیچیدهتر و دقیقتر از ChatGPT میداند، چرا که ChatGPT براساس جمعآوری صدها ترابایت داده و تشخیص همبستگی میان آنها با الگوهای ازپیشتعیینشده کار میکند، اما ذهن انسان یک سیستم ظریف و کارآمد است که با مقادیر اندکی داده یاد میگیرد و برخلاف ChatGPT که دنبال همبستگیهای صریح میگردد، به دنبال خلق تببین و توضیح است. از طرف دیگر به نظر چامسکی ChatGPT با گریز از تصمیمگیریهای اخلاقی و موضعگیری و اطاعت محض از دستورات، ابتذال شر را به نمایش میگذارد. ترجمه بخشهایی از این مقاله را در زیر میتوانید بخوانید:
خورخه لوییس بورخس زمانی نوشت که زیستن در زمانه پر از خطر و بشارت، یعنی تجربه همزمان تراژدی و کمدی، و رسیدن به یک مکاشفه قریبالوقوع در درکمان از خود و جهان.به واقع امروزه پیشرفتهای ظاهرا انقلابی ما در حوزه هوش مصنوعی هم نگرانکننده است و هم امیدوارکننده؛ امیدوارکننده از این جهت که هوش ابزار ما برای حل مسائل است و نگرانکننده از این جهت که میترسیم محبوبترین و مد روزترین شاخه هوش مصنوعی، یادگیری ماشین، با گنجاندن درکی اساسا معیوب از زبان و دانش در تکنولوژی، علم و اخلاق را تنزل دهد.
محصولات ChatGPT از OpenAI، بارد از گوگل و سیدنی از مایکروسافت شگفتیهای یادگیری ماشین به شمار میروند. این ابزارها به طور کلی مقدار بسیار زیادی از داده را میگیرند و با جستوجو و پیداکردن الگوهای درون آن مرتبا در تولید خروجیهایی که از لحاظ آماری محتمل هستند، بهتر و بهتر میشوند تا جایی که میتوانند خروجی بسیار مشابهی با زبان و تفکر انسانی تولید کنند. این برنامهها به عنوان اولین جرقههای مسیر رسیدن به هوش مصنوعی عمومی ستایش شدهاند؛ مسیری که انتهایش همان لحظهی موعودیست که ذهنهای مکانیکی، نه تنها در زمینههای کَمّی سرعت و حجم پردازش، بلکه حتی در زمینههای کیفی بینش فکری، خلاقیت هنری و سایر قوههای متمایز انسانی از مغز انسان پیشی میگیرند.
آن روز موعود ممکن است فرا برسد، اما برخلاف چیزی که تیترهای اغراقآمیز و سرمایهگذاریهای بیاحتیاط نشان میدهد، ما هنوز هم در آستانه دمیدن صبح آن روز نیستیم. تعبیر بورخس از مکاشفه در نحوه درک هنوز رخ نداده و رخ نخواهد داد و اگر که برنامههایی مثل ChatGPT به تسلطشان بر حوزه هوش مصنوعی ادامهدهند، اساسا نمیتواند رخ بدهد. هرچقدر هم که این برنامهها در حوزههای محدودی مفید باشند (مثلا در برنامهنویسی یا پیشنهاد قافیه برای شعرهای ساده)، از علم زبانشناسی و فلسفه دانش میدانیم که این ابزارها تفاوتی عمیق با نحوه استدلال انسان و استفادهاش از زبان دارند. این تفاوتها محدودیت بزرگی روی آنچه که این برنامهها میتوانند انجام دهند میگذارند و نقصهای غیرقابل جبرانی برایشان به همراه دارند.
همانطور که بورخس اشاره کرده بود، هم خندهدار و هم غمانگیز است که این همه پول و توجه باید صرف چیزی به این اندازه کوچک شود؛ چیزی که برخلاف ذهن انسان بسیار پیشپاافتاده و ساده است، ذهن انسانی که به قول ویلهلم فون هومبولت میتواند از «ابزارهای محدود استفاده نامحدود کند» و ایدهها و نظریاتی جهان شمول تولید کند.
ذهن انسان مانند ChatGPT و امثال آن یک ماشین آماری گنده برای پیدا کردن الگو نیست که هزاران ترابایت داده را ببلعد تا شبیهترین جواب برای مکالمه یا محتملترین پاسخ برای یک پرسش علمی را برونیابی کند. دقیقا برعکس، ذهن انسان به طرز شگفتانگیزی کارآمد و ظریف است و با کمترین مقدار اطلاعات کار میکند. این سیستم به دنبال پیدا کردن روابط بین دادهها با جستوجوی همه حالتها نیست، بلکه دنبال ساختن توضیحات منطقیست.
برای مثال، یک کودک خردسال را که در حال یادگرفتن زبان است، درنظر بگیرید. این کودک بهطور ناخودآگاه، خیلی سریع و خودکار، از روی کمترین میزان داده، یک دستور زبان را، که مجموعه بسیار پیچیدهای از قواعد منطقی و پارامترهای مختلف است، یاد میگیرد. این دستور زبان را میتوان به عنوان تجلی و نمایشی از «سیستمعامل» درونی و ذاتیای دید که به صورت ژنتیکی در انسان نصب شده و این امکان را میدهد که جملات پیچیده و رشتههای طولانی از افکار بسازد. زمانی که زبانشناسان میخواهند نظریهای برای چگونگی کارکرد یک زبان ایجاد کنند که چرا این مدل از جملات از لحاظ دستوری درست هستند و سایر مدلها نه، در واقع دارند آگاهانه تلاش میکنند تا نسخه صریحی را از دستور زبانی که همان کودک با کمترین اطلاعات به صورت غریزی ساخته، بسازند. سیستمعامل این کودک کاملا متفاوت با برنامههای یادگیری ماشین است.
در واقع این برنامهها در در مرحله غیرانسانی یا ماقبل انسانی تکامل شناختی گیر کردهاند. اصلیترین اشکال آنها نداشتن مهمترین ظرفیت هر هوشمندی است: نه تنها این که بگویند چه هست و چه بوده و چه خواهد بود (توصیف و پیشبینی)، بلکه بگویند چه چیزی نیست و چه چیزی میتواند باشد یا نمیتواند باشد. اینها اجزای توضیح و تفسیر هستند، نشانه هوشمندی واقعی.
برای مثال فرض کنید سیبی در دستتان دارید و این سیب را رها میکنید. نتیجه را مشاهده میکنید و میگویید: «سیب میافتد.» این توصیف است. پیشبینی میتواند جملهای باشد مثل اینکه «اگر دستم را باز کنم، سیب خواهد افتاد.» هر دوی این گزارهها درست و ارزشمند است، اما تشریح و توضیح چیزی بیشتر از اینهاست: تشریح نه تنه شامل توصیف و پیشبینی است، بلکه شامل حدسهای خلاف واقعی مثل «هر جسمی سقوط میکند.»، به همراه عبارت اضافه «به خاطر نیروی جاذبه» یا «به خاطر انحنای فضا-زمان.» یا هرچیز دیگری است. این یک توضیح علّی است: «اگر نیروی جاذبه نبود، سیب سقوط نمیکرد.». فکر کردن اینشکلی است.
نکته اصلی یادگیری ماشین توصیف و پیشبینی است و هیچگونه توضیح علّی یا قانون فیزیکیای را مطرح نمیکند. البته که هر توضیحی که انسان ارائه میدهد، لزوما درست نیست. ما اشتباه میکنیم، اما این هم بخشی از مسیر فکر کردن است. برای درست بودن، باید امکان اشتباه کردن هم وجود داشته باشد. هوشمندی تنها شامل حدسهای خلاقانه نیست، بلکه انتقاد خلاقانه هم را هم شامل میشود. تفکر انسانی روی توضیحات ممکن و تصحیح خطاها بنا شده؛ پروسهای که به تدریج محدوده منطقی بودن احتمالات را مشخص میکند. (همانطور که شرلوک هملز به دکتر واتسون گفت: «اگر همه ناممکنها را حذف کنی، آنچه که باقی میماند هر چقدر هم که غیرمحتمل باشد باید حقیقت باشد.»)
اما ChatGPT و برنامههای مشابه، طبق طراحیشان، بینهایت چیز میتوانند یاد بگیرند. (یا میشود گفت میتوانند به خاطر بسپرند.») این برنامهها نمیتوانند ممکن را از غیر ممکن تشخیص دهند. برای نمونه، انسانها بهطور ذاتی دستور زبانی جهانی دارند که زبانهایی را که میتوانند یاد بگیرند محدود کرده به انواع مشخصی از زبانها که دارای ظرافتی خاص از لحاظ ریاضی باشند. برخلاف انسانها، برنامههای یادگیری ماشین میتوانند هر دو دسته زبانهایی را که یادگرفتنشان برای انسان ممکن است و زبانهایی که یادگرفتنشان برای انسان ناممکن است، با سهولت یکسان یاد بگیرند. در حالی که ما انسانها در انواع توضیحاتی که میتوانیم به صورت منطقی حدس بزنیم محدود هستیم، این برنامههای میتوانند هم یاد بگیرند زمین صاف است و هم یاد بگیرند زمین گرد است.
به طرز عجیبی برخی از علاقهمندان یادگیری ماشین افتخار میکنند به اینکه ساخته آنها میتواند پیشبینیهای «علمی» صحیحی تولید کند (مثلا در مورد حرکت اجسام فیزیکی و بدون استفاده از توضیحاتی مثل قوانین حرکتی نیوتن یا جاذبه)، اما این مدل پیشبینیها حتی اگر درست هم باشد، شبهعلم است. درست است که دانشمندان به دنبال نظریههایی هستند که از لحاظ تجربی تأیید بالایی داشته باشد، اما همانطور که کارل پوپر فیلسوف اشاره کرده: «ما به دنبال نظریههای بسیار محتمل نیستیم، بلکه به دنبال توضیحات هستیم، یعنی نظریههای قدرتمند و بسیار نامحتمل.»
این نظریه که سیبها به زمین میافتند، چون زمین جایگاه طبیعی آنهاست (دیدگاه ارسطو)، نظریه ممکنی است، اما فقط سوالات بیشتری را مطرح میکند (چرا جایگاه طبیعیشان زمین است؟). این نظریه که سیب به زمین میافتند، چون جرم، فضا-زمان را خم میکند (تئوری انیشتین) بسیار بعید است، اما واقعا به شما میگوید که سیبها چرا میافتند. هوش واقعی در توانایی فکر کردن و بیان چیزهای نامحتمل، ولی روشنگرانه خودش را نشان میدهد.
هوش واقعی توانایی تفکر اخلاقی هم دارد. یعنی محدود کردن خلاقیت بیمرز ذهنهایمان با مجموعهای از اصول اخلاقی که مشخص میکند چه چیزی باید باشد و چه چیزی نباید باشد (و البته قرار دادن همان اصول در معرض انتقاد خلاقانه). ChatGPT برای اینکه بهدرد بخورد، باید قدرت تولید خروجیهای جدید را داشته باشد، و برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتواهای ناپسند اخلاقی دور بماند. اما برنامه نویسان ChatGPT و سایر پیشتازان یادگیری ماشین برای رسیدن به این تعادل به سختی افتادهاند و همچنان هم دارند برایش تلاش میکنند.
برای مثال، در سال ۲۰۱۶، چتربات Tay مایکروسافت (پیشروی ChatGPT) به دست ترولهای اینترنتی که آن را با دادههای آموزشی توهینآمیز پر کرده بودند، آلوده شد و اینترنت را پر از محتواهای زنستیز و نژادپرستانه کرد. چطور این مشکل را حل کردند؟ در غیاب توانایی استدلال براساس اصول اخلاقی، برنامهنویسان ChatGPT به طرز خامی آن را از تولید هر گونه چیز جدید در مباحث جنجال برانگیز منع کردند. آنها خلاقیت را فدای نداشتن شکلی از بیطرفی اخلاقی کردند.
برای مثال گفتگویی که اخیرا با ChatGPT درمورد اخلاقی بودن تغییر اقلیم مریخ به صورتی که انسان بتواند در آن زندگی بکند را در نظر بگیرید:
بیطرفی اخلاقی مشاهدهشده در پاسخهای هوش مصنوعی، زاده ناهوشمندی است. ChatGPT چیزی شبیه پیشپا افتادگی شر(ابتذال شر) را به نمایش میگذارد: سرقت ادبی، بیتفاوتی و چشمپوشی. استدلالهای استاندارد موجود در ادبیات را به همدیگر میچسباند و خلاصه میکند، از هرگونه موضعگیری در مورد هر چیزی خودداری میکند، نه صرفا از روی نادانی، بلکه از کمبود هوشمندی و در نهایت هم پشت «فقط دنبالهروی دستورات هستم» قایم میشود و مسئولیت را به سازندگانش حواله میدهد.
بهطور خلاصه، ChatGPT و برادرانش از اساس قادر به ایجاد تعادل بین خلاقیت و قیدهایشان نیستند. آنها یا بیش از حد تولید میکنند (هم درست و هم نادرست تولید میکنند و تصمیمات اخلاقی و غیراخلاقی را مثل هم به طور یکسان تأیید میکنند) و یا کمتر از حد تولید میکنند (با نمایش عدم تعهد به هر تصمیمی و بیتوجهی به پیامدها). با توجه به بیطرفی اخلاقی، ساختگی بودن علم و نارسایی زبانی این سیستمها، فقط باید به محبوبیتشان بخندیم، یا که گریه کنیم.
ترجمه: سجاد ریحانی