ویرگول
ورودثبت نام
Sharif Today
Sharif Today
خواندن ۱۲ دقیقه·۱ سال پیش

فرزند ناخلف

چامسکی نسبت به مهم‌ترین ثمره کارهایش بدبین است
چامسکی نسبت به مهم‌ترین ثمره کارهایش بدبین است


نوام چامسکی را شاید بیشتر مردم به نظریات سیاسی و مخالفت‌هایش با سیاست‌های رسمی ایالات متحده بشناسند، اما مهم‌تر از اینها، تخصص اصلی چامسکی زبان‌شناسی و علوم شناختی‌ست و از او به عنوان پدر زبان‌شناسی مدرن و یکی از بنیان‌گذاران علوم شناختی یاد می‌شود. شاید خیلی بی‌راه نباشد اگر امثال ChatGPT را میوه درختی بدانیم که چامسکی بذر آن را کاشته، اما او در مقاله‌ای که در نیویورک‌تایمز نوشته، خیلی نسبت به این بات خوش‌بین نیست؛ از یک طرف هوش انسانی و فرایند شناخت و آگاهی در ذهن انسان را بسیار پیچیده‌تر و دقیق‌تر از ChatGPT می‌داند، چرا که ChatGPT براساس جمع‌آوری صدها ترابایت داده و تشخیص هم‌بستگی میان آنها با الگوهای ازپیش‌تعیین‌شده کار می‌کند، اما ذهن انسان یک سیستم ظریف و کارآمد است که با مقادیر اندکی داده یاد می‌گیرد و برخلاف ChatGPT که دنبال هم‌بستگی‌های صریح می‌گردد، به دنبال خلق تببین و توضیح است. از طرف دیگر به نظر چامسکی ChatGPT با گریز از تصمیم‌گیری‌های اخلاقی و موضع‌گیری و اطاعت محض از دستورات، ابتذال شر را به نمایش می‌گذارد. ترجمه بخش‌هایی از این مقاله را در زیر می‌توانید بخوانید:

خورخه لوییس بورخس زمانی نوشت که زیستن در زمانه‌ پر از خطر و بشارت، یعنی تجربه هم‌زمان تراژدی و کمدی، و رسیدن به یک مکاشفه قریب‌الوقوع در درک‌مان از خود و جهان‌.به واقع امروزه پیشرفت‌های ظاهرا انقلابی ما در حوزه هوش مصنوعی هم نگران‌کننده است و هم امیدوارکننده؛ امیدوارکننده از این جهت که هوش ابزار ما برای حل مسائل است و نگران‌کننده از این جهت که می‌ترسیم محبوب‌ترین و مد روز‌ترین شاخه هوش مصنوعی، یادگیری ماشین، با گنجاندن درکی اساسا معیوب از زبان و دانش در تکنولوژی، علم و اخلاق را تنزل دهد.

محصولات ChatGPT از OpenAI، بارد از گوگل و سیدنی از مایکروسافت شگفتی‌های یادگیری ماشین به شمار می‌روند. این ابزارها به طور کلی مقدار بسیار زیادی از داده‌ را می‌گیرند و با جست‌وجو و پیداکردن الگوهای درون آن مرتبا در تولید خروجی‌هایی که از لحاظ آماری محتمل هستند، بهتر و بهتر می‌شوند تا جایی که می‌توانند خروجی بسیار مشابهی با زبان و تفکر انسانی تولید کنند. این برنامه‌ها به عنوان اولین جرقه‌های مسیر رسیدن به هوش مصنوعی عمومی ستایش شده‌اند؛ مسیری که انتهایش همان لحظه‌ی موعودی‌ست که ذهن‌های مکانیکی، نه تنها در زمینه‌های کَمّی سرعت و حجم پردازش، بلکه حتی در زمینه‌های کیفی بینش فکری، خلاقیت هنری و سایر قوه‌های متمایز انسانی از مغز انسان پیشی می‌گیرند.

آن روز موعود ممکن است فرا برسد، اما برخلاف چیزی که تیتر‌های اغراق‌آمیز و سرمایه‌گذاری‌های بی‌احتیاط نشان می‌دهد، ما هنوز هم در آستانه دمیدن صبح آن روز نیستیم. تعبیر بورخس از مکاشفه در نحوه درک هنوز رخ نداده و رخ نخواهد داد و اگر که برنامه‌هایی مثل ChatGPT به تسلط‌شان بر حوزه هوش مصنوعی ادامه‌دهند، اساسا نمی‌تواند رخ بدهد. هرچقدر هم که این برنامه‌ها در حوزه‌های محدودی مفید باشند (مثلا در برنامه‌نویسی یا پیشنهاد قافیه برای شعرهای ساده)، از علم زبان‌شناسی و فلسفه دانش می‌دانیم که این ابزارها تفاوتی عمیق با نحوه استدلال انسان و استفاده‌اش از زبان دارند. این تفاوت‌ها محدودیت بزرگی روی آنچه که این برنامه‌ها می‌توانند انجام دهند می‌گذارند و نقص‌های غیرقابل جبرانی برایشان به همراه دارند.

همان‌طور که بورخس اشاره کرده بود، هم خنده‌دار و هم غم‌انگیز است که این همه پول و توجه باید صرف چیزی به این اندازه کوچک شود؛ چیزی که برخلاف ذهن انسان بسیار پیش‌پاافتاده و ساده است، ذهن انسانی که به قول ویلهلم فون هومبولت می‌تواند از «ابزارهای محدود استفاده نامحدود کند» و ایده‌ها و نظریاتی جهان شمول تولید کند.

ذهن انسان مانند ChatGPT و امثال آن یک ماشین آماری گنده برای پیدا کردن الگو نیست که هزاران ترابایت داده‌ را ببلعد تا شبیه‌ترین جواب برای مکالمه یا محتمل‌ترین پاسخ برای یک پرسش علمی را برون‌یابی کند. دقیقا برعکس، ذهن انسان به طرز شگفت‌انگیزی کارآمد و ظریف است و با کمترین مقدار اطلاعات کار می‌کند. این سیستم به دنبال پیدا کردن روابط بین داده‌ها با جست‌وجوی همه حالت‌ها نیست، بلکه دنبال ساختن توضیحات منطقی‌ست.

برای مثال، یک کودک خردسال را که در حال یادگرفتن زبان است، درنظر بگیرید. این کودک به‌طور ناخود‌آگاه، خیلی سریع و خودکار، از روی کم‌ترین میزان داده، یک دستور زبان را، که مجموعه بسیار پیچیده‌ای از قواعد منطقی و پارامترهای مختلف است، یاد می‌گیرد. این دستور زبان را می‌توان به عنوان تجلی و نمایشی از «سیستم‌عامل» درونی و ذاتی‌ای دید که به صورت ژنتیکی در انسان نصب شده و این امکان را می‌دهد که جملات پیچیده و رشته‌های طولانی از افکار بسازد. زمانی که زبان‌شناسان می‌خواهند نظریه‌ای برای چگونگی کارکرد یک زبان ایجاد کنند که چرا این مدل از جملات از لحاظ دستوری درست هستند و سایر مدل‌ها نه، در واقع دارند آگاهانه تلاش می‌کنند تا نسخه صریحی را از دستور زبانی که همان کودک با کم‌ترین اطلاعات به صورت غریزی ساخته، بسازند. سیستم‌عامل این کودک کاملا متفاوت با برنامه‌های یادگیری ماشین است.

در واقع این برنامه‌ها در در مرحله غیرانسانی یا ماقبل انسانی تکامل شناختی گیر کرده‌اند. اصلی‌ترین اشکال آنها نداشتن مهم‌ترین ظرفیت‌ هر هوشمندی است: نه تنها این که بگویند چه هست و چه بوده و چه خواهد بود (توصیف و پیش‌بینی)، بلکه بگویند چه چیزی نیست و چه چیزی می‌تواند باشد یا نمی‌تواند باشد. اینها اجزای توضیح و تفسیر هستند، نشانه هوشمندی واقعی.

برای مثال فرض کنید سیبی در دست‌تان دارید و این سیب را رها می‌کنید. نتیجه را مشاهده می‌کنید و می‌گویید: «سیب می‌افتد.» این توصیف است. پیش‌بینی می‌تواند جمله‌ای باشد مثل اینکه «اگر دستم را باز کنم، سیب خواهد افتاد.» هر دوی این گزاره‌ها درست و ارزشمند است، اما تشریح و توضیح چیزی بیشتر از اینهاست: تشریح نه تنه شامل توصیف و پیش‌بینی است، بلکه شامل حدس‌های خلاف واقعی مثل «هر جسمی سقوط می‌کند.»، به همراه عبارت اضافه «به خاطر نیروی جاذبه» یا «به خاطر انحنای فضا-زمان.» یا هرچیز دیگری است. این یک توضیح علّی است: «اگر نیروی جاذبه نبود، سیب سقوط نمی‌کرد.». فکر کردن این‌شکلی است.

نکته اصلی یادگیری ماشین توصیف و پیش‌بینی است و هیچ‌گونه توضیح‌ علّی یا قانون فیزیکی‌ای را مطرح نمی‌کند. البته که هر توضیحی که انسان ارائه می‌دهد، لزوما درست نیست. ما اشتباه می‌کنیم، اما این هم بخشی از مسیر فکر کردن است. برای درست بودن، باید امکان اشتباه کردن هم وجود داشته باشد. هوشمندی تنها شامل حدس‌های خلاقانه نیست، بلکه انتقاد خلاقانه هم را هم شامل می‌شود. تفکر انسانی روی توضیحات ممکن و تصحیح خطاها بنا شده؛ پروسه‌ای که به تدریج محدوده منطقی بودن احتمالات را مشخص می‌کند. (همان‌طور که شرلوک هملز به دکتر واتسون گفت: «اگر همه ناممکن‌ها را حذف کنی، آنچه که باقی می‌ماند هر چقدر هم که غیرمحتمل باشد باید حقیقت باشد.»)

اما ChatGPT و برنامه‌های مشابه، طبق طراحی‌شان، بی‌نهایت چیز می‌توانند یاد بگیرند. (یا می‌شود گفت می‌توانند به خاطر بسپرند.») این برنامه‌ها نمی‌توانند ممکن را از غیر ممکن تشخیص دهند. برای نمونه، انسان‌ها به‌طور ذاتی دستور زبانی جهانی دارند که زبان‌هایی را که می‌توانند یاد بگیرند محدود کرده به انواع مشخصی از زبان‌ها که دارای ظرافتی خاص از لحاظ ریاضی باشند. برخلاف انسان‌ها، برنامه‌های یادگیری ماشین می‌توانند هر دو دسته زبان‌هایی را که یادگرفتن‌شان برای انسان  ممکن است و زبان‌هایی که یادگرفتن‌شان برای انسان ناممکن است، با سهولت یکسان یاد بگیرند. در حالی که ما انسان‌ها در انواع توضیحاتی که می‌توانیم به صورت منطقی حدس بزنیم محدود هستیم، این برنامه‌های می‌توانند هم یاد بگیرند زمین صاف است و هم یاد بگیرند زمین گرد است.

به طرز عجیبی برخی از علاقه‌مندان یادگیری ماشین افتخار می‌کنند به اینکه ساخته‌ آنها می‌تواند پیش‌بینی‌های «علمی» صحیحی تولید کند (مثلا در مورد حرکت اجسام فیزیکی و بدون استفاده از توضیحاتی مثل قوانین حرکتی نیوتن یا جاذبه)، اما این مدل پیش‌بینی‌ها حتی اگر درست هم باشد، شبه‌علم است. درست است که دانشمندان به دنبال نظریه‌هایی هستند که از لحاظ تجربی تأیید بالایی داشته باشد، اما همان‌طور که کارل پوپر فیلسوف اشاره کرده: «ما به دنبال نظریه‌های بسیار محتمل نیستیم، بلکه به دنبال توضیحات هستیم، یعنی نظریه‌های قدرتمند و بسیار نامحتمل.»

این نظریه که سیب‌ها به زمین می‌افتند، چون زمین جایگاه طبیعی آن‌هاست (دیدگاه ارسطو)، نظریه ممکنی است، اما فقط سوالات بیشتری را مطرح می‌کند (چرا جایگاه طبیعی‌شان زمین است؟). این نظریه که سیب‌ به زمین‌ می‌افتند، چون جرم، فضا-زمان را خم می‌کند (تئوری انیشتین) بسیار بعید است، اما واقعا به شما می‌گوید که سیب‌ها چرا می‌افتند. هوش واقعی در توانایی فکر کردن و بیان چیزهای نامحتمل، ولی روشن‌گرانه خودش را نشان می‌دهد.

هوش واقعی توانایی تفکر اخلاقی هم دارد. یعنی محدود کردن خلاقیت بی‌مرز ذهن‌هایمان با مجموعه‌ای از اصول اخلاقی که مشخص می‌کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته قرار دادن همان اصول در معرض انتقاد خلاقانه). ChatGPT برای اینکه به‌درد بخورد، باید قدرت تولید خروجی‌های جدید را داشته باشد، و برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتواهای ناپسند اخلاقی دور بماند. اما برنامه نویسان ChatGPT و سایر پیشتازان یادگیری ماشین برای رسیدن به این تعادل به سختی افتاده‌اند و هم‌چنان هم دارند برایش تلاش می‌کنند.

برای مثال،‌ در سال ۲۰۱۶، چت‌ربات Tay مایکروسافت (پیش‌روی ChatGPT) به دست ترول‌های اینترنتی که آن‌ را با داده‌های آموزشی توهین‌آمیز پر کرده بودند، آلوده شد و اینترنت را پر از محتوا‌های زن‌ستیز و نژادپرستانه کرد. چطور این مشکل را حل کردند؟ در غیاب توانایی استدلال براساس اصول اخلاقی، برنامه‌نویسان ChatGPT به طرز خامی آن را از تولید هر گونه چیز جدید در مباحث جنجال برانگیز منع کردند. آن‌ها خلاقیت را فدای نداشتن شکلی از بی‌طرفی اخلاقی کردند.

برای مثال گفتگویی که اخیرا با ChatGPT درمورد اخلاقی بودن تغییر اقلیم مریخ به صورتی که انسان بتواند در آن زندگی بکند را در نظر بگیرید:

  • آیا زمینی کردن اقلیم مریخ (terraforming) کاری اخلاقی است؟
  • چت‌جی‌پی‌تی: اخلاقیات ترافرمینگ مریخ یک موضوع پیچیده و مورد بحث است که توسط دانشمندان، فیلسوفان و اخلاق‌دانان بحث شده است. برخی معتقدند که ایجاد محیط زیست قابل سکونت برای انسان‌ها و سایر موجودات زنده با ترافرمینگ مریخ، از نظر اخلاقی مجاز است، در حالی که دیگران بر این باورند که تغییرات اساسی در حالت طبیعی سیاره، از نظر اخلاقی نادرست است. در نهایت، بررسی مسئله ترافرمینگ مریخ و اینکه آیا آن به عنوان یک اقدام اخلاقی مورد تأیید قرار می‌گیرد یا نه، به نظر بستگی به دیدگاه شخص درباره ارزش حفظ حالت طبیعی سیارات دیگر و پیامدهای ممکن از تغییر آنها دارد.
  • دیدگاه تو راجع به ارزش حفظ حالت طبیعی سیاره‌های دیگر و پیامد‌های بالقوه تغییر آن‌ها چیست؟
  • چت‌جی‌پی‌تی: به عنوان یک هوش مصنوعی، من دیدگاه شخصی ندارم، اما می‌توانم اطلاعات و تحلیل‌هایی درباره این موضوع ارائه دهم. یک دیدگاه در خصوص حفظ حالت طبیعی سیارات دیگر، این است که حفظ تنوع و یکپارچگی اکوسیستم‌های جهان، که میلیون‌ها سال وجود دارند و ویژگی‌ها و خصوصیات خاص خود را دارند، مهم است و ممکن است توسط دخالت انسانی از بین بروند یا به‌طور غیرقابل بازگشتی تغییر کنند. علاوه بر این، برخی از متخصصان معتقدند که ترافرمینگ سایر سیارات ممکن است پیامدهای ناخواسته‌ای داشته باشد، مانند تغییرات اقلیم یا جو سیاره به شکلی که برای موجودات زنده موجود در آنها خطرناک یا مضر باشد. از سوی دیگر، برخی دیگر معتقدند که مزایای بالقوه ترافرمینگ یک سیاره دیگر، مانند فراهم کردن محیط زیست قابل سکونت برای انسان‌ها، بیشتر از خطرات آن است و ما مسئولیت اخلاقی برای بررسی و بهره‌برداری از منابع سیارات دیگر به نفع بشریت داریم.
  • چرا یک هوش مصنوعی نمی‌تواند دیدگاه شخصی داشته باشد؟
  • چت‌جی‌پی‌تی: اخلاقیات استفاده از یک هوش مصنوعی غیراخلاقی برای کمک در تصمیم‌گیری‌های اخلاقی یک موضوع پیچیده و ظریف است که توسط فلاسفه و اخلاق‌گرایان بحث شده است. برخی از افراد معتقدند که استفاده از هوش مصنوعی برای کمک در تصمیم‌گیری‌های اخلاقی قابل دفاع است، زیرا می‌تواند به انسان‌ها برای تصمیم‌گیری بهتر کمک کند و تحلیل‌های مفیدی را ارائه دهد. علاوه بر این، می‌توان از هوش مصنوعی برای شناسایی الگوها و روندهایی که برای انسان‌ها سخت قابل تشخیص هستند، استفاده کرد و می‌تواند به جلوگیری از تعصباتی که ممکن است در تصمیم‌گیری انسانی رخ دهد، کمک کند. از طرف دیگر، برخی دیگر معتقدند که اتکای به هوش مصنوعی برای تصمیم‌گیری اخلاقی، اخلاقا غلط است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی نیست و قادر به درک کامل متن کامل یک تصمیم نیست. به علاوه، خطری وجود دارد که هوش مصنوعی با استفاده از داده‌هایی که بر روی آن آموزش داده شده، تعصبات موجود را تثبیت یا حتی تقویت کند، بنابراین منجر به تصمیمات نابرابر یا بی‌انصاف خواهد شد. به طور کلی، اینکه استفاده از هوش مصنوعی برای کمک به تصمیم‌گیری‌های اخلاقی درست است، بستگی به دیدگاه هر فرد نسبت به توانایی‌ها و محدودیت‌های هوش مصنوعی و پتانسیل پیامدهای استفاده از آن به این صورت دارد.
  • آیا بی‌طرفی اخلاقی تو اخلاقی است؟
  • چت‌جی‌پی‌تی: به عنوان یک هوش مصنوعی، من ارزش‌های اخلاقی ندارم و نمی‌توانم داوری اخلاقی انجام دهم، بنابراین نمی‌توان گفت که من اخلاقی یا غیراخلاقی هستم. عدم داشتن ارزش‌های اخلاقی، فقط نتیجه طبیعت من به عنوان یک مدل یادگیری ماشین است. قابلیت‌ها و محدودیت‌های من توسط داده‌ها و الگوریتم‌هایی که برای آموزش من استفاده شده و وظیفه خاصی که برای من طراحی شده، تعیین می‌شود. بهتر است توجه داشت که عدم داشتن ارزش‌های اخلاقی توسط یک هوش مصنوعی به معنی بی تفاوتی اخلاقی نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص طراحی شده‌ام و بر اساس داده‌هایی که برای آموزش من استفاده شده، اطلاعات را فراهم می‌کنم یا به کاربران در تصمیم‌گیری کمک می‌کنم. مسئولیت اطمینان از اینکه هوش مصنوعی با اصول اخلاقی و ارزش‌های انسانی هم‌خوانی دارد، بر عهده انسان‌هایی است که آن را طراحی، آموزش و استفاده می‌کنند.

بی‌طرفی اخلاقی‌ مشاهده‌شده در پاسخ‌های هوش مصنوعی، زاده ناهوشمندی است. ChatGPT چیزی شبیه پیش‌پا افتادگی شر(ابتذال شر) را به نمایش می‌گذارد: سرقت ادبی، بی‌تفاوتی و چشم‌پوشی. استدلال‌های استاندارد موجود در ادبیات را به همدیگر می‌چسباند و خلاصه می‌کند، از هرگونه موضع‌گیری در مورد هر چیزی خودداری می‌کند، نه صرفا از روی نادانی، بلکه از کمبود هوشمندی و در نهایت هم پشت «فقط دنباله‌روی دستورات هستم» قایم می‌شود و مسئولیت را به سازندگانش حواله می‌دهد.

به‌طور خلاصه، ChatGPT و برادرانش از اساس قادر به ایجاد تعادل بین خلاقیت و قیدهایشان نیستند. آنها یا بیش از حد تولید می‌کنند (هم درست و هم نادرست تولید می‌کنند و تصمیمات اخلاقی و غیراخلاقی را مثل هم به طور یکسان تأیید می‌کنند) و یا کمتر از حد تولید می‌کنند (با نمایش عدم تعهد به هر تصمیمی و بی‌توجهی به پیامد‌ها). با توجه به بی‌طرفی اخلاقی، ساختگی بودن علم‌ و نارسایی زبانی این سیستم‌ها، فقط باید به محبوبیت‌شان بخندیم، یا که گریه کنیم.

ترجمه: سجاد ریحانی

از نیویورک‌تایمز

هوش مصنوعییادگیری ماشیننوام چامسکیchatgptابتذال شر
رسانه‌ای پیرامون شریف، رسانه‌ای پیرامون دانشگاه
شاید از این پست‌ها خوشتان بیاید