این نوشته، ترجمهای از مقاله نوشتهشده توسط جیمز د. والش در مجله نیویورک تحت عنوان «همه دارند کالج را با تقلب میگذرانند» است.

در پاییز سال گذشته، «چانگین روی لی» موفق شد به دانشگاه کلمبیای آمریکا راه پیدا کرده و سپس – طبق اعتراف خودش – تقریباً برای انجام تمام تکالیف خود از هوش مصنوعی استفاده کند. بعنوان یک دانشجوی علوم کامپیوتر، او وابستگی نسبتا زیادی به هوش مصنوعی برای کلاسهای برنامهنویسی خود داشت: «فقط هرچی بود رو با یه پرامپت به ChatGPT میدادم و هرچی اون بهم میداد رو تحویل میدادم.» طبق تخمین لی، هوش مصنوعی هشتاد درصد از تمام تکالیف و گزارشهایی که او تحویل میداد را انجام داده بود: «توی آخرین مرحله، خودم هم یه چیزایی اضافه میکردم. در حقیقت بیست درصد از انسان بودنم رو بهش اضافه میکردم».
ورود لی به دانشگاه کار آسانی نبود؛ در سال آخر دبیرستان، او برای ورود به دانشگاه هاروارد اقدام کرد و به گفته خودش، از این دانشگاه پذیرش نیز گرفت؛ اما این پذیرش، به دلیل تعلیق او از دبیرستان (به دلیل خروج غیرمجاز از مکان کمپ کردن در یک اردوی تفریحی) پس گرفته شد. در سال بعد، او برای ورود به ۲۶ دانشگاه مختلف اقدام کرد که موفق به ورود به هیچکدام از آنها نشد. در نتیجه، او سال بعدی خود را در کالجهای منطقهای گذراند و در سال دوم تحصیل خود، برای ورود به دانشگاه کلمبیا اقدام نموده و موفق نیز شد. پس از ورود به این دانشگاه، او نگرانی چندانی بابت معدل خود نداشت: «عموما تکالیف دانشگاهی، خیلی چیزای بدردبخور و مرتبطی نیستن. بیشترشون رو میشه با هوش مصنوعی دور زد؛ و منم هیچ تمایلی به انجام دادنشون نداشتم». در شرایطی که باقی دانشجویان تلاش میکردند تا خود را با برنامه درسی سخت و سطح بالای این دانشگاه وفق دهند، لی از هوش مصنوعی استفاده میکرد تا با حداقل تلاش، مسیر خود را از بین آنها پیدا کند. وقتی از او پرسیدم که چرا او خود را به این اندازه از دردسر انداخت تا بتواند وارد چنین دانشگاه ردهبالایی شود و بعد از آن، بخواهد اینچنین آن را جدی نگیرد، گفت: «چون این بهترین جا برای ملاقات با همسر آیندهات و کسی که قراره باهاش یه شرکت تأسیس کنی به حساب میاد».
تا پایان اولین ترم، لی یکی از این دو مورد را انجام داده بود؛ او با «نیل شانموگام»، دانشجوی سال اولی مهندسی آشنا شد و این دو به کمک یکدیگر، ایدههای مختلفی برای چند استارتآپ را توسعه دادند: یک اپلیکیشن دوستیابی برای دانشجویان دانشگاه کلمبیا، یک اپلیکیشن فروشگاهی برای فروشندگان مشروبات الکلی، و یک اپلیکیشن مخصوص جزوهبرداری؛ هیچکدام از این ایدهها، به نتیجه نرسیدند. اینجا بود که یک ایده جدید به ذهن لی رسید: به عنوان یک برنامهنویس، او نزدیک به ۶۰۰ ساعت اعصابخردکن را در سایت Leetcode، پلتفرمی برای آزمودن برنامهنویسان توسط شرکتها در آزمونهای استخدام و جذب کارآموز، گذرانده بود. لی، مانند خیلی دیگر از برنامهنویسان جوان، سوالها و تسکهای این پلتفرم را طاقتفرسا و بیهوده برای کار اصلیای که برنامهنویسان قرار است انجام دهند میدانست. اصلا همه این کارها برای چه بود؟ چه میشد اگر برنامهای وجود داشت که حین آزمون، هوش مصنوعی را از آزمونگیرنده در مرورگر اینترنت آنها پنهان میکرد و آنها میتوانستند به صورت دزدکی، سوالات خود را حین آزمون به هوش مصنوعی بدهند؟
چند ماه بعد، لی و شانموگام ابزاری مخصوص همین کار توسعه دادند. سایت آنها که Interview Coder نام داشت، بنری در صفحه اول خود داشت که چنین خوانده میشد: «لعنت به لیتکد». لی ویدیویی از خودش در یوتیوب منتشر کرد که از این ابزار، برای تقلب در آزمون استخدامی شرکت آمازون استفاده کرده بود (که اتفاقا از آنها پیشنهاد کار نیز گرفت؛ اما آن را رد کرد). یک ماه بعد، لی به اداره «یکپارچگی آموزشی دانشگاه کلمبیا» احضار شد. معاونت دانشگاه، او را وارد یک دوره عفو مشروط انضباطی کرد؛ چرا که به عقیده کمیته دانشگاه، لی «تبلیغ به استفاده از ابزار تقلب» کرده بود و «به دانشجویان نیز امکان استفاده از این ابزار را داده بود».
به عقیده لی، این که دانشگاه کلمبیا، دانشگاهی که با شرکت سازنده ChatGPT، یعنی OpenAI، قرارداد رسمی همکاری داشته و در عین حال، او را به دلیل نوآوری با هوش مصنوعی مجازات کند، مسخره و مضحک بود. هرچند، با وجود این که سیاست این دانشگاه در رابطه با هوش مصنوعی، مانند خیلی از دانشگاههای دیگر، ممنوع کردن دانشجویان از استفاده از هوش مصنوعی (مگر با اجازه صریح استاد بود)، به گفته لی او دانشجویی را نمیشناخت که برای تقلب از هوش مصنوعی استفاده نکند. به عقیده لی، این پدیده لزوما چیز بدی نبود: «به نظرم ما فقط چند سال یا حتی چند ماه با دنیایی که استفاده از ChatGPT توش تقلب محسوب نشه فاصله داریم».
در ژانویه ۲۰۲۳، تنها دو ماه پس از انتشار ChatGPT توسط OpenAI، یک نظرسنجی از هزار دانشجو نشان داد که نزدیک به نود درصد آنها از این چتبات برای کمک گرفتن در تکالیف خود استفاده کرده بودند. در اولین سال انتشار، آمار بازدید ماهانه ChatGPT تا شروع تعطیلات تابستانی، رشد ثابت ماهانهای به خود دید. استادها و دستیاران آموزشی آنها به طور فزایندهای با مقالات و گزارشهایی روبرو میشدند که پر از جملهبندیهای بیاحساس و رباتگونه – اگرچه از لحاظ گرامری بینقص – بودند. دو سال و نیم بعد، دانشجویان دانشگاههای برتر، دانشگاههای دولتی، موسسهها و … در تمامی مراحل آموزش خود به هوش مصنوعی تکیه دارند. چتباتهای هوش مصنوعی مولد، حین کلاسها برای دانشجویان جزوه مینویسند، آزمونها و تکالیف آنها را ارزیابی میکنند، رمانها و کتابهای مختلف را خلاصه میکنند و برای مقالات و گزارشهای آنها، ایدهپردازی و بارش فکری نیز انجام میدهند. دانشجویان STEM (رشتههای مربوط به علوم پایه، فناوری، مهندسی و پزشکی) از هوش مصنوعی برای خودکار نمودن پژوهشها و تحلیلهای خود و همچنین، گذر ساده از بین برنامهنویسیهای پیچیده و وظایف مربوط به دیباگ کردن کد استفاده میکنند.
تقلب کردن در درسها، مفهوم و اتفاق تازهای نیست؛ اما در حال حاضر، به قول خود دانشجوها، «سقفی که قبلا برای تقلب وجود داشت، منفجر شده». چه کسی میتواند در برابر ابزاری که انجام تمام تکالیف را بدون عواقب خاصی آسانتر مینماید، مقاومت کند؟ تروی جالیمور – شاعر، فیلسوف و استاد اخلاقیات در دانشگاه ایالتی کالیفرنیا – پس از گذراندن دو سال گذشته به تصحیح کردن تکالیف ساختهشده توسط هوش مصنوعی، چنین اذعان داشت: «تعداد بسیاری از دانشجویان مدرک دانشگاهی خود را دریافت میکنند و وارد بازار کار میشوند؛ در حالی که اساسا بیسواد هستند. هم به معنای واقعی کلمه، و هم به معنای نداشتن هیچ درکی از گذشته و فرهنگ خود یا دیگران». این وضعیت، شاید زودتر از چیزی که فکر میکردیم فرا رسیده باشد؛ چرا که در لحظه نگارش این متن، قریب به نیمی از دانشجویان، تجربه گذراندن دانشگاه بدون دسترسی به هوش مصنوعی مولد را نداشتهاند. «هوش مصنوعی داره فرایند یادگیری رو مدار کوتاه میکنه؛ و به سرعت هم داره این کار رو انجام میده.»
قبل از انتشار ChatGPT در نوامبر ۲۰۲۲، آمار تقلب به بیشترین حد خود رسیده بود. در آن زمان، بسیاری از دانشجویان از دبیرستان بهصورت مجازی و از راه دور فارغ التحصیل شده بودند؛ در شرایطی که کسی بر آنها نظارت نداشت و آنها نیز از ابزارهایی مانند Chegg و Course Hero نیز نهایت استفاده را میبردند. این شرکتها خود را به عنوان منابع آنلاین و نامحدود برای کتابها و محتویات آموزشی تبلیغ میکردند؛ در حالی که اصولا برای تقلب به کار میرفتند. با پرداخت ۱۵.۹۵ دلار در ماه، Chegg این قول را به کاربران میداد که در عرض ۳۰ دقیقه و با مشارکت بیش از ۱۵۰ هزار نفر، بتواند به تکالیف و سوالاتی که کاربران در آن آپلود میکنند، پاسخ دهد. با انتشار ChatGPT، حالا دانشجویان به یک ابزار سریعتر و تواناتر دسترسی داشتند.
معاونین و مسئولان مؤسسات آموزشی نیز قادر به انجام کاری نبودند. عملا هیچ راهی برای ممنوع کردن استفاده از ChatGPT به طور کامل وجود نداشت. در نتیجه، آنها تصمیم را بر عهده استادها و معلمها گذاشتند. برخی از دانشگاهها، آن را پذیرفته و حتی با توسعهدهندگان مختلف همکاری کردند تا چتباتهای مخصوص خود را توسعه دهند؛ اما در نهایت، قانونگذاری برای آن کار راحتی نبود. تا چه سطحی میشد استفاده از هوش مصنوعی را مجاز دانست؟ آیا میتوان دانشجویان را مجاز نمود که با صحبت با هوش مصنوعی، بتوانند ایده بگیرند؛ اما به شرطی که از آن نخواهند تا تکتک جملات تکالیف را نیز بنویسد؟
این روزها، استادها عموما استفاده از هوش مصنوعی را برای درسهای خود مجاز اعلام میکنند؛ به شرطی که دانشجویان با آن مانند منابع دیگر برخورد کرده و در صورت استفاده از آن، هوش مصنوعی را به عنوان منبع خود معرفی نمایند؛ یا حتی پا را فراتر گذاشته و دانشجویان را مجبور میکردند که سابقه صحبت خود با هوش مصنوعی در رابطه با تکلیف مربوطه را نیز ارائه دهند. دانشجویان گاهی ممکن بود بطور ناخواسته مرتکب تخلف شوند؛ چرا که حتی در صورت عدم درخواست مستقیم از هوش مصنوعی برای انجام تکالیف، ممکن بود آنها از طریق صحبتهای رد و بدل شده، ناخودآگاه تقلب کرده و ندانند که درخواست از هوش مصنوعی برای تمیز کردن یک پیشنویس یا پیدا کردن یک منبع معتبر برای رفرنس دادن نیز تقلب محسوب میشود. بیشتر اساتید مربوط به نویسندگی، معتقد هستند که استفاده دانشجویان از هوش مصنوعی به طرز وحشتناکی قابل تشخیص و «تابلو» است. شاید بعضی وقتها بتوان یک الگو و روان بودن خاص در زبان مقاله یا نحوه جملهبندیها پیدا کرد؛ اما بیشتر وقتها، نوشتههای آنها شلخته و مکانیکی است. کلمههای خاص و کماستفاده، چند بار در متنها دیده میشوند. استدلالها و ضد استدلالها، فقط به نحوی خاص که پیام اصلی متن را تکرار کنند ارائه میشوند. حتی بعضی وقتها این استفاده واضحتر هم میشود؛ چرا که بعضی متنهای تحویلدادهشده با این جمله شروع میشود: «من به عنوان یک هوش مصنوعی، برنامهنویسی شدهام تا...»
با این حال، اگرچه اساتید ممکن است فکر کنند که در تشخیص نوشتههای تولید شده توسط هوش مصنوعی مهارت دارند، مطالعات نشان داده که در واقعیت اینطور نیست. یکی از این مطالعات که در ژوئن ۲۰۲۴ منتشر شد، از پروفایلهای جعلی دانشجویان برای قرار دادن تمام کارهای تولید شده توسط هوش مصنوعی در برگههای نمرهدهی اساتید در یک دانشگاه بریتانیایی استفاده کرد. اساتید نتوانسته بودند ساخته شدن ۹۷ درصد آنها توسط هوش مصنوعی را تشخیص دهند. از زمان راهاندازی ChatGPT تا الان، ظرفیت هوش مصنوعی برای نوشتن مقالههای شبیه به انسان، بهتر و بهتر شده است. به همین دلیل است که دانشگاهها از آشکارسازهای هوش مصنوعی مانند Turnitin استفاده میکنند که از هوش مصنوعی، برای تشخیص الگوهای مختلف در متن تولید شده توسط هوش مصنوعی استفاده میکند. آشکارسازها، پس از ارزیابی یک بلوک متن، درصد امتیازی را ارائه میدهند که نشان دهنده احتمال تولید آن مقاله توسط هوش مصنوعی است. دانشجویان در مورد اساتیدی صحبت میکنند که شایعه شده است آستانههای خاصی (مثلا ۲۵ درصد) دارند که بالاتر از آن، یک مقاله ممکن است به عنوان نقض قانون اخلاق و تخلف علامتگذاری شود؛ اما حتی یک استاد – در مدارس دولتی بزرگ یا مدارس خصوصی کوچک، نخبه یا … – پیدا نشده است که به اجرای چنین سیاستی اعتراف کرده باشد. به نظر میرسید بیشتر آنها تسلیم این باور شده بودند که آشکارسازهای هوش مصنوعی، در حقیقت کار نمیکنند. علاوه بر این، آشکارسازهای مختلف هوش مصنوعی، نرخ موفقیت بسیار متفاوتی نیز دارند و در مجموع، در این رابطه دادههای متناقض زیادی وجود دارد.
البته راههای آسان زیادی برای فریب دادن اساتید و تشخیصدهندهها وجود دارد. دانشجویان پس از استفاده از هوش مصنوعی برای نوشتن یک مقاله، همیشه میتوانند آن را با صدای خودشان بازنویسی کرده یا به آن غلطهای املایی اضافه کنند؛ یا حتی میتوانند از هوش مصنوعی بخواهند که این کار را برایشان انجام دهد. یکی از دانشجویان در تیکتاک گفته بود که پرامپت مورد علاقهاش این است: «آن را به عنوان یک دانشجوی سال اولی بنویس که کمی کودن است». دانشجویان همچنین میتوانند پاراگرافهای تولید شده توسط هوش مصنوعی را از طریق سایر هوشهای مصنوعی که برخی از آنها «اصالت» خروجیهای خود را تبلیغ میکنند، دستکاری کرده یا مقالههای گذشته خود را آپلود کنند تا هوش مصنوعی را با صدای خود آموزش دهند. اریک، دانشجوی سال دوم دانشگاه استنفورد، گفت: «آنها واقعا در دستکاری سیستمها خوب هستند. شما یک پرامپت را در ChatGPT قرار میدهید، سپس خروجی را در یک سیستم هوش مصنوعی دیگر قرار میدهید، سپس آن را در یک سیستم هوش مصنوعی دیگر قرار میدهید. در آن مرحله، اگر خروجی نهایی را در یک سیستم تشخیص هوش مصنوعی قرار دهید، درصد تشخیص هوش مصنوعی استفادهشده هر بار کاهش مییابد». بیشتر اساتید به این نتیجه رسیدهاند که متوقف کردن سوءاستفاده گسترده از هوش مصنوعی، به چیزی بیش از نظارت صرف بر موارد فردی نیاز دارد و احتمالا به معنای بازنگری اساسی در سیستم آموزشی برای در نظر گرفتن دانشآموزان به صورت جامعتر خواهد بود.
به نظر میرسد بسیاری از اساتید و معلمان اکنون از این اتفاق ناامید هستند. در پاییز، سم ویلیامز دستیار آموزشی یک کلاس فشرده نویسندگی در مورد موسیقی و تغییرات اجتماعی در دانشگاه آیووا بود که رسماً به دانشجویان اجازه استفاده از هوش مصنوعی را نمیداد. خواندن اولین سری تکالیف و نمره دادن به آنها برای ویلیامز لذتبخش بود: یک مقاله شخصی که از دانشجویان میخواست در مورد سلیقه موسیقی خود بنویسند. سپس، در دومین تکلیف، مقالهای در مورد دوره محبوبیت سبک جز در شهر نیواورلئان (که از سال ۱۸۹۰ تا ۱۹۲۰ ادامه داشت)، سبک نوشتاری بسیاری از دانشجویانش به طرز چشمگیری تغییر کرد. بدتر از آن، خطاهای مضحکی درباره حقایق وجود داشتند؛ چندین مقاله شامل پاراگرافهای کامل در مورد الویس پریسلی (متولد ۱۹۳۵) بودند. ویلیامز گفت: «من به معنای واقعی کلمه به کلاسم گفتم: از هوش مصنوعی استفاده نکنید. اما اگر میخواهید تقلب کنید، باید به روشی هوشمندانه تقلب کنید. نمیتوانید دقیقاً همان چیزی را که هوش مصنوعی بیرون میدهد، کپی کنید.» ویلیامز میدانست که بیشتر دانشجویان این کلاس آموزش عمومی، قرار نیست نویسنده شوند؛ اما فکر میکرد که رسیدن از یک صفحه خالی به چند صفحه نیمهمنسجم، بیش از هر چیز، درسی برای تلاش است. از این زاویه دید، بیشتر دانشجویان او کاملاً شکست خوردند. ویلیامز گفت: «اونا از هوش مصنوعی استفاده میکنن چون یک راه حل سادهست و راهی آسون برای اوناست تا برای نوشتن انشا وقت نذارن و من این رو درک میکنم؛ چون وقتی بچهمدرسهای بودم، از نوشتن انشا متنفر بودم. اما حالا، هر وقت با کمی مشکل مواجه میشن، به جای اینکه با اون بجنگن و ازش عبور کنن، به چیزی پناه میبرن که کار رو براشون بسیار آسونتر میکنه.»
تا ماه نوامبر، ویلیامز تخمین زد که حداقل نیمی از دانشجویانش از هوش مصنوعی برای نوشتن مقالات خود استفاده میکنند. تلاش برای صحتسنجی نیز بیمعنی بود. ویلیامز هیچ اعتقادی به آشکارسازهای هوش مصنوعی نداشت و استادی که در کلاس تدریس میکرد، به او دستور داد که مقالات تکی، حتی مقالاتی که به وضوح توسط هوش مصنوعی اصلاح شده بودند را رد نکند. ویلیامز گفت: «هر بار که این موضوع را با استاد مطرح میکردم، این حس را داشتم که او قدرت ChatGPT را دست کم میگیرد و موضع دانشکده نیز این بود که «این یک سراشیبی لغزنده است و ما واقعاً نمیتوانیم ثابت کنیم که آنها از هوش مصنوعی استفاده میکنند.» به گفته ویلیامز، «به من گفته شد که بر اساس چیزی که مقاله در صورت تلاش واقعی برای نوشتن یک مقاله به دست میاره، نمره بدم. بنابراین، من به افراد بر اساس تواناییشون در استفاده از ChatGPT نمره میدادم.»
سیاست «تلاش واقعی برای نوشتن یک مقاله» مقیاس نمرهدهی ویلیامز را خراب کرد. اگر او به مقالهای قوی که واضحاً با هوش مصنوعی نوشته شده بود، نمره B میداد، به مقالهای که توسط کسی نوشته شده بود که واقعاً مقاله خود را نوشته بود اما به قول خودش «یک مقاله تقریباً بیسوادانه» را ارائه داده بود، چه نمرهای باید میداد؟ این سردرگمی برای ویلیامز در مورد آموزش، منجر شد تا در پایان ترم، او به قدری سرخورده شود که تصمیم بگیرد تا تحصیلات تکمیلی را به کلی رها کند: «ما در نسلی جدید، در زمانی جدید هستیم و من فکر نمیکنم این کاری باشه که بخوام انجام بدم.»
تصور عمومی ایدهآل از دانشگاه به عنوان مکانی برای رشد فکری و جایی که دانشجویان با ایدههای عمیق و ژرف درگیر میشوند، مدتها قبل از ChatGPT از بین رفته بود. ترکیب هزینههای بالا و اقتصاد «برنده همه چیز را میبرد»، باعث شده که دانشگاه به عنوان یک معامله یا وسیلهای برای رسیدن به هدف به نظر برسد. (در یک نظرسنجی اخیر، شرکت حسابداری Deloitte دریافت که تنها کمی بیش از نیمی از فارغ التحصیلان دانشگاه، معتقدند که تحصیلاتشان ارزش دهها هزار دلار هزینه سالانه را دارد، در مقایسه با فارغ التحصیلان مدارس فنی و حرفهای که ۷۶ درصد آنها چنین اعتقادی داشتند.) به نوعی، سرعت و سهولتی که هوش مصنوعی ثابت کرد قادر به انجام کارهای سطح دانشگاه با آن است، به سادگی فساد را در هسته آموزش آشکار کرد.

مسئله فقط دانشجویان نیستند؛ چندین پلتفرم و سرویس، اکنون ابزارهایی را برای ارائه بازخورد تولید شده توسط هوش مصنوعی در مورد مقالات دانشجویان ارائه میدهند. این امر، احتمال این که هوش مصنوعی اکنون در حال ارزیابی مقالات تولید شده توسط هوش مصنوعی باشد را افزایش میدهد و کل تمرین و تکلیفهای دانشگاهی را به مکالمهای بین دو ربات (یا حتی فقط یک ربات) کاهش میدهد.
سالها طول خواهد کشید تا بتوانیم به طور کامل بفهمیم که همه اینها، چه تاثیری بر مغز دانشآموزان و دانشجویان میگذارد. برخی تحقیقات اولیه، نشان میدهد که وقتی دانشآموزان وظایف فکر کردنی خود را به چتباتها واگذار میکنند، ظرفیت آنها برای حافظه، حل مسئله و خلاقیت ممکن است آسیب ببیند. مطالعات متعددی که در سال گذشته منتشر شدهاند، استفاده از هوش مصنوعی را با زوال مهارتهای تفکر انتقادی مرتبط دانستهاند. یکی از آنها نشان داده است که این اثر، در شرکتکنندگان جوانتر پژوهش برجستهتر است. در ماه فوریه، مایکروسافت و دانشگاه کارنگی ملون، مطالعهای را منتشر کردند که نشان میداد اعتماد افراد به هوش مصنوعی مولد، با کاهش تلاش برای تفکر انتقادی مرتبط است. به نظر میرسد اثر نهایی، اگر کاملاً شبیه به انیمیشن دیستوپیایی Wall-E نباشد، حداقل یک سازماندهی دوباره و قابل توجه از تلاشها و تواناییهای افراد است. همه اینها نگرانکنندهتر خواهد بود؛ اگر این واقعیت را اضافه کنید که هوش مصنوعی، ناقص است؛ یعنی ممکن است خروجی آن به چیزی متکی باشد که در واقعیت نادرست است یا حتی کاملاً از خودش ساخته است. با تأثیر مخربی که رسانهها و شبکههای اجتماعی بر توانایی نسل زد در تشخیص واقعیت از روایات ساخته ذهن داشتهاند، مشکل ممکن است بسیار بزرگتر از هوش مصنوعی مولد باشد. «اثر فلین» به افزایش مداوم نمرات بهره هوشی از نسلی به نسل دیگر اشاره دارد که سابقه آن به دهه ۱۹۳۰ میلادی برمیگردد. شیب این افزایش از حدود سال ۲۰۰۶ شروع به کند شدن و در برخی موارد، معکوس شدن نموده است. رابرت استرنبرگ، استاد روانشناسی دانشگاه کرنل، در مصاحبهای به رسانه گاردین گفت: «بزرگترین نگرانی در این دوران هوش مصنوعی مولد، این نیست که ممکنه خلاقیت یا هوش انسان رو به خطر بیندازد، بلکه اینه که در حال حاضر این اتفاق افتاده.»
اورین استارن، استاد دانشگاه دوک، در نوشته اخیر خود با عنوان «نبرد شکستخورده من علیه تقلب هوش مصنوعی» با استناد به نقل قولی که اغلب به دبلیو. اچ. آدن – شاعر انگلیسی – نسبت داده میشود، نوشت: «زبان مادر تفکر است، نه خدمتکار آن». اما فقط نوشتن نیست که تفکر انتقادی را توسعه میدهد. مایکل جانسون، معاون آموزشی دانشگاه A&M تگزاس، گفت: «یادگیری ریاضی بر توانایی شما برای تحلیل سیستماتیک یک فرایند در حل مسئله تاثیر داره. حتی اگر قرار نیست در حرفه خود از جبر یا مثلثات یا حساب دیفرانسیل و انتگرال استفاده کنید، از این مهارتها برای زمانی که چیزها منطقی به نظر نمیرسند، استفاده خواهید کرد.» نوجوانان از سختیهای ساختار یافته، چه ریاضیات جبری باشد و چه کارهای خانه، سود میبرند. آنها از طریق این وظایف، عزت نفس و اخلاق کاری را در خود ایجاد میکنند. به همین دلیل است که جاناتان هایدت، روانشناس اجتماعی، بر اهمیت یادگیری کودکان برای انجام کارهای سخت استدلال کرده است، چیزی که فناوری، اجتناب از آن را بینهایت آسانتر میکند. سم آلتمن، مدیرعامل OpenAI، نگرانیها در مورد استفاده از هوش مصنوعی در دانشگاه را کوتهبینانه دانسته، ChatGPT را صرفاً «ماشینحسابی برای کلمات» توصیف کرده و گفته است که «تعریف تقلب باید تکامل یابد». آلتمن، دانشجوی انصرافی استنفورد، سال گذشته گفت: «نوشتن مقاله به روش قدیمی دیگه معنی خاصی نداره». اما او در سخنرانی خود در کمیته نظارت مجلس سنا بر فناوری در سال ۲۰۲۳، به تردیدهای خود اعتراف کرد: «من نگرانم که با بهتر و بهتر شدن مدلها، کاربرها فرق بین یک مقاله با زبان انسان و زبان ربات رو کمتر و کمتر تشخیص بدن.» OpenAI از بازاریابی برای دانشجویان دانشگاه نیز شرمی نداشته است. این شرکت اخیراً حساب ChatGPT پلاس را که معمولاً اشتراک ۲۰ دلاری در ماه دارد، در طول امتحانات نهایی برای دانشجویان رایگان کرده است. (OpenAI ادعا میکند که باید به دانشجویان و معلمان، نحوه استفاده مسئولانه از آن آموزش داده شود و بر محصول ChatGPT Edu که به مؤسسات دانشگاهی میفروشد تأکید دارد.)
لی از مصاحبههای کاری مربوط به هک فاصله گرفته است. در ماه آوریل، او و شانموگام سرویس Cluely را راهاندازی کردند که صفحه کامپیوتر کاربر را اسکن کرده و به صدای آن گوش میدهد تا بدون نیاز به راهنمایی و پرامپت، بازخورد هوش مصنوعی و پاسخ به سوالات را بطور برخط و لحظهای ارائه دهد. در اساسنامه این شرکت آمده است: «ما Cluely را ساختیم تا دیگر هرگز مجبور نباشید تنها فکر کنید». این بار، لی با یک تبلیغ تلویزیونی ۱۴۰ هزار دلاری که در آن یک مهندس نرمافزار جوان (با بازی لی)، از Cluely نصبشده روی عینک خود برای دروغ گفتن در قرار اول با یک زن بزرگتر استفاده میکند. وقتی قرار به سمت خراب شدن میرود، Cluely به لی پیشنهاد میدهد که «در مورد کارهای هنری آن خانم صحبت کن» و اسکریپتی را برای گفتن او فراهم میکند. لی از روی عینکش میخواند: «من پروفایل هنری شما و نقاشی با لالهها را دیدم. شما زیباترین دختر تاریخ هستید».
قبل از راهاندازی Cluely، لی و شانموگام ۵.۳ میلیون دلار از سرمایهگذاران جمعآوری کردند که به آنها اجازه داد دو برنامهنویس – دوستانی که لی در کالج منطقهای با آنها آشنا شده بود (هیچ مصاحبه شغلی یا معماهای LeetCode لازم نبود) – را استخدام کرده و به سانفرانسیسکو نقل مکان کنند. چند روز پس از راهاندازی Cluely، وقتی با هم صحبت کردیم، لی در شرف گرفتن کلید ساختمان فضای کار جدیدش بود. او Cluely را روی رایانه خود اجرا میکرد. در حالی که Cluely هنوز نمیتواند پاسخهای بدون آمادگی قبلی را از طریق عینک افراد ارائه دهد، ایده نهایی این است که در آینده نزدیک، روی یک دستگاه پوشیدنی اجرا شده و همه چیز را در محیط شما ببیند، بشنود و واکنش نشان دهد. لی با قاطعیت گفت: «سپس، در نهایت، همهچیز فقط در مغز شماست». در حال حاضر، لی امیدوار است که مردم از Cluely برای ادامه محاصره آموزش توسط هوش مصنوعی استفاده کنند. او گفت: «ما قصد داریم امتحانات LSAT دیجیتال؛ GRE دیجیتال؛ تمام تکالیف دانشگاهی، آزمونها و امتحانات را هدف قرار دهیم. این به شما این امکان را میدهد که بتوانید تقریباً در همهچیز تقلب کنید».