استفاده از هوش مصنوعی در مقالات علمی اخیراً مورد توجه رسانهها قرار گرفته است. استفاده اخلاقی از این نوآوری یکی از نکاتی است که امروزه مهندسان باید در کارهای علمی و اجرایی خود در نظر بگیرند.
یک عضو هیات علمی اخیراً مقالهای جهت داوری ناشناس دریافت کرد. زمانی که او در حال خواندن این مقاله بود، به یک عبارت عجیب برخورد کرد: “Regenerate Response”. این عبارت هیچ ارتباطی با سایر بخشهای مقاله نداشت، ولی استاد مورد اشاره متوجه شد که این یکی از گزینههای هوش مصنوعی ChatGPT است. بر این اساس، داور مقاله به استفاده نویسنده از هوش مصنوعی چتجیپیتی برای نوشتن حداقل بخشی از متن مقاله مشکوک میشود. او معتقد است که زمانی که نویسنده در حال کپی کردن متن مورد نظرش از فضای سایت چتجیپیتی به داخل متن خودش بوده، تصادفاً و به اشتباه آن عبارت عجیب را هم کپی کرده و در متن خود جا داده. یک نکته دیگر آن است که نویسنده بدون بازبینی دقیق آن را در سایت ژورنال سابمیت کرده است.
داور مقاله این موضوع را با سردبیر ژورنال در میان میگذارد و او هم از نویسنده مقاله میخواهد که توضیحی در این مورد بدهد. نویسنده استفاده از هوش مصنوعی را تأیید میکند، اما مدعی است که استفاده او فقط محدود بوده است به بهبود خوانایی و دستهبندی مطالب در مقالهاش. برای اثبات این موضوع، سردبیر درخواست نسخههای قبلیتر مقاله یا سایر شواهد مبنی بر ادعای نویسنده را از او درخواست میکند. اما از آنجایی که پاسخ نویسنده شکهای جدی را درباره اصالت کل مقاله ایجاد میکند، مقاله مورد اشاره از طرف ژورنال ریجکت میشود.
آیا این موضوع ضوابط ژورنال ASCE را نقض کرده بود؟
یکی از جالبترین ابعاد استفاده از هوش مصنوعی مولد (به معنای آنکه محتوای جدیدی را خلق میکند) ظرفیت آن برای ساخت محتوایی است که در کارهای مهندسی به آن نیاز است. ساخت پیشنویس مکاتبات یک دفتر مهندسی، خلاصهسازی اطلاعات مالی، سادهسازی جستوجوها و یا سایر کاربردهایی که این موتورهای هوش مصنوعی دارند و میتوانند بهرهوری و بازدهی کار مهندسی را بالا ببرند. اما متأسفانه این امر روی تاریکی نیز دارد که میتواند یک تهدید برای اخلاق حرفهای باشد، بهویژه زمانی که مهندسان کارهایی که جزو مسئولیتهای حرفهای آنهاست و نیاز به قضاوت مهندسی دارد را به هوش مصنوعی واگذار میکنند.
هوش مصنوعی مولد یک ابزار فوقالعاده برای ساخت و ارائه محتواست، اما مانند سایر ابزارها، کاربر آنها باید از آن استفاده صحیح بکند و از محدودیتهای آن آگاه باشد. اولین و مهمترین موضوع این است که اطلاعاتی که این موتورها با آنها تمرین داده شده اند، ممکن است دچار ایراد باشند. و از طرف دیگر، دستورهایی که به این ابزارها برای تولید اطلاعات داده میشود، ممکن است مبهم و مشکل دار باشند که این دو مورد باعث میشود که سیستمهای هوش مصنوعی مانند ChatGPT محتوای نادرست، گمراهکننده و حتی کاملاً ساختگی تولید کنند. بهطور مثال، در یک مورد معروف، یک وکیل به دلیل ساخت یک دستور قضایی تقلبی از کار محروم شد و یا در موردی دیگر یک زیستشناس که مقالهای را منتشر کرد و فرد دیگری هنگام خواندن آن مقاله اسم خودش را در بین منابع آن مقاله دید؛ مقالههایی که وجود خارجی نداشتند.
در ضوابط اخلاقی ASCE آمده است که مهندسان باید نظرات تخصصی خود را صادقانه و تنها در زمانی که دانش کافی در مورد آن دارند بیان کنند. همچنین در جای دیگری از این آییننامه آمده است که مهندسان باید تنها کارهایی که توسط خودشان و یا با مسئولیت آنها انجام شده است را تأیید و امضا کنند. در این حالت، چنانچه فردی مقالهای را که توسط هوش مصنوعی ساخته شده است را بدون آنکه در ابتدا آن را بازبینی کنند و از دقت و صحت محتوای آن مطمئن شوند، ارائه دهند، آن فرد ضوابط اخلاقی فوقالذکر را نقض کرده است.
همچنین، از آنجایی که مطالبی که هوش مصنوعیهای مولد تولید میکنند بر اساس محتوای مشابه موجود است، اطلاعات تولید شده میتواند ناقض حقوق کپیرایت و شامل سرقت ادبی باشد. به واقع، هر محتوایی که توسط هوش مصنوعی مولد تولید شده باشد، سرقت ادبی است، زیرا از منابع دیگری برداشته شده است و به عنوان نوشته فرد دیگری ارائه شده است. به عبارت دیگر، این موضوع از منظر اخلاق حرفهای دیده میشود، زیرا فرد به غلط مدعی است که نویسنده متن است. به طور مثال، یک دانشجو میتواند به خاطر متن نوشته شده توسط هوش مصنوعی تشویق شود، یا محققی که رزومه خودش را با یک مقاله ساخته توسط هوش مصنوعی ارتقا میدهد.
طبق ضوابط نشریه ASCE، مهندسان باید تنها برای کارهایی که خودشان انجام دادند و یا ارائه مستند برای همکاری در کارهای سایر افراد اعتبار و امتیاز دریافت کنند. اگر ادهای کاذب فرد مزایایی برای آن فرد نسبت به سایر افراد ایجاد کند، این امر میتواند منجر به ریجکت شدن مقاله به دلیل رقابت ناعادلانه شود.
در مورد اشاره شده در ابتدای این مقاله، محقق مورد نظر مقالهای که توسط هوش مصنوعی ساخته شده بود را ارائه داده بود و امید داشت که با پذیرش و چاپ آن مقاله نفع شخصی ببرد. بنابراین، کار او یک برتری غیرمنصفانهای برای او نسبت به سایر افرادی که تمامی کار مقاله را خودشان انجام داده بودند ایجاد میکرد.
نکته دیگر آن است که چنانچه فرد نویسنده مقاله مورد نظر به استفاده محدود و مناسب از هوش مصنوعی در مقالهاش اشاره کرده بود (همانطور که خودش مدعی بود که از هوش مصنوعی تنها برای اصلاح متن استفاده کرده است)، به دلیل آنکه استفاده از آن را از قبل به اطلاع ژورنال نرسانده بود، یک ابهام اخلاقی دیگر را ایجاد کرده است. با توجه به محدودیتها و مواردی که پیشتر در مورد هوش مصنوعی مولد گفته شد، به اشتراک گذاری این امر که در مقاله از هوش مصنوعی کمک گرفته شده است باعث میشد که داوران ژورنال مقاله را با دقت بیشتری بررسی کنند. با توجه به اینکه نویسنده مقاله این امر را پنهان کرده بود و داور اتفاقی از آن باخبر نشده بود، نویسنده مقاله قانون دیگری از ژورنال را نقض کرده است.
با توجه به مزایا و معایب استفاده از هوش مصنوعی مولد، بسیاری از انتشارات ضوابط و آییننامههای خود را در مورد استفاده صحیح از این سرویسها در کارهای علمی اصلاح کردهاند. به عنوان مثال، ژورنال ASCE مقالههای نوشته شده توسط هوش مصنوعی را بررسی و چاپ نمیکند. اگر افراد استفاده دیگری از هوش مصنوعی در کارشان صورت دادند، باید آن را بیان کنند و آماده پاسخگویی به سوالات بعدی سردبیر درباره نجوه و جزییات آن استفاده باشند.