علیرضا شفیعی پناه
علیرضا شفیعی پناه
خواندن ۵ دقیقه·۷ ماه پیش

نکات تاریک استفاده از چت‌بات‌ها و هوش مصنوعی در کارهای تحقیقاتی و علمی

استفاده از هوش مصنوعی در مقالات علمی اخیراً مورد توجه رسانه‌ها قرار گرفته است. استفاده اخلاقی از این نوآوری یکی از نکاتی است که امروزه مهندسان باید در کارهای علمی و اجرایی خود در نظر بگیرند.

یک عضو هیات علمی اخیراً مقاله‌ای جهت داوری ناشناس دریافت کرد. زمانی که او در حال خواندن این مقاله بود، به یک عبارت عجیب برخورد کرد: “Regenerate Response”. این عبارت هیچ ارتباطی با سایر بخش‌های مقاله نداشت، ولی استاد مورد اشاره متوجه شد که این یکی از گزینه‌های هوش مصنوعی ChatGPT است. بر این اساس، داور مقاله به استفاده نویسنده از هوش مصنوعی چت‌جی‌پی‌تی برای نوشتن حداقل بخشی از متن مقاله مشکوک می‌شود. او معتقد است که زمانی که نویسنده در حال کپی کردن متن مورد نظرش از فضای سایت چت‌جی‌پی‌تی به داخل متن خودش بوده، تصادفاً و به اشتباه آن عبارت عجیب را هم کپی کرده و در متن خود جا داده. یک نکته دیگر آن است که نویسنده بدون بازبینی دقیق آن را در سایت ژورنال سابمیت کرده است.

داور مقاله این موضوع را با سردبیر ژورنال در میان می‌گذارد و او هم از نویسنده مقاله می‌خواهد که توضیحی در این مورد بدهد. نویسنده استفاده از هوش مصنوعی را تأیید می‌کند، اما مدعی است که استفاده او فقط محدود بوده است به بهبود خوانایی و دسته‌بندی مطالب در مقاله‌اش. برای اثبات این موضوع، سردبیر درخواست نسخه‌های قبلی‌تر مقاله یا سایر شواهد مبنی بر ادعای نویسنده را از او درخواست می‌کند. اما از آنجایی که پاسخ نویسنده شک‌های جدی را درباره اصالت کل مقاله ایجاد می‌کند، مقاله مورد اشاره از طرف ژورنال ریجکت می‌شود.

آیا این موضوع ضوابط ژورنال ASCE را نقض کرده بود؟

یکی از جالب‌ترین ابعاد استفاده از هوش مصنوعی مولد (به معنای آنکه محتوای جدیدی را خلق می‌کند) ظرفیت آن برای ساخت محتوایی است که در کارهای مهندسی به آن نیاز است. ساخت پیش‌نویس مکاتبات یک دفتر مهندسی، خلاصه‌سازی اطلاعات مالی، ساده‌سازی جست‌وجوها و یا سایر کاربردهایی که این موتورهای هوش مصنوعی دارند و می‌توانند بهره‌وری و بازدهی کار مهندسی را بالا ببرند. اما متأسفانه این امر روی تاریکی نیز دارد که می‌تواند یک تهدید برای اخلاق حرفه‌ای باشد، به‌ویژه زمانی که مهندسان کارهایی که جزو مسئولیت‌های حرفه‌ای آن‌هاست و نیاز به قضاوت مهندسی دارد را به هوش مصنوعی واگذار می‌کنند.

هوش مصنوعی مولد یک ابزار فوق‌العاده برای ساخت و ارائه محتواست، اما مانند سایر ابزارها، کاربر آنها باید از آن استفاده صحیح بکند و از محدودیت‌های آن آگاه باشد. اولین و مهم‌ترین موضوع این است که اطلاعاتی که این موتورها با آنها تمرین داده شده اند، ممکن است دچار ایراد باشند. و از طرف دیگر، دستورهایی که به این ابزارها برای تولید اطلاعات داده می‌شود، ممکن است مبهم و مشکل دار باشند که این دو مورد باعث می‌شود که سیستم‌های هوش مصنوعی مانند ChatGPT محتوای نادرست، گمراه‌کننده و حتی کاملاً ساختگی تولید کنند. به‌طور مثال، در یک مورد معروف، یک وکیل به دلیل ساخت یک دستور قضایی تقلبی از کار محروم شد و یا در موردی دیگر یک زیست‌شناس که مقاله‌ای را منتشر کرد و فرد دیگری هنگام خواندن آن مقاله اسم خودش را در بین منابع آن مقاله دید؛ مقاله‌هایی که وجود خارجی نداشتند.

در ضوابط اخلاقی ASCE آمده است که مهندسان باید نظرات تخصصی خود را صادقانه و تنها در زمانی که دانش کافی در مورد آن دارند بیان کنند. همچنین در جای دیگری از این آیین‌نامه آمده است که مهندسان باید تنها کارهایی که توسط خودشان و یا با مسئولیت آن‌ها انجام شده است را تأیید و امضا کنند. در این حالت، چنانچه فردی مقاله‌ای را که توسط هوش مصنوعی ساخته شده است را بدون آنکه در ابتدا آن را بازبینی کنند و از دقت و صحت محتوای آن مطمئن شوند، ارائه دهند، آن فرد ضوابط اخلاقی فوق‌الذکر را نقض کرده است.

همچنین، از آنجایی که مطالبی که هوش مصنوعی‌های مولد تولید می‌کنند بر اساس محتوای مشابه موجود است، اطلاعات تولید شده می‌تواند ناقض حقوق کپی‌رایت و شامل سرقت ادبی باشد. به واقع، هر محتوایی که توسط هوش مصنوعی مولد تولید شده باشد، سرقت ادبی است، زیرا از منابع دیگری برداشته شده است و به عنوان نوشته فرد دیگری ارائه شده است. به عبارت دیگر، این موضوع از منظر اخلاق حرفه‌ای دیده می‌شود، زیرا فرد به غلط مدعی است که نویسنده متن است. به طور مثال، یک دانشجو می‌تواند به خاطر متن نوشته شده توسط هوش مصنوعی تشویق شود، یا محققی که رزومه خودش را با یک مقاله ساخته توسط هوش مصنوعی ارتقا می‌دهد.

طبق ضوابط نشریه ASCE، مهندسان باید تنها برای کارهایی که خودشان انجام دادند و یا ارائه مستند برای همکاری در کارهای سایر افراد اعتبار و امتیاز دریافت کنند. اگر ادهای کاذب فرد مزایایی برای آن فرد نسبت به سایر افراد ایجاد کند، این امر می‌تواند منجر به ریجکت شدن مقاله به دلیل رقابت ناعادلانه شود.

در مورد اشاره شده در ابتدای این مقاله، محقق مورد نظر مقاله‌ای که توسط هوش مصنوعی ساخته شده بود را ارائه داده بود و امید داشت که با پذیرش و چاپ آن مقاله نفع شخصی ببرد. بنابراین، کار او یک برتری غیرمنصفانه‌ای برای او نسبت به سایر افرادی که تمامی کار مقاله را خودشان انجام داده‌ بودند ایجاد می‌کرد.

نکته دیگر آن است که چنانچه فرد نویسنده مقاله مورد نظر به استفاده محدود و مناسب از هوش مصنوعی در مقاله‌اش اشاره کرده بود (همان‌طور که خودش مدعی بود که از هوش مصنوعی تنها برای اصلاح متن استفاده کرده است)، به دلیل آنکه استفاده از آن را از قبل به اطلاع ژورنال نرسانده بود، یک ابهام اخلاقی دیگر را ایجاد کرده است. با توجه به محدودیت‌ها و مواردی که پیش‌تر در مورد هوش مصنوعی مولد گفته شد، به اشتراک گذاری این امر که در مقاله از هوش مصنوعی کمک گرفته شده است باعث می‌شد که داوران ژورنال مقاله را با دقت بیشتری بررسی کنند. با توجه به اینکه نویسنده مقاله این امر را پنهان کرده بود و داور اتفاقی از آن باخبر نشده بود، نویسنده مقاله قانون دیگری از ژورنال را نقض کرده است.

با توجه به مزایا و معایب استفاده از هوش مصنوعی مولد، بسیاری از انتشارات ضوابط و آیین‌نامه‌های خود را در مورد استفاده صحیح از این سرویس‌ها در کارهای علمی اصلاح کرده‌اند. به عنوان مثال، ژورنال ASCE مقاله‌های نوشته شده توسط هوش مصنوعی را بررسی و چاپ نمی‌کند. اگر افراد استفاده دیگری از هوش مصنوعی در کارشان صورت دادند، باید آن را بیان کنند و آماده پاسخ‌گویی به سوالات بعدی سردبیر درباره نجوه و جزییات آن استفاده باشند.


منبع

ترجمه شده از ASCE

هوش مصنوعی
کارشناس ارشد مهندسی ژئوتکنیک؛ علاقه‌مند به علم، تکنولوژی، فرمول یک و البته فوتبال
شاید از این پست‌ها خوشتان بیاید