ویرگول
ورودثبت نام
آرمان گرجی
آرمان گرجی
خواندن ۴ دقیقه·۱ سال پیش

در باب Waluigi effect؛ همتایِ بد

عکس از change.org
عکس از change.org


اخیرا و به لطف پادکست Hard Fork در اوقاتی خالی که دارم بیشتر با مفاهیمی که حوالی هوش مصنوعی وجود دارن آشنا شدم. از مفاهیم شناخته شده تری مثل اخلاق و آینده ی هوش مصنوعی تا مفاهیم مشخص تری مثل تکینگی. یکی از چیزهای جالبی که شنیدم و بیشتر در موردش خوندم مفهومی به اسم Waluigi effect بود.

من هیچوقت اهل بازی های قارچ خور نبودم و حتی الان که گاها مهریسا بازی میکنه برام جذابیتی آنچنانی ندارن. گرچه واقعا فرنچایز فوق العاده ای به حساب میاد و شخصیت ها و بازی های اون تا حدودی برای من که حتی بازی نکردم هم شناخته شدس. اما ربط قارچ خور یا سوپر ماریو به این مسئله در واقع اینجاست که ماریو یک برادر به اسم لویجی داره که لویجی یک همتا (در واقع اینجا همتای بد) داره که اسم اون والویجیه. منظور از همتا اینه که والویجی شبیه به لویجیه و کارهایی که لویجی انجام میده رو انجام میده اما به روش و با اخلاق بد و زننده. یک جایی در مقاله این در فورچون این رو به رابطه ی فروید و یونگ تشبیه کرده بود و اونهارو از جهت روانشناس بودن یکی میدونست و حتی در مدتی دوست و همصحبت هم بودن اما بعد از مدتی این دوستی تموم میشه و این افراد نظراتی مخالف هم در مورد روان و روانشناسی که ما امروزه در موردشون میدونیم ارائه میکنن. اما برم سراغ اینکه این موضوع چه ارتباطی با هوش مصنوعی داره.

مدت زمان نسبتا زیادی از شکل گیری و آزمایش اولین محصولات هوش مصنوعی به دست بشر میگذره و از همون ابتدای کار افراد زیادی همیشه آینده ی تیره وتاری که این ممکنه این تکنولوژی برای بشر ایجاد کنه رو مداوما گوش زد میکردند. یکی از معروف ترین ها و شاید دهن پر کن ترین ها مفهوم تکینگی باشه. خود این مفهوم و حرف زدن در مورد اون شاید خارج از فرصت این متن باشه اما این این مفهوم رو که جان نویمان رو از اولین بنیانگذاران اون میدونن به این معنیه که وقتی هوش مصنوعی یک آستانه ای از خودآگاهی و دانش رو رد کنه بعد از اون خودش خودش رو ارتقا میده و به هوش و توانایی بالاتر از ذهن انسان ها دست پیدا میکنه و این از نظر بسیاری از دانشمندان و صاحبان نظر در این حوزه ی اتفاق خوبی نیست و بشر و نوع اون رو تهدید خواهد کرد. اما از نظر من هر اتفاق بزرگ به تدریج رخ میده و رسیدن به چنین وضعیتی شاید دهه ها طول بکشه و سطول لغزنده (slippery slope) هایی که در این بین وجود دارن که وقتی توی اون سطح ها بیوفتیم سرعت حرکت ما به سمت دره بیشتر میشه. یکی از اون سطوح لغزنده همین اثر والویجی هست. اثر والویجی به معنای ساده کلمه میگه وقتی شما شبکه ی هوش مصنوعی رو برای انجام هدف خاصی طراحی میکنی، هر چقدر دقت اون رو برای هدف خودت بالاتر ببری در واقع باعث میشی که اون شبکه کار مخالف اون هدفی که داشت رو هم با دقت بالایی انجام بده. در واقع این بیشتر از داده هایی که برای تمرین به اون شبکه داده میشه نشات میگره. اینکه شبکه های هوش مصنوعی میتونن گاها بد باشن در همین مدت و در ابزار هایی مثل ChatGPT دیده شده اما به نظر من زمانی این اثر برای همه شناخته شده میشه که یک اتفاق بد بزرگتر رو هوش مصنوعی رقم بزنه. البته این چیزیه که تاریخ مداوما اون رو اثبات کرده و الان که منتظر فیلم اوپنهایمر هستیم با دونستن چیزهایی در مورد پروژه ی منهتن و خود اوپنهایمر، شاید این ایده که میتونه اتفاق بدی اتفاق بدی باشه رو در ذهن پررنگ تر کنه. البته من خودم به شخصه انسان خوشبینی هستم و امیدوارم که قبل از اتفاق بزرگ بتونیم اون رو پیشبینی کنیم.

اما چیزی که باعث شد من این متن رو بنویسم صحبت در مورد ایده ای بود که در ذهن خودنم نشخوار میکردم. ما در علم پزشکی از هوش مصنوعی برای موارد زیادی استفاده میکنیم. از تشخیص سرطان و آلزایمر و پارکینسون گرفته تا ساخت دارو های جدید. اخیرا روی پروژه ای در حوزه ی سرطان که در پست قبل در مورد اون نوشتم کار میکنم و وقتی در مورد اثر لویجی بیشتر دونستم برای این سوال ایجاد شد که آیا همیشه این اثر عواقب منفی داره؟ وقتی ما بتونیم با دقت بالایی وجود داشتن تومور سرطانی در یک عکس رو تشخیص بدیم پس احتمال بالایی وجود داره که ما بتونیم عکس های سالم رو تشخیص بدیم و این شاید آینده ی غربالگری رو برای ما ساده تر کنه و این شاید به معنی اثر لویجی باشه. همتایِ خوبِ برادرِ همتای بد

اینجا من فقط از چیزهایی که اخیرا خوندم و شنیدم مینویسم و جا داره در مورد چیزی که در موردش نوشتم بیشتر بخونم اما فکر میکنم در مورد این موضوع در آینده بیشتر بنویسم.

هوش مصنوعیWaluigi effectاثر والویجیپزشکیسرطان ریه
پزشک، فعال در حوزه ی هوش مصنوعی، علاقه مند به تاثیرات علوم دیجیتال و اطلاعات در علوم پزشکی
شاید از این پست‌ها خوشتان بیاید