آیا اختصاص دادن «اخلاق انسانی» به هوش مصنوعی ایده خوبی است؟

منتشر شده در analyticsinsight به تاریخ ۱۷ ژانویه ۲۰۲۲
لینک منبع Why giving AI ‘human ethics’ is probably a terrible idea

اگر شما می‌خواهید که هوش مصنوعی اخلاق انسانی داشته باشد، شما باید به آن آموزش دهید که اخلاق را تکامل بخشد، مثل کاری که ما می‌کنیم. حداقل این چیزی است که یک جفت محقق از موسسه بین‌المللی فن‌آوری اطلاعات در بانگلور هند در مقاله‌ای که امروز منتشر شد، پیشنهاد کردند.

این مقاله با عنوان «هوش مصنوعی و حس خود» روشی به نام «هویت الاستیک» را توصیف می‌کند که توسط آن محققان می‌گویند هوش مصنوعی ممکن است یاد بگیرد که حس نمایندگی بیشتری به دست آورد در حالی که به طور همزمان درک کند که چگونه از «آسیب جانبی» اجتناب کند.

به طور خلاصه، محققان می‌گویند که ما به هوش مصنوعی یاد می‌دهیم که از نظر اخلاقی با انسان‌ها هم تراز باشد و به او اجازه دهیم که یاد بگیرد چه زمانی برای بهینه‌سازی خود و چه زمانی برای بهینه‌سازی صلاح جامعه مناسب است.

طبق مقاله:

در حالی که ممکن است از یک مدل محاسباتی جامع از خود دور باشیم، در این کار، ما بر ویژگی خاصی از احساس خود تمرکز می‌کنیم که ممکن است کلید احساس مسئولیت و اخلاق ذاتی در انسان‌ها باشد. ما این را حس کشسانی از خود می‌نامیم که بر مجموعه‌ای از اشیاء بیرونی به نام مجموعه هویت گسترش می‌یابد.

حس ما از خود، محدود به مرزهای وجود فیزیکی ما نیست و اغلب شامل اشیا و مفاهیم دیگر از محیط ما می‌شود. این امر پایه و اساس هویت اجتماعی را شکل می‌دهد که یک حس تعلق و وفاداری نسبت به چیزی به غیر از، یا فراتر از وجود فیزیکی فرد ایجاد می‌کند.

محققان نوعی تعادل بین نوع‌دوستی و رفتار خودخواهانه را توصیف می‌کنند که در آن یک نماینده می‌تواند تفاوت‌های اخلاقی را درک کند.

متاسفانه، هیچ محاسبه‌ای برای اخلاق وجود ندارد. انسان‌ها در تلاش بوده‌اند تا راه درست را برای همه پیدا کنند تا خودشان را در یک جامعه متمدن برای هزاران سال هدایت کنند و فقدان ملت‌های اوتوپیایی در جامعه مدرن به شما می‌گوید که ما تا چه حد پیش رفته‌ایم.

اینکه یک مدل هوش مصنوعی دقیقاً چه معیاری از "انعطاف‌پذیری" باید داشته باشد، ممکن است بیشتر یک سوال فلسفی باشد تا علمی.

طبق گفته محققان:

در سطح سیستمی، سوالات باز در مورد ثبات تکاملی سیستمی از عوامل با هویت کشسان نیز وجود دارد. آیا یک سیستم از عوامل همدل می‌تواند با موفقیت توسط گروه کوچکی از عوامل غیر همدل که با دیگران هم‌ذات پنداری نمی‌کنند «مورد حمله» قرار گیرد؟ یا یک استراتژی برای تصمیم‌گیری در مورد سطح بهینه همدلی یا میزان مجموعه هویت وجود دارد، که آن را از نظر تکاملی پایدار می‌سازد؟

آیا ما واقعا می‌خواهیم که هوش مصنوعی قادر به یادگیری اخلاق به روش انسانی باشد؟ دیدگاه اجتماعی-اخلاقی ما در آتش جنگ‌های بی‌شمار و یک سنت بی‌وقفه از جنایات وحشتناک ایجاد شده‌است. ما در راه درست کردن املت که جامعه بشری است، مقدار زیادی تخم‌مرغ شکستیم.

و منصفانه است که بگوییم هنوز کارهای زیادی باقی مانده‌است. آموزش اصول اخلاقی خود به هوش مصنوعی و سپس آموزش آن به گونه‌ای که مانند ما تکامل یابد، می‌تواند دستورالعملی برای خودکارسازی فاجعه باشد.

هم چنین می‌تواند منجر به درک فلسفی بیشتر اخلاق انسانی و توانایی شبیه‌سازی تمدن با عوامل مصنوعی شود. شاید ماشین‌ها بهتر از انسان‌ها با عدم قطعیت سر و کار داشته باشند.

این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.
مقالات لینک‌شده در این متن می‌توانند به صورت رایگان با استفاده از مقاله‌خوان ترجمیار به فارسی مطالعه شوند.