من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
آیا اختصاص دادن «اخلاق انسانی» به هوش مصنوعی ایده خوبی است؟
منتشر شده در analyticsinsight به تاریخ ۱۷ ژانویه ۲۰۲۲
لینک منبع Why giving AI ‘human ethics’ is probably a terrible idea
اگر شما میخواهید که هوش مصنوعی اخلاق انسانی داشته باشد، شما باید به آن آموزش دهید که اخلاق را تکامل بخشد، مثل کاری که ما میکنیم. حداقل این چیزی است که یک جفت محقق از موسسه بینالمللی فنآوری اطلاعات در بانگلور هند در مقالهای که امروز منتشر شد، پیشنهاد کردند.
این مقاله با عنوان «هوش مصنوعی و حس خود» روشی به نام «هویت الاستیک» را توصیف میکند که توسط آن محققان میگویند هوش مصنوعی ممکن است یاد بگیرد که حس نمایندگی بیشتری به دست آورد در حالی که به طور همزمان درک کند که چگونه از «آسیب جانبی» اجتناب کند.
به طور خلاصه، محققان میگویند که ما به هوش مصنوعی یاد میدهیم که از نظر اخلاقی با انسانها هم تراز باشد و به او اجازه دهیم که یاد بگیرد چه زمانی برای بهینهسازی خود و چه زمانی برای بهینهسازی صلاح جامعه مناسب است.
طبق مقاله:
در حالی که ممکن است از یک مدل محاسباتی جامع از خود دور باشیم، در این کار، ما بر ویژگی خاصی از احساس خود تمرکز میکنیم که ممکن است کلید احساس مسئولیت و اخلاق ذاتی در انسانها باشد. ما این را حس کشسانی از خود مینامیم که بر مجموعهای از اشیاء بیرونی به نام مجموعه هویت گسترش مییابد.
حس ما از خود، محدود به مرزهای وجود فیزیکی ما نیست و اغلب شامل اشیا و مفاهیم دیگر از محیط ما میشود. این امر پایه و اساس هویت اجتماعی را شکل میدهد که یک حس تعلق و وفاداری نسبت به چیزی به غیر از، یا فراتر از وجود فیزیکی فرد ایجاد میکند.
محققان نوعی تعادل بین نوعدوستی و رفتار خودخواهانه را توصیف میکنند که در آن یک نماینده میتواند تفاوتهای اخلاقی را درک کند.
متاسفانه، هیچ محاسبهای برای اخلاق وجود ندارد. انسانها در تلاش بودهاند تا راه درست را برای همه پیدا کنند تا خودشان را در یک جامعه متمدن برای هزاران سال هدایت کنند و فقدان ملتهای اوتوپیایی در جامعه مدرن به شما میگوید که ما تا چه حد پیش رفتهایم.
اینکه یک مدل هوش مصنوعی دقیقاً چه معیاری از "انعطافپذیری" باید داشته باشد، ممکن است بیشتر یک سوال فلسفی باشد تا علمی.
طبق گفته محققان:
در سطح سیستمی، سوالات باز در مورد ثبات تکاملی سیستمی از عوامل با هویت کشسان نیز وجود دارد. آیا یک سیستم از عوامل همدل میتواند با موفقیت توسط گروه کوچکی از عوامل غیر همدل که با دیگران همذات پنداری نمیکنند «مورد حمله» قرار گیرد؟ یا یک استراتژی برای تصمیمگیری در مورد سطح بهینه همدلی یا میزان مجموعه هویت وجود دارد، که آن را از نظر تکاملی پایدار میسازد؟
آیا ما واقعا میخواهیم که هوش مصنوعی قادر به یادگیری اخلاق به روش انسانی باشد؟ دیدگاه اجتماعی-اخلاقی ما در آتش جنگهای بیشمار و یک سنت بیوقفه از جنایات وحشتناک ایجاد شدهاست. ما در راه درست کردن املت که جامعه بشری است، مقدار زیادی تخممرغ شکستیم.
و منصفانه است که بگوییم هنوز کارهای زیادی باقی ماندهاست. آموزش اصول اخلاقی خود به هوش مصنوعی و سپس آموزش آن به گونهای که مانند ما تکامل یابد، میتواند دستورالعملی برای خودکارسازی فاجعه باشد.
هم چنین میتواند منجر به درک فلسفی بیشتر اخلاق انسانی و توانایی شبیهسازی تمدن با عوامل مصنوعی شود. شاید ماشینها بهتر از انسانها با عدم قطعیت سر و کار داشته باشند.
این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه میتواند دارای برخی اشکالات ترجمه باشد.
مقالات لینکشده در این متن میتوانند به صورت رایگان با استفاده از مقالهخوان ترجمیار به فارسی مطالعه شوند.
مطلبی دیگر از این انتشارات
ساخت سریع برنامههای کاربردی وب ML با Streamlit
مطلبی دیگر از این انتشارات
روشی برای شناسایی ابتلا به ویروس کرونا در منزل و آزمایشگاه
مطلبی دیگر از این انتشارات
محاسبات کوانتومی چیست؟