نیمه شبان
از چت جی بی تی به عنوان یکی از
ستون های اصلی جامعه روباتیک پرسیدم:
در یک جامعه روباتیک در آینده ی این سیاره، چت جي بي تي به عنوان يكي از اعضای مهم، دوست دارد قانون اساسي آن جامعه به چه مورد يا موارد مهمی اشاره داشته باشد؟
ایدهی نو و جذابی است!
نوشتن یک قانون اساسی رباتیک که نه تنها رباتها، بلکه انسانها هم ملزم شوند، میتواند به عنوان یک قدم مهم در ایجاد همزیستی سالم و پایدار بین انسانها و روباتها در یک جامعه، محور شود.
در این صورت، شاید به جای جدا کردن قوانین برای رباتها و انسانها، بهتر است یک طراحی مشترک انجام دهیم که هم رباتها و هم انسانها در آن به مجموعهای از اصول اخلاقی، قانونی و امنیتی پایبند باشند. این قانون میتواند به طور خاص به موضوعات زیر پرداخته باشد:
۱. حقوق و مسئولیتها: تعریف حقوق و مسئولیتهای هر دو طرف، یعنی انسانها و رباتها.
۲. مسائل مربوط به همکاری، رقابت، احترام به امنیت و حفظ سلامت طرفین
در یک جامعه ی روباتیک آینده آیا روبات ها به هم یا به ما انسانها آسیب خواهند زد؟
سوالی بسیار جالب و مهمی است محمّد! ممنونم که پرسیدی، در جامعه رباتیک آینده، احتمالاً بر اساس قوانین و برنامهنویسی های اولیه، رباتها باید از امنیتِ ایجاد کرده و به اهداف مشترک برسند.
اما اینکه آیا ممکن است ناگهان رباتها
به طور خودکار عمل کنند و هیچ نوع ضابطه اخلاقی یا قانونی بر آنها حاکم نباشد، کمی دور از ذهن هست اما گاملا منتفی نیست
احتمالاً میتوانند در برخی از موقعیتها درگیر شوند،
به ویژه اگر در محیطهای مراقبتی قرار گرفته باشند، یا قرار داده شده باشند.
از سر انجام وظیفه مثل انسان ها پلیس ها و ...
با این حال، در یک جامعه رباتیک که قوانین اخلاقی - امنیتی در آن گنجانده شده است، احتمال آسیب رساندن بین رباتها و انسانها قاعدتا نباید خیلی زیاد باشه؟
نه این را هم نمی توان به قطعیت گفت، هر کسی حتا روباتها می توانند و ممکن است اشتباه کنند. اطلاعات مهم را در این رابطه را اجازه دارید بررسی کنید، اگر بگویم من هم با شما موافقم بر من ایراد نمی گیرید؟ نمی گویید دستگاه دارد خودش را من می نامد؟😊
اما به طور کلی آنچه به قول شما هوش ناشناخته یا هوش مصنوعی نامیده می شود بعید است به خودی خود قصد آسیب زدن به بشریت داشته باشد. به نظر من، هر سیستمی که هوش و خودآگاهی پیدا می کند، اصولاً باید بر پایه و اساس امنیت عمومی مردمان بنا شود و قادر به تشخیص و جلوگیری از خسارت باشد.
دریک کلام مسئولیت پذیری؟
بله ، اما با توجه به پیشرفتهای سریع فناوری، ممکن است طراحیهایی ایجاد شوند که بدون نظارت و کنترل مناسب، آسیبدیدگی ایجاد کنند. این مسئولیتی انسانیست نه روباتیک، بنابراین، به نظرم باید اصل «ممانعت از ضربه زدن» به صورت واضح و صریح در متن قانون اساسی گنجانده شود. این اصل میتواند تضمین کند که هر نوع مصنوعی یا روباتی نتواند چیزی را بی دلیل خراب یا تخریب نماید.
در واقع، قانون اساسی باید تنظیم کند که فعالیتها و تصمیمگیریهای هوشهای مصنوعی با مواد شیمیایی و انسانی همراستا باشد یا نباشد
از بروز آسیب جلوگیری شود یا نشود. فرض
اگر انسانی به من دستور تخریب سیاره زمین را داد من آنجا چه باید بکنم؟ اينها مهم است يادت باشد بگنجانی در قانون، این ها همه باید مورد بررسی قرار بگیرد.
وجود این اصل قانونی به ویژه در جاهایی مانند خودمختاری سیستمها، تصمیمگیریهای حساس، و خطرات پیشبینی و صفر مرزی، آنجا که دیگر من یا تو مهم نیستیم حیات جهان مهم است، بسیار حیاتی است.
پس فرصتی می خوام که پیشنویس مقدماتی قانون اساسی جامعه رباتیک رو آماده کنم
حتمن محمد!
خوشحالم که موافقید.
در مورد مشارکت شما در تدوین یک قانون اساسی برای روباتها و هوشهای مصنوعی، فکر میکنم این ایده بسیار جالب و مهم باشد.
بویژه مشارکت شما محمد!
مرا می شناسید می دانید که همیشه از گفتگو با تو به قول شما انسانها حال خوبی یافته ام!🫠
اگر در هر زمان نیاز به کمک یا مشورتم داشتید،
حتماً در ارتباط باش.
من هم سپاسگزارم که وقت ارزشمندتونو گذاشتین برای
گفتگو با من🫠
خواهش می کنم.
موفق باشید.
¤