هوش مصنوعی و خطرات حقیقی آن

یکی از جدیدترین اخبار مربوط به هوش مصنوعی و فناوری، اختصاص یک میلیارد دلاری دانشگاه MIT به موضوع اخلاق و فلسفه‌ی هوش مصنوعی بود. این امر نشان می‌دهد که تا چه اندازه نگرانی درباره‌ی توسعه‌ی هوش مصنوعی وجود دارد. اما احتمالا، نگرانی متخصصان و افرادی که با هوش مصنوعی سر و کار دارند زمین تا آسمان با مردم عادی و کسانی که دانشی در این حوزه ندارند متفاوت خواهد بود. اگر نگران هستید که ممکن است روزی ربات‌ها کنترل زمین را به دست بگیرند یا سعی در کشتار دسته جمعی انسان‌ها داشته باشند، باید گفت که سخت در اشتباهید! دلیل این که این پدیده رخ نخواهد این نیست که هنوز هوش مصنوعی به اندازه‌ی کافی پیشرفت نکرده است بلکه به این خاطر است که اساسا، هوش مصنوعی امکان تبدیل به موجوداتی تا این اندازه خودسر را نخواهد داشت.

در داده کاوی الگوریتم های هوش مصنوعی، قادر هستند تا ارتباطات پیچیده و غیرخطی بین پدیده ها را مشخص کنند. شبکه های عصبی برازش تابع مناسبی را برای داده ها‌ی چند بعدی به دست آورند و یا روش های پردازش زبان های طبیعی کارهای روزمره‌ی شما را با استفاده از دستیار صوتی گوشیتان انجام دهند. اما هیچ کدام از الگوریتم ها قادر نیست تا مثل شما به چند موضوع کاملا مستقل از هم بپردازد، اعمال فیزیکی را کنترل کند و از بسیاری از داده های ورودی، به طور هوشمندانه‌ای صرف نظر کند. دلیل این امر ساختار این الگوریتم هاست که هدف گراست به عبارتی تمامی این الگوریتم ها از داده‌ها و یا ممکن است از دانشی پیشین استفاده کنند تا یک هدف خاص مانند رنگ کردن بدنه‌ی یک خودرو و یا محاسبه مقدار بهینه را انجام دهد اما هوش مصنوعی بدون هدف فعلا معنایی ندارد. هوش انسانی الزاما به دنبال هدف خاصی نیست و متناسب با شرایط تصمیماتی می‌گیرد اما الگوریتم های هوش مصنوعی این چنین نیستند و یک تابع هدف دارند. بعید نیست که در سال های آینده ربات جراح، وکیل، پزشک و حسابدار داشته باشیم، اما آن چه که مطمئنیم، این است که هیچ گاه ربات یا نرم‌افزار ریاضی ‌دان، فیزیک ‌دان نظری، زیست شناس و یا فیلسوف نخواهیم داشت چرا که در این رشته ها، تابع هدف دقیقی مشخص نیست. رویه های فعلی نیز این موضوع را تصدیق می‌کنند. موضوع دیگر این است که تجربه‌ی حسی برای یک ماشین عملا و نظرا ممکن نیست، این نگاه بر پایه دوگانه انگاری کانتی استوار است، بدین معنا که بسیاری از پدیده‌ها علاوه بر ظاهر خود شامل یک تجربه‌ی حسی نیز هستند. برای مثال شما می‌توانید درد را به عنوان یک پیغام الکتریکی در نظر بگیرید اما این همه‌ی درد نیست و درد یک کیفیتی دارد که فقط شما آن را حس می‌کنید، هیچ ایده و یا روشی حداقل تا الان برای ایجاد تجربه‌ی حسی برای ماشین مطرح نشده است. اما اگر این خطرات وجود ندارند دقیقا نگران چه چیزی هستیم؟

مسئولیت. راننده‌ای را در نظر بگیرید که به دلیل سهل انگاری، در تصادف، یک فرد را کشته است یا خلبان یا اپراتور جنگنده‌ای که به اشتباه، یک مدرسه را هدف قرار داده است، یا یک قاضی که به اشتباه، یک شخص را محکوم کرده است. در تمام این حالت ها مسئولیت اشتباه و خطا بر عهده‌ی شخص خاطی است. اما اگر یک شبکه‌ی عصبی چندلایه با یک نفر در خیابان تصادف کند مسئولیت با چه کسی است و یا اگر غیر نظامیان را مورد هدف موشک قرار دهد، چه کسی باید محاکمه شود. مشخص است که نمی‌توان مسئولیت این اشتباهات را بر گردن ایجاد کننده‌ی مفهوم شبکه‌ی عصبی انداخت احتمالا خواهید گفت که مسئولیت بر عهده‌ی برنامه نویس آن خودرو یا جنگنده است، اما اگر آن برنامه نویس، هر کس دیگری نیز بود، با داده های موجود، همین برنامه را قرار بود بنویسد و او نگفته بود که هوش مصنوعی، باید آن اشتباه را انجام دهد. بنابراین به نظر می رسد که مقصر، خود سامانه‌ی هوشمند است اما مفهوم محاکمه‌ برای یک برنامه‌ی کامپیوتری دقیقا چیست و عدالت چگونه باید اجرا شود. بنابراین آن چنان که مشاهده می‌کنید بحث مسئولیت، مهمترین موضوعی است که باید به آن پرداخته شود. پیشرفت الگوریتم های هوش مصنوعی و به ویژه یادگیری ماشینی اتفاق می افتد و در حال اتفاق افتادن نیز هست. پس باید در ساختار بندی اخلاقی این پدیده کوشید.

آسیموف در کتاب های بنیاد خود سه قانون را برای هوش مصنوعی و ربات های هوشمند تعریف کرده است و به نظر او اگر ربات ها و سامانه‌های هوشمند از این قوانین پیروی کنند، مشکلی پیش نخواهد آمد این قوانین عبارتند از :

  • ربات حق ندارد به انسان آسیب برساند و یا کاری انجام دهد که انجام این کار موجب آسیب دیدن یک انسان شود.
  • ربات باید تمام دستوراتی که انسان به آن می‌دهد را انجام دهد مگر این که آن دستور موجب نقض قانون اول شود.
  • یک ربات باید از خود حفاظت کند اما تا زمانی که این حفاظت سبب نقض قوانین اول و دوم نشود.

حال فرض کنید رباتی تصمیم بگیرد تا کسی را از بین ببرد قانون اول این اجازه را به او نخواهد داد، همچنین اگر یک انسان به ربات، دستور قتل انسان دیگری را بدهد ربات این کار را مبنی بر قانون دوم انجام نخواهد داد و قانون سوم این را می‌گوید که ربات نمی‌تواند به دلیل حفاظت از خود کسی را آزار دهد و یا از دستور سرپیچی کند. این قوانین در نوع خود و به ویژه زمان تدوین یعنی سال ۱۹۴۲ بسیار جالب هستند. اما همین نگاه فرا واقعی به پدیده‌ی هوش مصنوعی را نشان می‌دهد. شما فرض کنید که در یک بانک یک الگوریتم هوش مصنوعی، باید مشخص کند که به چه کسی وام داده شود و به چه کسی داده نشود. تصمیم بنابر سابقه‌ی متقاضی گرفته خواهد شد. حال اگر این نرم افزار اشتباه کند ممکن است میلیون ها دلار به اشتباه از منابع به هدر برود و همانطور که گفته شد، نمی‌توان مسئولیت را برای آن متصور شد از طرفی این برنامه هیچ یک از قوانین آسیموف را نقض نکرده است.

بنابراین می‌توان گفت که

تنها خطر هوش مصنوعی، موضوع تعیین مسئولیت است.



در صورتی که نظری مغایر با عرایض بنده داشتید حتما آن را در بخش نظرات با من در میان بگذارید.