ویرگول
ورودثبت نام
Javad Amirian
Javad Amirian
خواندن ۷ دقیقه·۴ سال پیش

ربات‌های قاتل

۱. ربات‌هایی که برای کشتار آزاد می‌شوند!

ویدیوی زیر را احتمالا قبلا دیدید: یک فیلم تخیلی کوتاه، اما فوق‌العاده ترسناک. راجع به اینکه ربات‌ها چگونه میتوانند به سلاح‌های بی‌رحمی تبدیل شوند تا جان آدم‌ها را بصورت "هوشمند" هدف قرار دهند.

https://www.youtube.com/watch?v=9CO6M2HsoIA&vl=en


قسمت آخر ویدیو هم سخنان استوارت راسل است، استاد سرشناس هوش مصنوعی دانشگاه برکلی که کتابش در بسیاری از دانشگاه‌های ایران هم تدریس میشود. راسل راجع به توسعه‌ی «ماشین‌های قاتل» هشدار میدهد:

"آنها میتوانند امنیت و آزادی ما را هدف قرار دهند."


احتمالا شما هم شنیده‌اید که این فناوری‌ها (ربات‌های قاتل/ سلاح‌های هوشمند) به این فیلم تخیلی محدود نمی‌شوند. در واقع تحقیقات زیادی در زمینه ربات‌های نظامی‌ در حال انجام است و بعضا به مرحله‌ی محصول هم رسیده‌اند. مثلا نیروی هوایی آمریکا پیش‌بینی کرده، که تیم‌های ضربت، در عملیات‌های گروگان‌گیری، در آینده از ربات‌های بسیار کوچکی (در ابعاد یک حشره) که به دوربین مجهزند استفاده خواهند کرد.

یا مثلا «واحد تحقیقات پیشرفته وزارت دفاع» آمریکا یا همان DARPA از پروژه‌ای به نام OFFSET نام می‌برد که در آن دسته‌هایی از 250 ربات پرنده در پروژه‌های پیچیده نظامی شرکت خواهند کرد؛ و برای همین در حال تحقیق روی رفتارهای گروهی پرنده‌ها، ماهی‌ها، حشره‌ها و انسان‌ها هستند.

در لینک زیر تعدادی از پروژه‌های رباتیک در حوزه‌ی نظامی را میتوانید ببینید:

https://eandt.theiet.org/content/articles/2018/11/military-by-nature-biomimetic-inspiration-for-future-armies/


یک اتفاق جالب دیگر، رمانی به نام Ghost Fleet (ناوگان اشباح) است که در سال 2015 چاپ شده. این کتاب، جنگ آمریکا با چین و روسیه را در آینده‌ای نزدیک به تصویر می‌کشد. با توصیفاتی از ربات‌های پرنده، سلاح‌های لیزری و غیره. جالب اینجاست که این کتاب بهیچ وجه یک رمان فانتزی معمولی نیست. نویسنده(ها) در نقطه به نقطه‌ی کتاب، پانویس‌هایی قرار داده‌ و به مقاله‌ها و مستنداتی واقعی اشاره می‌کنند که این سخت‌افزارها و نرم‌افزارهای جنگی هوشمند، واقعا در حال توسعه هستند!

۲. ربات‌های قاتل کدامند؟

اولا خوب است اشاره کنیم هوشمندی در حوزه ادوات نظامی، چیز خیلی جدیدی نیست. مثلا برخی تانک‌های نظامی مثل مرکاوا (اسراییل) و ابرامز (امریکا)، یک سیستم دفاعی (بنام تروفی Trophy) وجود دارد که خمپاره‌ / آرپی‌جی یا تهدیداتی که به سمت آن می‌آیند را شناسایی، ردیابی و منهدم می‌کند. تمام این مراحل بدون دخالت انسان و حتی قبل از اینکه سرنشین از وجود تهدید باخبر شود، انجام شده است. سیستم‌های مشابهی در ناوهای جنگی هم وجود دارد و دهه‌هاست که استفاده می‌شود.

اما میتوان این گونه سیستم‌های دفاعی را با ترمز خودکار یک اتومبیل پیشرفته مقایسه کرد که عملکردی کم و بیش دفاعی و واکنشی دارند.

منظور از ربات‌های قاتل، سلاح‌هایی است که بطور هوشمند عمل ‌می‌کنند: چیزی که با نام Lethal Autonomous Weapons Systems یا به اختصار LAWs (ترجمه: سامانه‌ی سلاح مرگبار خودکار) می‌شناسیم. چنین ربات یا سامانه‌ای می‌تواند زمینی/هوایی/دریایی یا ... باشد.

ربات پرنده‌ی مرگبار (از فیلم ربات‌های قاتل)
ربات پرنده‌ی مرگبار (از فیلم ربات‌های قاتل)



خودکار یا تمام-خودکار؟

این یک سوال بسیار مهم است. اگر چه تعریف LAWs شامل تمام سلاح‌هایی می‌شود که از دخالت انسان در آن خبری نیست تا سلاح‌هایی که تایید حمله یا شلیک نهایی با انسان است. اما آن چه جامعه‌ی جهانی از آن وحشت دارد بیشتر دسته‌ی اول است.

اما بیایید ببینیم منظور از هوشمندی در کدام بخش از اجزای این سیستم است:
در واقع قابلیت «هدایت و حرکت» اتوماتیک که بخش مهمی از هوشمندی ربات‌ها را تشکیل می‌دهد دهه‌هاست که در هواپیماها تحت عنوان اتوپایلوت در حال استفاده است. و یا در خودروهای بدون راننده نیز در حال توسعه است. اما شاید دو فرایند «شناسایی هدف» و «شلیک» بیشتر بحث‌برانگیز باشند.

راجع به «شناسایی یا تشخیص» هم فناوری‌های زیادی وجود دارد. مثل تشخیص هواپیمای نظامی/تانک/موشک از روی سیگنال‌های رادیویی، رادار، دوربین و ...

اما تشخیص اهداف پیچیده‌تر قابل بحث است. مثل تشخیص انسان یا از آن پیچیده‌تر تشخیص یک رزمنده (در حال جنگ) از سربازی کسی که زخمی شده (و بطور اخلاقی و قانونی نباید هدف قرار گیرد). با وجود تمام پیشرفت‌های هوش مصنوعی، هنوز این سیستم ها مشکلات زیادی در مواجهه با شرایط جدید و پیش بینی نشده دارند. نمونه‌های این باگ‌ها و مشکلات در خودروهای بدون راننده فراوان است.

و در نهایت موضوع «شلیک» و تصمیم‌گیری نهایی برای «اقدام» بحث‌برانگیزترین بخش ماجراست. با فرض اینکه انتخاب و شناسایی هدف به درستی انجام شده باشد، آیا یک ماشین اجازه‌ی این را دارد تا به انتخاب خودش ماشه را علیه یک انسان بکِشد؟

https://news.cnrs.fr/opinions/a-guide-to-lethal-autonomous-weapons-systems


۳. موافقین و مخالفین چه می‌گویند؟

* بعضی از طرفداران این تکنولوژی مثل دکتر Ronald Arkin، استاد جورجیاتک، معتقدند ربات‌ها مانند انسان احساس ندارند و در نتیجه فاقد صفاتی مثل خشم، سادیسم و بی‌رحمی اند. بدین ترتیب آنها می‌توانند رفتارهای منطقی‌تری انجام دهند و حتی می‌توان آنها را برنامه ریزی کرد تا از کدهای اخلاقی پیروی کنند (مثلا یک کودک را هدف قرار ندهند) و با این کار انسان‌ها را از چرخه‌ی تصمیم گیری (برای شلیک) حذف کرد.

* در سمت دیگر مخالفان این سلاح‌ها معتقدند این فناوری مخالف با «اصول انسانیت» و «وجدان عمومی» است.

* برخی از طرفداران در ایالات متحده، با این توضیح که سلاح‌های هوشمند، باعث افزایش دقت و بازدهی در عملیات‌های نظامی می‌شود، طرفدار توسعه و استفاده‌ی آنها هستند.

* جودی ویلیامز، که «کمپین توقف ربات‌های قاتل» را راه انداخته، معتقد است وقتی شما به یک نفر حمله می‌کنید، آن طرف باید امکان واکنش و تقابل را داشته باشد. در حالی که ربات‌های قاتل یک جنگ نابرابر را ایجاد می‌کند.

* کریستین فیر، استاد دانشگاه جورج‌تاون آمریکا، که حوزه‌ی کاریش مقابله با تروریسم است، از ربات‌های پرنده‌ی نظامی و تجربه‌ی استفاده از آنها در پاکستان دفاع می‌کند و می‌گوید "این تکنولوژی (هواپیماهای جنگی بدون سرنشین) حتی مورد استقبال مردم پاکستان قرار گرفته در حدی که برخی از آنها این ربات‌ها را «ابابیل» می‌نامند." و سپس به سوره‌ی فیل در قرآن اشاره می‌کند، و داستان حمله‌ی پرنده‌ها به فیل‌هایی را که قصد حرکت به سمت کعبه را داشتند!

اگر به این بحث علاقمندید، این مستند (سی دقیقه‌ای) را از دست ندهید:

youtu.be/0M4JMhXNNOg


۴. آیا قوانین میتوانند به داد دنیا برسند؟

در چند سال اخیر، تلاش‌های زیادی انجام شده تا برای نجات دنیا از "سلاح‌های هوشمند" راهکارهای حقوقی اندیشیده شود. مثلا تعدادی ان‌جی‌او دست به کار شده‌اند از جمله "کمپین مبارزه با ربات‌های قاتل" که از سال 2013 شکل گرفته و تا کنون توانسته‌اند سازمان ملل را متقاعد کنند که برای این مساله نشست‌هایی تشکیل دهد.
شاید بتوان گفت اهمیت این مساله کمتر از گرمایش زمین یا حتی سلاحهای میکروبی نیست، از آنجا که تهدیدی پیچیده و غیر قابل پیش بینی علیه بشریت ایجاد می‌کنند.

در گذشته، بارها اتفاق افتاده که کشورها دور هم جمع ‌شوند و توافقنامه‌های برای ممنوعیت سلاح‌هایی خاص امضا کنند. مثلا «کنوانسیون سلاح‌های متعارف مشخص» یا CWC، ممنوعیت‌هایی برای دسته‌های خاصی از سلاح‌ها در نظر گرفته شده: سلاح‌های شیمیایی، اتمی و یا بیولوژیک. برخی‌ سلاح‌ها هم کنوانسیون‌های بین‌المللی علیه شکنجه را نقض می‌کنند مثل «سلاح‌های لیزری کور کننده» یا سلاح‌هایی که دشمن را می‌تواند زنده زنده بسوزاند و کشورهایی که از آنها استفاده می‌کنند باید از جامعه‌ی بین‌الملل طرد شوند.

متاسفانه راجع به سلاحهای هوشمند تا کنون هیچ توافق جامعی بدست نیامده، اگرچه بحث‌های زیادی شکل گرفته. از جمله، "جنبش غیرمتعهدها" یا NAM که متشکل از 120 کشور (غالبا در حال توسعه) است، خواستار ایجاد قوانینی و ممنوعیت‌هایی در این زمینه شده.

در جایی دیگر هم تنها 30 کشور خواستار ممنوعیت کامل این سلاح‌ها شده‌اند، که هیچ کدام از آنها از قدرت‌های نظامی دنیا و یا از کشورهای پیشرو در رباتیک نبودند.‌ آمریکا، چین و روسیه، هر سه مخالف چنین توافقی هستند. چین قانونی پیشنهاد داده که فقط استفاده (و نه توسعه و تولید) این سلاح‌ها را منع می‌کند. این در حالیست که خود چین یکی از پرچم‌داران توسعه‌ی این سلاح‌هاست!

- [گزارش دیدبان حقوق بشر]

آمریکا، چین، اسرائیل، کره جنوبی، روسیه و انگلستان از توسعه دهندگان اصلی سلاح‌های هوشمند هستند. این کشورها غالبا استدلال می‌کنند که هدفشان از این کار «بازدارندگی» است. و نمیخواهند از رقیبان خود عقب بمانند. این فناوری همچنین در بیش از سی کشور دنیا استفاده می‌شود، از جمله برخی کشورهای خاورمیانه.

با تمام این اوصاف، بسیار بعید به نظر می‌رسد که قدرت‌های نظامی، در این رقابت تسلیحاتی، کوتاه بیایند و این یعنی آینده‌ی نگران کننده‌ای را در پیش خواهیم داشت، که "رباتهای قاتل" برای دنیا رقم خواهند زد.

جواد امیریان

رباتهای قاتلهوش مصنوعیفناوری نظامیسلاحهای خودکاررقابت تسلیحاتی
دکترای کامپیوتر - پدر رباتها :)
شاید از این پست‌ها خوشتان بیاید