۱. رباتهایی که برای کشتار آزاد میشوند!
ویدیوی زیر را احتمالا قبلا دیدید: یک فیلم تخیلی کوتاه، اما فوقالعاده ترسناک. راجع به اینکه رباتها چگونه میتوانند به سلاحهای بیرحمی تبدیل شوند تا جان آدمها را بصورت "هوشمند" هدف قرار دهند.
قسمت آخر ویدیو هم سخنان استوارت راسل است، استاد سرشناس هوش مصنوعی دانشگاه برکلی که کتابش در بسیاری از دانشگاههای ایران هم تدریس میشود. راسل راجع به توسعهی «ماشینهای قاتل» هشدار میدهد:
"آنها میتوانند امنیت و آزادی ما را هدف قرار دهند."
احتمالا شما هم شنیدهاید که این فناوریها (رباتهای قاتل/ سلاحهای هوشمند) به این فیلم تخیلی محدود نمیشوند. در واقع تحقیقات زیادی در زمینه رباتهای نظامی در حال انجام است و بعضا به مرحلهی محصول هم رسیدهاند. مثلا نیروی هوایی آمریکا پیشبینی کرده، که تیمهای ضربت، در عملیاتهای گروگانگیری، در آینده از رباتهای بسیار کوچکی (در ابعاد یک حشره) که به دوربین مجهزند استفاده خواهند کرد.
یا مثلا «واحد تحقیقات پیشرفته وزارت دفاع» آمریکا یا همان DARPA از پروژهای به نام OFFSET نام میبرد که در آن دستههایی از 250 ربات پرنده در پروژههای پیچیده نظامی شرکت خواهند کرد؛ و برای همین در حال تحقیق روی رفتارهای گروهی پرندهها، ماهیها، حشرهها و انسانها هستند.
در لینک زیر تعدادی از پروژههای رباتیک در حوزهی نظامی را میتوانید ببینید:
یک اتفاق جالب دیگر، رمانی به نام Ghost Fleet (ناوگان اشباح) است که در سال 2015 چاپ شده. این کتاب، جنگ آمریکا با چین و روسیه را در آیندهای نزدیک به تصویر میکشد. با توصیفاتی از رباتهای پرنده، سلاحهای لیزری و غیره. جالب اینجاست که این کتاب بهیچ وجه یک رمان فانتزی معمولی نیست. نویسنده(ها) در نقطه به نقطهی کتاب، پانویسهایی قرار داده و به مقالهها و مستنداتی واقعی اشاره میکنند که این سختافزارها و نرمافزارهای جنگی هوشمند، واقعا در حال توسعه هستند!
۲. رباتهای قاتل کدامند؟
اولا خوب است اشاره کنیم هوشمندی در حوزه ادوات نظامی، چیز خیلی جدیدی نیست. مثلا برخی تانکهای نظامی مثل مرکاوا (اسراییل) و ابرامز (امریکا)، یک سیستم دفاعی (بنام تروفی Trophy) وجود دارد که خمپاره / آرپیجی یا تهدیداتی که به سمت آن میآیند را شناسایی، ردیابی و منهدم میکند. تمام این مراحل بدون دخالت انسان و حتی قبل از اینکه سرنشین از وجود تهدید باخبر شود، انجام شده است. سیستمهای مشابهی در ناوهای جنگی هم وجود دارد و دهههاست که استفاده میشود.
اما میتوان این گونه سیستمهای دفاعی را با ترمز خودکار یک اتومبیل پیشرفته مقایسه کرد که عملکردی کم و بیش دفاعی و واکنشی دارند.
منظور از رباتهای قاتل، سلاحهایی است که بطور هوشمند عمل میکنند: چیزی که با نام Lethal Autonomous Weapons Systems یا به اختصار LAWs (ترجمه: سامانهی سلاح مرگبار خودکار) میشناسیم. چنین ربات یا سامانهای میتواند زمینی/هوایی/دریایی یا ... باشد.
خودکار یا تمام-خودکار؟
این یک سوال بسیار مهم است. اگر چه تعریف LAWs شامل تمام سلاحهایی میشود که از دخالت انسان در آن خبری نیست تا سلاحهایی که تایید حمله یا شلیک نهایی با انسان است. اما آن چه جامعهی جهانی از آن وحشت دارد بیشتر دستهی اول است.
اما بیایید ببینیم منظور از هوشمندی در کدام بخش از اجزای این سیستم است:
در واقع قابلیت «هدایت و حرکت» اتوماتیک که بخش مهمی از هوشمندی رباتها را تشکیل میدهد دهههاست که در هواپیماها تحت عنوان اتوپایلوت در حال استفاده است. و یا در خودروهای بدون راننده نیز در حال توسعه است. اما شاید دو فرایند «شناسایی هدف» و «شلیک» بیشتر بحثبرانگیز باشند.
راجع به «شناسایی یا تشخیص» هم فناوریهای زیادی وجود دارد. مثل تشخیص هواپیمای نظامی/تانک/موشک از روی سیگنالهای رادیویی، رادار، دوربین و ...
اما تشخیص اهداف پیچیدهتر قابل بحث است. مثل تشخیص انسان یا از آن پیچیدهتر تشخیص یک رزمنده (در حال جنگ) از سربازی کسی که زخمی شده (و بطور اخلاقی و قانونی نباید هدف قرار گیرد). با وجود تمام پیشرفتهای هوش مصنوعی، هنوز این سیستم ها مشکلات زیادی در مواجهه با شرایط جدید و پیش بینی نشده دارند. نمونههای این باگها و مشکلات در خودروهای بدون راننده فراوان است.
و در نهایت موضوع «شلیک» و تصمیمگیری نهایی برای «اقدام» بحثبرانگیزترین بخش ماجراست. با فرض اینکه انتخاب و شناسایی هدف به درستی انجام شده باشد، آیا یک ماشین اجازهی این را دارد تا به انتخاب خودش ماشه را علیه یک انسان بکِشد؟
۳. موافقین و مخالفین چه میگویند؟
* بعضی از طرفداران این تکنولوژی مثل دکتر Ronald Arkin، استاد جورجیاتک، معتقدند رباتها مانند انسان احساس ندارند و در نتیجه فاقد صفاتی مثل خشم، سادیسم و بیرحمی اند. بدین ترتیب آنها میتوانند رفتارهای منطقیتری انجام دهند و حتی میتوان آنها را برنامه ریزی کرد تا از کدهای اخلاقی پیروی کنند (مثلا یک کودک را هدف قرار ندهند) و با این کار انسانها را از چرخهی تصمیم گیری (برای شلیک) حذف کرد.
* در سمت دیگر مخالفان این سلاحها معتقدند این فناوری مخالف با «اصول انسانیت» و «وجدان عمومی» است.
* برخی از طرفداران در ایالات متحده، با این توضیح که سلاحهای هوشمند، باعث افزایش دقت و بازدهی در عملیاتهای نظامی میشود، طرفدار توسعه و استفادهی آنها هستند.
* جودی ویلیامز، که «کمپین توقف رباتهای قاتل» را راه انداخته، معتقد است وقتی شما به یک نفر حمله میکنید، آن طرف باید امکان واکنش و تقابل را داشته باشد. در حالی که رباتهای قاتل یک جنگ نابرابر را ایجاد میکند.
* کریستین فیر، استاد دانشگاه جورجتاون آمریکا، که حوزهی کاریش مقابله با تروریسم است، از رباتهای پرندهی نظامی و تجربهی استفاده از آنها در پاکستان دفاع میکند و میگوید "این تکنولوژی (هواپیماهای جنگی بدون سرنشین) حتی مورد استقبال مردم پاکستان قرار گرفته در حدی که برخی از آنها این رباتها را «ابابیل» مینامند." و سپس به سورهی فیل در قرآن اشاره میکند، و داستان حملهی پرندهها به فیلهایی را که قصد حرکت به سمت کعبه را داشتند!
اگر به این بحث علاقمندید، این مستند (سی دقیقهای) را از دست ندهید:
۴. آیا قوانین میتوانند به داد دنیا برسند؟
در چند سال اخیر، تلاشهای زیادی انجام شده تا برای نجات دنیا از "سلاحهای هوشمند" راهکارهای حقوقی اندیشیده شود. مثلا تعدادی انجیاو دست به کار شدهاند از جمله "کمپین مبارزه با رباتهای قاتل" که از سال 2013 شکل گرفته و تا کنون توانستهاند سازمان ملل را متقاعد کنند که برای این مساله نشستهایی تشکیل دهد.
شاید بتوان گفت اهمیت این مساله کمتر از گرمایش زمین یا حتی سلاحهای میکروبی نیست، از آنجا که تهدیدی پیچیده و غیر قابل پیش بینی علیه بشریت ایجاد میکنند.
در گذشته، بارها اتفاق افتاده که کشورها دور هم جمع شوند و توافقنامههای برای ممنوعیت سلاحهایی خاص امضا کنند. مثلا «کنوانسیون سلاحهای متعارف مشخص» یا CWC، ممنوعیتهایی برای دستههای خاصی از سلاحها در نظر گرفته شده: سلاحهای شیمیایی، اتمی و یا بیولوژیک. برخی سلاحها هم کنوانسیونهای بینالمللی علیه شکنجه را نقض میکنند مثل «سلاحهای لیزری کور کننده» یا سلاحهایی که دشمن را میتواند زنده زنده بسوزاند و کشورهایی که از آنها استفاده میکنند باید از جامعهی بینالملل طرد شوند.
متاسفانه راجع به سلاحهای هوشمند تا کنون هیچ توافق جامعی بدست نیامده، اگرچه بحثهای زیادی شکل گرفته. از جمله، "جنبش غیرمتعهدها" یا NAM که متشکل از 120 کشور (غالبا در حال توسعه) است، خواستار ایجاد قوانینی و ممنوعیتهایی در این زمینه شده.
در جایی دیگر هم تنها 30 کشور خواستار ممنوعیت کامل این سلاحها شدهاند، که هیچ کدام از آنها از قدرتهای نظامی دنیا و یا از کشورهای پیشرو در رباتیک نبودند. آمریکا، چین و روسیه، هر سه مخالف چنین توافقی هستند. چین قانونی پیشنهاد داده که فقط استفاده (و نه توسعه و تولید) این سلاحها را منع میکند. این در حالیست که خود چین یکی از پرچمداران توسعهی این سلاحهاست!
- [گزارش دیدبان حقوق بشر]
آمریکا، چین، اسرائیل، کره جنوبی، روسیه و انگلستان از توسعه دهندگان اصلی سلاحهای هوشمند هستند. این کشورها غالبا استدلال میکنند که هدفشان از این کار «بازدارندگی» است. و نمیخواهند از رقیبان خود عقب بمانند. این فناوری همچنین در بیش از سی کشور دنیا استفاده میشود، از جمله برخی کشورهای خاورمیانه.
با تمام این اوصاف، بسیار بعید به نظر میرسد که قدرتهای نظامی، در این رقابت تسلیحاتی، کوتاه بیایند و این یعنی آیندهی نگران کنندهای را در پیش خواهیم داشت، که "رباتهای قاتل" برای دنیا رقم خواهند زد.
جواد امیریان