ربات‌های قاتل پیش از این مردم را ترور کرده‌اند!

منتشر شده در analyticsinsight به تاریخ ۷ مه ۲۰۲۲
لینک منبع AUTONOMOUS AND KILLERS ROBOTS HAVE ALREADY ASSASSINATED PEOPLE!

هوش مصنوعی به طور گسترده در بخش دفاع برای تقویت امنیت یک کشور استفاده می‌شود. اما عواقب استقرار «ربات‌های قاتل» مستقل در ارتش هنوز پیش‌بینی نشده است. ربات‌های قاتل سیستم‌های اسلحه‌ای خودکار هستند که می‌توانند بدون هیچ گونه کنترل انسانی، اهداف خود را انتخاب کرده و به آن‌ها حمله کنند. این نوع از سیستم‌های تسلیحاتی از نیروی کشنده بدون هیچ فرمان مستقیم اپراتور انسانی استفاده می‌کنند. این تکنولوژی هوش مصنوعی در سیستم‌های تسلیحاتی مختلف مانند کشتی‌های جنگی، جت‌های جنگنده و تانک‌ها اجرا می‌شود.

بر اساس گزارش اخیر شورای امنیت سازمان ملل متحد در مورد جنگ داخلی لیبی، سیستم‌های تسلیحاتی خودگردان که معمولاً به عنوان ربات‌های قاتل شناخته می‌شوند، ممکن است سال گذشته برای اولین بار انسان‌ها را کشته باشند. تاریخ می‌تواند به خوبی این را به عنوان نقطه شروع مسابقه تسلیحاتی بزرگ بعدی شناسایی کند، مسابقه‌ای که پتانسیل تبدیل شدن به آخرین مسابقه بشریت را دارد. سیستم‌های تسلیحاتی مستقل ربات‌هایی با سلاح‌های کشنده هستند که می‌توانند به طور مستقل عمل کنند، اهداف را انتخاب کنند و حمله کنند بدون اینکه انسان در آن تصمیمات دخالت داشته باشد. شبه نظامیان در سراسر جهان به شدت در تحقیقات و توسعه سلاح‌های خودمختار سرمایه‌گذاری می‌کنند.

در همین حال، سازمان‌های حقوق بشر و بشر دوستانه در حال رقابت برای ایجاد مقررات و ممنوعیت‌های توسعه چنین سلاح‌هایی هستند. بدون چنین نظارتی، کارشناسان سیاست خارجی هشدار می‌دهند که فن‌آوری‌های مخرب سلاح‌های مستقل به طور خطرناکی استراتژی‌های هسته‌ای فعلی را بی‌ثبات خواهند کرد، هم به این دلیل که آن‌ها می‌توانند به طور اساسی برداشت از تسلط استراتژیک را تغییر دهند، خطر حملات پیشگیرانه را افزایش دهند و هم به این دلیل که آن‌ها می‌توانند با سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای ترکیب شوند.

یک متخصص حقوق بشر با تمرکز بر تسلیحات هوش مصنوعی متوجه می‌شود که سلاح‌های خودمختار باعث می‌شود تعادل‌های ناپایدار و پادمان‌های متلاشی‌شده دنیای هسته‌ای، به عنوان مثال، اختیارات حداقل محدود رئیس‌جمهور ایالات متحده برای انجام یک حمله، ناپایدارتر و پراکنده‌تر شود.

تهدیدات ایجاد شده توسط ربات‌های قاتل

در طول چند سال گذشته، هیئت سازمان ملل متحد درباره ممنوعیت ربات‌های قاتل، که به طور رسمی به عنوان سیستم تسلیحات خودمختار مرگبار (LAWS) شناخته می‌شود، بحث کرده است. این سیستم‌های تسلیحاتی تهدید قابل توجهی برای امنیت و رفاه غیرنظامیان هستند. تصور می‌شود که سیستم‌های تسلیحاتی کاملاً خودمختار قادر به رعایت قوانین و استانداردهای بشردوستانه بین‌المللی از جمله قوانین ارزیابی متناسب، تمایز بین رزمندگان و غیرنظامیان و رهگیری نیازهای نظامی نیستند. در حال حاضر، این سیستم‌ها برای از بین بردن اهداف دشمن، به طور موثر، و نجات بیشتر سربازان خود به کار گرفته می‌شوند. اما هیچ دستورالعمل روشنی در مورد اینکه کدام یک از این سیستم‌های هوش مصنوعی را می‌توان در عمل استفاده کرد و کدام یک را نمی‌توان استفاده کرد، ذکر نشده است. بنابراین، این کار به ایجاد یک تهدید اساسی برای حق زندگی و کرامت انسانی ادامه خواهد داد.

در ماه مارس سال ۲۰۲۰، یک کوادکوپتر کارگو-۲ سربازان و کاروان‌هایی به رهبری خلیفه هفتر از ارتش ملی لیبی را در طی یک جریان مناقه داخلی با نیروهای دولتی لیبی هدف قرار داد. گزارش‌ها حاکی از آن است که این سیستم تسلیحاتی در رده «سیستم تسلیحات خودمختار مرگبار یا LAWS» قرار می‌گیرد.

شرکت STM، یک شرکت فن‌آوری نظامی ترکیه، کوادکوپتر کارگو-۲ را تولید کرد. برای جنگ نامتقارن ساخته شد و تحت دو حالت عملیاتی دستی و مستقل اجرا شد. همچنین می‌توان آن را با کوادکوپترهای دیگر متصل کرد تا انبوهی از حملات کامیکازه به دشمنان ایجاد کند.

این ربات‌های هوش مصنوعی، سلاح‌های کشتار جمعی و ترور هستند. اگر به طور اتفاقی، این سیستم‌ها توسط مجرمان سایبری، تروریست‌ها، یا دیگر کشورهای سرکش هک شوند، استفاده از این فن‌آوری‌ها برای سرکوب غیر نظامیان و حمله به آن‌ها، حتی منجر به جنگ متعارف و نسل‌کشی، متوقف نخواهد شد.

این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.
مقالات لینک‌شده در این متن می‌توانند به صورت رایگان با استفاده از مقاله‌خوان ترجمیار به فارسی مطالعه شوند.