
هوش مصنوعی با وعده تصمیمگیری عینی و مبتنی بر داده، وارد عرصههای حساس انسانی شده است. اما این وعده، با یک چالش بنیادین روبروست: سوگیری الگوریتمی (Algorithmic Bias). این پدیده، که به معنای تمایلات سیستماتیک و ناعادلانه در خروجی سیستمهای هوشمند است، صرفاً یک نقص فنی نیست، بلکه یک تهدید جدی برای اصول برابری و عدالت محسوب میشود. اینجاست که یک پرسش اساسی مطرح میشود: اگر الگوریتمها بر اساس دادههای گذشته، که خود محصول تاریخ و قضاوتهای انسانی با تمام سوگیریهایش است، آموزش ببینند، آیا عدالت در هوش مصنوعی میتواند آینده را با همان خطاهای گذشته بسازد و به نابرابریها وجههای علمی و فناورانه ببخشد؟

برخلاف تصور رایج، ماشین ذاتاً بیطرف نیست. سوگیری میتواند از سه منبع اصلی به یک سیستم هوشمند تزریق شود:
دادههای ناعادلانه (Biased Data): این شایعترین علت است. اگر دادههای آموزشی یک الگوریتم، منعکسکننده تبعیضهای موجود در جامعه باشد، سیستم نیز همان تبعیض را یاد گرفته و بازتولید میکند. برای مثال، سیستمهای تشخیص چهرهای که عمدتاً با تصاویر افراد سفیدپوست آموزش دیدهاند، نرخ خطای بسیار بالاتری در شناسایی چهره افراد رنگینپوست دارند. این یک تبعیض در سیستمهای هوشمند است که مستقیماً از دادههای ورودی نشأت میگیرد.
الگوریتمهای نادرست (Flawed Algorithms): گاهی خود منطق الگوریتم به گونهای طراحی شده که به صورت ناخواسته به برخی ویژگیها وزن بیشتری میدهد. برای مثال، الگوریتمی که برای پیشبینی موفقیت شغلی، «وقفه در سوابق کاری» را یک امتیاز منفی بزرگ در نظر بگیرد، به طور سیستماتیک علیه زنانی که به دلیل مرخصی زایمان وقفه شغلی داشتهاند، تبعیض قائل خواهد شد.
تفسیرهای انسانی سطحی: در زبان فارسی، بسیاری از کلمات دارای بار جنسیتی هستند. اگر یک مدل زبانی با متون عمومی وب فارسی آموزش ببیند، ممکن است به طور ناخودآگاه مشاغلی مانند «مدیر» و «مهندس» را به مردان و مشاغلی مانند «منشی» و «پرستار» را به زنان نسبت دهد و این سوگیری را در تحلیلها یا تولیدات متنی خود بازتاب دهد.
وقتی این الگوریتمهای سوگیر در فرآیندهای حساس قضایی به کار گرفته شوند، مخاطرات حقوقی الگوریتمها به اوج خود میرسد. تصور کنید از هوش مصنوعی در دادرسی برای این موارد استفاده شود:
پیشبینی جرم: اگر الگوریتم بر اساس دادههای بازداشتهای قبلی آموزش دیده باشد و پلیس در گذشته به طور نامتناسبی در محلههای فقیرنشین گشتزنی کرده باشد، سیستم به اشتباه آن محلهها را «جرمخیزتر» پیشبینی کرده و این چرخه ناعادلانه را تقویت میکند.
ارزیابی خطر متهم: در سیستم قضایی آمریکا، استفاده از الگوریتم COMPAS برای پیشبینی احتمال تکرار جرم، نشان داد که سیستم به طور مداوم، خطر متهمان سیاهپوست را بیشتر از سفیدپوستان با سوابق مشابه ارزیابی میکرد. این یعنی تقویت تبعیض نژادی در تصمیمات قضایی.
اولویتبندی پروندهها: الگوریتمی که برای اولویتبندی رسیدگی به پروندهها طراحی شده، ممکن است به پروندههای مالی بزرگ (که دادههای ساختارمندتری دارند) اولویت دهد و پروندههای مربوط به خشونت خانگی (که پیچیدگیهای انسانی بیشتری دارند) را در انتهای صف قرار دهد.
شاید به نظر برسد که چون سیستمهای قضایی پیشرفته مبتنی بر AI هنوز به طور گسترده وارد ایران نشدهاند، ما از این خطر مصون هستیم. این یک تصور خوشبینانه و خطرناک است. سوگیری الگوریتمی محدود به دادگاهها نیست. هماکنون نیز الگوریتمها در ایران در حال تصمیمگیری هستند: در سیستمهای اعتبارسنجی بانکها، در فرآیندهای استخدام شرکتهای بزرگ، و در پلتفرمهای خدمات عمومی. ورود تدریجی این سیستمها به فضای حقوقی کشور، اجتنابناپذیر است. بنابراین، ما با یک فرصت تاریخی روبرو هستیم: تدوین پیشگیرانه قوانین و چارچوبهای نظارتی، پیش از آنکه تبعیض در سیستمهای هوشمند در زیرساختهای قضایی ما ریشه بدواند.
حتی ابزارهای عمومی مانند ChatGPT که در ایران قابل استفاده هستند، میتوانند هم منبع و هم ابزار تشخیص سوگیری باشند. این سیستمها بر اساس دادههای عظیم اینترنت آموزش دیدهاند و خود میتوانند حامل سوگیریهای موجود در آن دادهها باشند. با این حال، یک وکیل هوشمند میتواند از آنها به عنوان ابزاری برای بررسی انتقادی متون استفاده کند.
مثالی از یک پرامپت خوب برای ارزیابی سوگیری:
«شما به عنوان یک تحلیلگر بیطرف عمل کن. این متن پیشنویس رأی را بخوان و به این سوالات پاسخ بده: ۱. آیا در این متن از الفاظ یا کلیشههای جنسیتی، طبقاتی یا قومیتی استفاده شده است؟ ۲. آیا استدلالها به طور نامتناسبی به نفع یک گروه خاص گرایش دارد؟ ۳. چه مفروضات پنهانی در این متن وجود دارد که ممکن است منجر به یک نتیجهگیری ناعادلانه شود؟»
این پرامپت، هوش مصنوعی را وادار به ایفای نقش یک «ناظر بیطرف» میکند.
مقابله با سوگیری الگوریتمی نیازمند یک رویکرد چندلایه است:
شفافیت الگوریتمها (Explainability): باید قوانینی تدوین شود که استفادهکنندگان از سیستمهای پرخطر (مانند نهادهای قضایی) را ملزم کند تا منطق تصمیمگیری الگوریتمهای خود را تا حد امکان قابل توضیح سازند. اصل «حق بر توضیح» یک حق بنیادین در دادرسی است.
تدوین مقررات برای حسابرسی و اصلاح: باید سازوکارهایی برای بازرسی و آزمایش مداوم الگوریتمها جهت کشف و اصلاح سوگیریها ایجاد شود.
مسئولیتپذیری انسانی: در نهایت، مسئولیت یک تصمیم تبعیضآمیز نباید به گردن یک «الگوریتم» بیجان انداخته شود. انسانهایی که این سیستمها را طراحی، آموزش، و به کار میگیرند، باید پاسخگوی نتایج آن باشند.
تأکید بر اصول بنیادین حقوقی: هرگونه استفاده از هوش مصنوعی در دادرسی باید در چارچوب اصول عالیتری مانند اصل بیطرفی، تساوی در برابر قانون، و کرامت ذاتی انسان تفسیر و اجرا شود.
عدالت در هوش مصنوعی یک هدف دستیافتنی است، اما تنها در صورتی که بپذیریم ماشینها آینه تمامنمای دادههایی هستند که به آنها میدهیم. اگر آینه، تصویری ناعادلانه به ما نشان میدهد، مشکل از آینه نیست، بلکه از واقعیتی است که در آن بازتاب یافته است. شناخت و اصلاح سوگیری الگوریتمی نه یک انتخاب فنی، بلکه یک ضرورت اخلاقی و قانونی برای جلوگیری از خلق یک آپارتاید دیجیتال است. در ایران نیز، پیش از توسعه گسترده این ابزارها، باید با نگاهی آیندهنگر، چارچوبهای حقوقی و نظارتی لازم برای تضمین عدالت و پیشگیری از تبعیض طراحی شود.