آیا وکلا آماده قضاوت الگوریتمها هستند؟

تصور کنید یک قاضی در یکی از مجتمعهای قضایی شلوغ تهران، با کوهی از پروندههای به ظاهر مشابه در زمینه «مطالبه وجه چک» مواجه است. هزاران پرونده که هر کدام، با وجود شباهت ظاهری، تفاوتهای ظریفی در جزئیات دارند که میتواند سرنوشت رأی را تغییر دهد. او در میان این حجم عظیم از داده، تحت فشار زمان و با هدف صدور رأیی عادلانه و هماهنگ با رویه قضایی، به دنبال یک الگوی ثابت میگردد. حال اگر سیستمی به او پیشنهاد شود که با تحلیل تمام آرای پیشین، احتمال موفقیت هر پرونده را با دقت ۹۰٪ پیشبینی کند، چه؟ آیا این یک ابزار کارآمد برای تحقق عدالت است یا گامی لغزنده به سوی قضاوت ماشینی؟ این پرسش، هسته اصلی یادگیری ماشین در حقوق و چالشی است که امروز وکلا، قضات و قانونگذاران ایرانی باید برای آن آماده شوند.
ورود این فناوری به دنیای محافظهکار حقوق، یک انتخاب لوکس نیست، بلکه پاسخی به سه بحران جدی و رو به رشد است:
بحران حجم دادهها: دستگاه قضایی ما با انفجار اطلاعات روبروست. میلیونها رأی، لایحه، و سند که تحلیل جامع آنها برای انسان غیرممکن است. دادهکاوی قضایی با استفاده از یادگیری ماشین، نویدبخش استخراج الگوهای پنهان از دل این اقیانوس داده است.
فشار برای افزایش سرعت و دقت: اطاله دادرسی یکی از بزرگترین آفات نظام قضایی است. فناوری در تصمیمسازی قضایی این پتانسیل را دارد که با خودکارسازی امور تکراری و کمک به تحلیل سریعتر پروندهها، به فرایند رسیدگی سرعت بخشد.
جذابیت پیشبینیپذیری در آرا: برای یک وکیل، هیچ چیز جذابتر از پیشبینی نتیجه یک دعوا نیست. الگوریتمهای پیشبینی رأی با تغذیه از آرای گذشته، ادعا میکنند که میتوانند آینده یک پرونده را با درجهای از احتمال، مشخص کنند. این جذابیت، نیروی محرکه اصلی حرکت بازار به این سمت است.
برخلاف یک نرمافزار سنتی که با قوانین ثابت (If-Then) کار میکند، یک سیستم یادگیری ماشین، با دیدن مثالهای متعدد، خود «قواعد» را کشف میکند. به زبان ساده:
یادگیری نظارتی (Supervised Learning): رایجترین مدل در حقوق. به الگوریتم، هزاران پرونده قبلی به همراه نتیجه نهایی آنها (مثلاً «دعوا رد شد» یا «حکم به نفع خواهان صادر شد») داده میشود. الگوریتم با بررسی این دادهها، یاد میگیرد که چه ویژگیهایی در یک پرونده، به چه نتیجهای منجر میشود. سیستمهای پیشبینی رأی مانند COMPAS در آمریکا که برای پیشبینی احتمال تکرار جرم توسط متهمان استفاده میشد، نمونهای از این مدل هستند.
یادگیری بدون نظارت (Unsupervised Learning): به الگوریتم حجم عظیمی از دادههای حقوقی (مثلاً تمام قراردادهای یک شرکت) بدون هیچ برچسبی داده میشود. الگوریتم خود به دنبال کشف خوشهها و الگوهای پنهان میگردد؛ مثلاً ممکن است به طور خودکار قراردادها را به دستههای «پرخطر»، «کمخطر» و «استاندارد» تقسیم کند.

اینجا نقطهای است که نگاه تحلیلی و نقادانه یک حقوقدان باید وارد میدان شود. جذابیت فناوری نباید ما را از خطرات بنیادین آن غافل کند. استفاده از یادگیری ماشین در حقوق با سه چالش بزرگ روبروست:
خطرات سوگیری دادهها (Data Bias): الگوریتمها بیطرف نیستند؛ آنها آینه دادههایی هستند که با آن تغذیه شدهاند. اگر آرای قضایی گذشته ما (به هر دلیلی) حاوی سوگیریهای پنهان اجتماعی یا اقتصادی علیه یک گروه خاص باشد، الگوریتم این سوگیری را نه تنها یاد میگیرد، بلکه آن را تقویت کرده و به عنوان یک قاعده علمی بازتولید میکند. این به معنای سیستماتیک کردن بیعدالتی است.
مسئله شفافیت (The Black Box Problem): بسیاری از مدلهای پیچیده یادگیری ماشین مانند یک «جعبه سیاه» عمل میکنند. آنها ورودی را دریافت کرده و خروجی دقیقی تحویل میدهند، اما توضیح منطقی و قابل فهمی از اینکه «چگونه» به این نتیجه رسیدهاند، ارائه نمیدهند. این موضوع با یکی از پایهایترین اصول دادرسی عادلانه یعنی «حق بر توضیح» و لزوم مستدل و موجه بودن آرا قضایی در تضاد کامل است.
مسئولیت مدنی در صورت خطای الگوریتم: اگر یک الگوریتم پیشبینی رأی، به اشتباه شانس موفقیت یک پرونده را پایین اعلام کند و وکیل بر این اساس، موکل را از طرح دعوا منصرف کرده و باعث تضییع حق او شود، مسئول کیست؟ بر اساس ماده ۱ قانون مسئولیت مدنی مصوب ۱۳۳۹، «هر کس بدون مجوز قانونی عمداً یا در نتیجه بیاحتیاطی به... هر حق دیگری که به موجب قانون برای افراد ایجاد گردیده لطمهای وارد نماید... مسئول جبران خسارت ناشی از عمل خود میباشد.» اتکای بیچون و چرا و بدون راستیآزمایی یک وکیل یا قاضی به یک ابزار، مصداق بارز «بیاحتیاطی» است و مسئولیت حقوقی الگوریتمها در نهایت متوجه کاربر انسانی آنهاست.
واکنش نظامهای حقوقی جهان به این پدیده یکسان نبوده است:
فرانسه (رویکرد محدودکننده): در سال ۲۰۱۹ با تصویب قانونی، هرگونه تحلیل و دادهکاوی قضایی بر روی آرای دادگاهها با هدف پیشبینی رفتار یا گرایشهای یک قاضی مشخص را جرمانگاری کرد.
اتحادیه اروپا (رویکرد تنظیمگرایانه): با تصویب «قانون هوش مصنوعی» (EU AI Act)، سیستمهای هوش مصنوعی را بر اساس میزان ریسک طبقهبندی کرده و برای سیستمهای پرخطر (مانند استفاده در دستگاه قضایی) الزامات سختگیرانهای در خصوص شفافیت، نظارت انسانی و مدیریت ریسک وضع کرده است.
آمریکا (رویکرد بازارمحور): رویکردی بازتر داشته و توسعه ابزارهای حقوقی مبتنی بر هوش مصنوعی را عمدتاً به فعالان بخش خصوصی واگذار کرده است، اگرچه بحثهای حقوقی و آکادمیک در این زمینه بسیار داغ است.
در مقابل این تکنولوژی نه میتوان منفعل بود و نه میتوان آن را با آغوش باز و بدون تفکر پذیرفت. مسیر پیشنهادی برای جامعه حقوقی ایران، «مواجهه آگاهانه و هوشمند» است. این به معنای برداشتن دو گام اساسی است:
گذار از سواد حقوقی به سواد ترکیبی (حقوق + داده): وکیل آینده، تنها به دانش حقوقی مسلط نیست، بلکه باید «سواد داده» (Data Literacy) نیز داشته باشد. او باید بتواند مفاهیمی مانند «سوگیری آماری»، «ضریب اطمینان» و «مجموعه داده آموزشی» را درک کند تا بتواند خروجی یک الگوریتم را به درستی به چالش بکشد.
توسعه تفکر انتقادی در برابر الگوریتمها: باید بیاموزیم که به جای پرسیدن «این الگوریتم چه میگوید؟»، بپرسیم «این الگوریتم چه چیزی را در نظر نگرفته است؟»، «با چه دادهای آموزش دیده است؟» و «چه کسی از نتیجه آن سود میبرد؟». نقش وکیل از یک مصرفکننده صرف فناوری، به یک ارزیاب منتقد آن تغییر خواهد کرد.
در نهایت، یادگیری ماشین در حقوق یک ابزار است؛ ابزاری که میتواند آینه تمامنمای عدالت یا بیعدالتیهای پنهان در سیستم ما باشد. اینکه کدام تصویر را در این آینه ببینیم، به انتخاب و آمادگی امروز ما بستگی دارد. ما وکلا باید در خط مقدم این گفتگو باشیم تا اطمینان حاصل کنیم که فناوری در خدمت عدالت قرار میگیرد، نه آنکه عدالت، قربانی الگوریتمها شود.