
در دنیای امروز، حریم خصوصی دیگر صرفاً به معنای کنترل فرد بر اطلاعات شخصی خود نیست، بلکه به پدیدهای پیچیده و چندلایه در دل الگوریتمها و کلاندادهها تبدیل شده است. هوش مصنوعی، با قدرت تحلیل بیسابقهاش، قادر است از میان میلیاردها داده پراکنده، تصویری دقیق از هویت، رفتار، تمایلات و حتی آینده احتمالی افراد ترسیم کند. این تحول فنی، حقوق حریم خصوصی را به چالشی جدی کشانده و این پرسش بنیادین را مطرح میسازد: آیا نظامهای حقوقی موجود، از جمله در ایران، توان پاسخگویی به این سطح از پیچیدگی و ریسک را دارند؟
هوش مصنوعی برای عملکرد خود نیازمند تغذیه از دادههای حجیم است؛ دادههایی که اغلب نهفقط از طریق رضایت مستقیم، بلکه بهواسطه رفتار آنلاین، تعاملات دیجیتال، مکانیابی و تحلیل محتوای تولیدشده توسط کاربران به دست میآید. الگوریتمها با تکنیکهایی مانند دادهکاوی (Data Mining)، تشخیص الگو (Pattern Recognition) و پیشبینی رفتار (Behavioral Prediction) میتوانند الگوهای عمیق و پنهان را استخراج کنند. این تحلیلها در حوزههای مختلف از جمله تبلیغات هدفمند، تشخیص بیماری، اعتبارسنجی مالی و حتی پیشبینی گرایش سیاسی افراد بهکار میرود.
نمونهای بارز، پلتفرمهای شبکه اجتماعیاند که تنها بر اساس نوع لایک کردن یا مدتزمان مکث روی یک محتوا، میتوانند حالات روحی، نیازهای درمانی، یا وضعیت بارداری کاربران را پیشبینی کنند. نکته نگرانکننده آن است که این فرایندهای تحلیل معمولاً در پسزمینه و بدون آگاهی واقعی کاربر رخ میدهد. اصطلاح «رضایت کاربر» در عمل، به قراردادی صوری و یکطرفه تنزل یافته است که اغلب در قالب سیاستهای حریم خصوصی طولانی، نامفهوم و نادقیق ارائه میشود و کاربر چارهای جز پذیرش آن ندارد.
با این حال، آیا حقوق ایران قادر است این وضعیت را کنترل کند؟ مروری بر قوانین موجود نشان میدهد که مقررات مرتبط با حفاظت دادهها پراکنده، ناکامل و عمدتاً واکنشیاند. «قانون جرایم رایانهای» مصوب ۱۳۸۸، برخی حمایتهای کلی از حریم خصوصی را در بستر دیجیتال ارائه داده، اما تمرکز آن بیشتر بر جرمانگاری است تا پیشگیری یا تنظیمگری. «قانون تجارت الکترونیکی» نیز صرفاً به ذکر مبهمی از حمایت از دادههای مصرفکننده بسنده کرده و ابزارهای اجرایی کارآمدی ارائه نداده است. همچنین در قوانین عام، مفاهیمی چون «ضرر معنوی ناشی از افشای اطلاعات»، مبهم و محل تفسیرهای متفاوتاند.
نکته مهم آن است که این قوانین اصولاً برای عصر الگوریتمهای یادگیرنده و دادهکاوی مستمر تدوین نشدهاند. برای مثال، وقتی یک الگوریتم از دادههای موجود الگوهایی استخراج میکند که منجر به تصمیمگیری درباره فردی دیگر میشود (مثلاً تعیین نرخ بیمه یا احتمال بزهکاری)، پرسش از ماهیت دادهی «شخصی» و محدوده رضایت او بسیار پیچیده میشود.

از سوی دیگر، برخی چالشهای جدید اصولاً در قوانین فعلی هیچ جایگاهی ندارند. برای نمونه، حق فراموشی که به کاربر اجازه میدهد دادههای مربوط به خود را از سیستمها حذف کند، در حقوق ایران به رسمیت شناخته نشده است. یا شفافیت الگوریتمی، بهمعنای الزام سیستمها به توضیح منطق تصمیمگیری خود، مفهومی است که با اصول کلی مسئولیت مدنی یا ادله اثبات دعوا همراستا نشده است.
همچنین با رشد ابزارهای تحلیل دادههای کلان، پدیدهای بهنام تبعیض آماری ظهور کرده است؛ حالتی که در آن، الگوریتمها با استفاده از الگوهای رفتاری، بهطور غیرمستقیم تبعیضهایی را بازتولید میکنند، بیآنکه عمداً این کار را انجام داده باشند. در این شرایط، آیا میتوان توسعهدهنده را مسئول دانست؟ یا کاربری که فقط از یک ابزار هوش مصنوعی استفاده کرده است؟ مسئولیت حقوقی چگونه توزیع میشود؟ اینها سؤالاتیاند که پاسخ روشن و مستقلی در نظام حقوقی ایران ندارند.
در پاسخ به این خلأها، کشورهای مختلف بهسرعت در حال تدوین مقررات نویناند. مقررات عمومی حفاظت از دادهها (GDPR) در اتحادیه اروپا، الگویی پیشرو محسوب میشود که اصل رضایت آگاهانه، حق فراموشی، حق دسترسی، حق تصحیح، و الزام به امنیت داده را به رسمیت شناخته است. همچنین، قانون هوش مصنوعی اروپا (AI Act) تلاش میکند ریسکهای هوش مصنوعی را طبقهبندی کرده و برای سیستمهای پرریسک، مقررات خاصی وضع کند.
در ایران، الگوبرداری صرف از این مقررات نه ممکن است و نه مؤثر، اما میتوان از رویکردهای آنها برای تدوین سیاستهای بومی استفاده کرد. برای نمونه، میتوان پیشنهاداتی مانند موارد زیر را بهطور عملی و متناسب با بستر ایران مطرح کرد:
تدوین قانون جامع حمایت از دادههای شخصی که مفاهیم نوین مانند رضایت آگاهانه، حق حذف، و شفافیت پردازش را دربر گیرد؛
ایجاد نهاد مستقل ناظر بر دادهها مشابه نهادهای مقرراتگذار حوزه مخابرات یا رسانه؛
آموزش عمومی شهروندان و کارمندان دولت درباره حریم خصوصی دیجیتال و سواد دادهای؛
تضمین حضور متخصصان حقوقی در کنار توسعهدهندگان فناوری هنگام طراحی محصولات هوش مصنوعی؛
ایجاد سازوکارهایی برای ارزیابی اثرات الگوریتمها بر حقوق بنیادین پیش از اجرای گسترده آنها.
در نهایت، باید پذیرفت که حفظ حریم خصوصی در عصر هوش مصنوعی تنها با ابزارهای فنی یا رضایتنامههای صوری ممکن نیست. لازم است اصول بنیادین حریم خصوصی بازتعریف شوند، مسئولیتپذیری بازیگران مختلف (از دولت و شرکتها تا کاربران) روشن گردد، و حقوقدانان نیز با درک عمیقتری از فناوری، نقش فعالی در هدایت این تحولات ایفا کنند. آیندهای عادلانه در گرو آن است که قانون و اخلاق از فناوری عقب نمانند، بلکه آن را هدایت کنند.