اخلاق در هوش مصنوعی؛ یک شعار یا یک نیاز واقعی؟

اخلاق در هوش مصنوعی؛ یک شعار یا یک نیاز واقعی؟

هوش مصنوعی به یکی از اولویت‌های اصلی شرکت‌ها، کسب‌وکارها و سازمان‌ها تبدیل شده است. اگرچه به موازات توسعه هوش مصنوعی، رگولاتورهای حوزه فناوری اطلاعات سراغ تنظیم مقررات در خصوص موضوعاتی نظیر نحوه میزبانی و ذخیره‌سازی داده‌ها، موضوع فراموش کردن داده‌ها توسط سیستم‌های مبتنی بر AI[1] و نحوه استفاده از داده‌ها در کاربردهایی به غیر از کاربرد اصلی رفته‌اند، اما شرکت‌ها و کسب و کارها نیز، ضرورت تجاری استقرار مسئولانه سیستم‌های هوش مصنوعی و دنبال کردن برنامه‌های اخلاق هوش مصنوعی (AI ethics) را بیش از گذشته درک کرده‌اند.

اخبار و شکایات مشتریان در خصوص موارد ابتدایی نظیر نقصان در سیستم‌های تشخیص چهره گرفته تا عدم رعایت حریم خصوصی و موارد پیشرفته‌تر نظیر الگوریتم‌های غیرقابل تشخیص[2]که عملکرد آن‌ها حتی پیامدهای بدی برای شرکت‌های بزرگی نظیر آمازون داشته است (رفتار تبعیض‌آمیز نرم‌افزار استخدام شرکت آمازون علیه زنان)، اخلاق در هوش مصنوعی را به دستور کار هیأت مدیره، مدیران عامل و مدیران داده (CDO)[3]شرکت‌های فناور و داده‌محور وارد کرده است. اما راهکار اصلی در حوزه اخلاق در هوش مصنوعی، ارتقاء آگاهی نسبت به ریسک‌های بهره‌برداری از هوش مصنوعی است که اغلب از دید مدیران و رهبران سازمانی مغفول می‌ماند و معمولاً راهکار سیستماتیکی برای این آگاهی‌بخشی ارائه نمی‌شود.

اغلب مدیران ارشد در شرکت‌ها و سازمان‌های فناور، دغدغه‌های جدی در خصوص موضوعاتی نظیر حفظ «خوش‌نامی»[4]و رعایت اخلاق تجاری دارند. این امر، نشان‌دهنده ضرورت ایجاد یک «برنامه مدیریت ریسک‌های اخلاقی هوش مصنوعی»[5]در سازمان/شرکت به منظور شناسایی و برطرف کردن مخاطرات تجاری مرتبط با AI است. امری که در صورت تحقق صحیح، مواجهه مناسب با ریسک‌های این حوزه و در گام بعدی، توسعه دامنه رعایت اخلاق در سایر حوزه‌های مرتبط با این فناوری را به همراه خواهد داشت. اما ایجاد این برنامه، مستلزم پاسخگویی به سه مسأله مهم است:

اول؛ تأمین راهکارها و محصولات مبتنی بر AI

یکی از منابع اصلی تولید ریسک (!) در استفاده از سیستم‌های هوش مصنوعی، عملکرد مسئولان مرتبط با تأمین راهکارها و محصولات مبتنی بر AI در سازمان‌ها و شرکت‌ها است. به طور مثال، تأمین محصولات مرتبط با بخش‌های منابع انسانی، بازاریابی و مالی نیازمند تمرکز روی مشخصات متفاوت و دقیقی است که عدم توجه به آن‌ها در فرآیند تأمین فناوری، ریسک‌های جدی را متوجه آن بخش خواهد نمود. پس، بخش قابل توجهی از این مسئولیت ناظر به درخواست و بررسی اسناد مرتبط از فروشندگان محصولات مبتنی بر هوش مصنوعی است كه نحوه شناسایی و كاهش مخاطرات و Bias در الگوریتم‌های هوش مصنوعی را ارائه می‌کند.

دوم؛ دانش مدیران ارشد

مدیریت ریسک‌های بهره‌برداری از هوش مصنوعی نیازمند دانش بالای مدیران ارشد به منظور شناسایی نقاط ضعف موجود در سیستم‌های مورد استفاده در شرکت یا سازمان تحت مدیریت آنان است که چالش‌های قانونی یا به خطر افتادن حسن شهرت را در پی دارد. به طور مثال، استفاده از یک راهکار مبتنی بر هوش مصنوعی در فرآیند تولید محصول بدون استفاده از دانش لازم در فرآیند تأیید، برند شرکت – و نه مدیر مربوطه – را با مخاطراتی مواجه خواهد کرد.

سوم؛ متخصصان و مهندسان علم داده

عملیاتی کردن هر برنامه مدیریت ریسک‌های اخلاقی هوش مصنوعی نیازمند بهره‌گیری از توان متخصصان و مهندسان علم داده[6]در این حوزه است. در صورتی که متخصصان و مهندسان علم داده نسبت به دغدغه‌های اخلاق در هوش مصنوعی (AI ethics) یا از نتایج مخرب مخاطرات آن بر کسب‌وکار بی‌اطلاع باشند، ریسک بالایی متوجه شرکت‌های متبوع آن‌ها خواهد شد. در طرف مقابل، در صورتی که این دانش به صورت سازمانی توسعه یافته باشد، تمامی همکاری‌های لازم حتی در سطوح بین بخشی برای جلوگیری از مشکلات قانونی و ریسک‌های مربوط به حسن شهرت شرکت، شکل خواهد گرفت.

البته، معمولاً ایجاد آگاهی بین بخشی نیاز به کار دارد. این امر به مخابره یک پیام ثابت نیاز دارد که متناسب با نگرانی‌های خاص هر گروه باشد. به هر حال، علایق و مسئولیت‌های مجموعه مدیران با نظرات طراحان محصولات متفاوت بوده و نظرات این گروه‌ها با دغدغه‌ها و نظرات متخصصان و مهندسان داده متفاوت است. بنابراین، صحبت با همه این گروه‌ها با علایق، مسئولیت‌ها، نظرات و دغدغه‌های متفاوت با یک زبان، معادل صحبت نکردن با همه آن‌هاست! این پیام نباید سطحی باشد؛ سطحی بودن پیام منجر به این خواهد شد که افراد فکر کنند اخلاق در هوش مصنوعی یا یک مسأله مربوط به بخش روابط عمومی است، یا یک نگرانی خاص است که به آن‌ها ارتباطی ندارد. این پیام، نیازمند دنبال شدن توسط یک رهبر سازمانی با سطح مدیریتی عالی است که مسئولیت تدوین و نظارت بر اجرای راهبردی باشد که منجر به آگاهی در کل سازمان شود؛ در واقع، اگر پیام از بالا نرسد، این مسأله جدی گرفته نخواهد شد.

چگونه آگاهی سازمانی ایجاد کنیم؟

در ایجاد آگاهی سازمانی، بسیار مهم است که هر کارمند ریسک‌های بهره‌برداری از AI را درک کرده و احساس کند که موفقیت استفاده از هوش مصنوعی در سازمان در گرو عملکرد اوست. در واقع، کارمندان نه تنها باید از وجود این مخاطرات آگاه باشند، بلکه باید بدانند این خطرات به طور مشخص چگونه بر شغل آن‌ها تأثیر می‌گذارد و چه رابطه‌ای با شرح وظایف آن‌ها دارد. این امر، یکی از ملزوماتی است که باید واحد مدیریت منابع انسانی در استخدام افراد به آن توجه داشته باشد.

در ادامه، 6 راهکار ایجاد دانش سازمانی در خصوص ریسک‌های مربوط به اخلاق در هوش مصنوعی ارائه شده است:

1) حذف ترس از هوش مصنوعی و موضوع اخلاق در آن؛

یکی از موانعی که سازمان ها با آن روبرو هستند، ترس افراد خارج از فناوری اطلاعات از این موضوعات است. «هوش مصنوعی»، «یادگیری ماشین» و «الگوریتم های تبعیض‌آمیز»[7]می توانند مفاهیمی مرعوب کننده باشند که باعث شود افراد به طور کلی از موضوع دور شوند. برای ایجاد آگاهی سازمانی بسیار مهم است که افراد با مفاهیم (نه لزوماً زیربناهای فنی) آشنا شوند.

سواد ابتدایی هوش مصنوعی خیلی هم دشوار نیست. یادگیری ماشین در حقیقت یادگیری با مثال است که همه با آن آشنا هستند و به همین ترتیب، بد بودن در یادگیری به دلیل اینکه مثال کافی در اختیار نبوده نیز برای همه آشنا است. اگر در حال توضیح الگوریتم‌های تبعیض‌آمیز هستید، می توانید توضیح دهید که برخی از آن‌ها نتیجه نرم‌افزاری هستند که نمونه کافی برای یادگیری نداشته و بنابراین این نرم‌افزار اشتباهاتی انجام می‌دهد (به عنوان مثال نداشتن نمونه کافی از چهره افراد سیاه‌پوست برای نرم افزار تشخیص چهره).

الزام مرتبط با واحدهای منابع انسانی و بازاریابی به آشنایی با مبانی نحوه عملکرد هوش مصنوعی و چگونگی بروز خطرات اخلاقی هوش مصنوعی، شاید در ابتدا امری ناممکن باشد. اما این تجربه، پیش از این در خصوص امنیت سایبری در بسیاری موارد ایجاد شده است و سازمان‌های متعددی موفق شده‌اند که سواد و آگاهی در مورد خطرات مربوط به امنیت سایبری را در سطح سازمان ایجاد نمایند؛ در حالی که تحقق این امر، غیرممکن به نظر می‌رسید. در این راستا باید توجه داشته باشید که اگر افراد شما اصول اولیه مرتبط با هوش مصنوعی را ندانند، هنگام انجام وظایف خود قادر نیستند سوالات درستی (مثلاً از فروشندگان محصولات مبتنی بر هوش مصنوعی) در خصوص ویژگی‌های محصول بپرسند.

2) ارتباط با مشتریان را جدی بگیرید.

مشتریان مهم‌ترین سرمایه هر شرکت یا سازمانی هستند و در صورت احساس سوء استفاده، اعتماد خود را از دست می‌دهند. این در حالی است که معمولاً در صورت قرار گرفتن در جریان توسعه محصولات، انعطاف‌پذیری خوبی از خود نشان می‌دهند؛ بیشتر از حدی که شرکت‌ها انتظار دارند! با این کار، از طرفی می‌توان از لاک محافظه‌کاری در توسعه محصولات خارج شده و از طرف دیگر، اعتماد مشتری به شرکت یا سازمان و درک مشتری از اهمیت خود برای سازمان را افزایش داد. مهم‌تر از همه، الگوریتم‌های هوش مصنوعی در حین فرآیند آموزش اطلاعاتی بیشتری در خصوص سلیقه مشتری پیدا کرده و خروجی آن‌ها با استقبال بالاتری روبرو خواهد شد.

3) ارتباطات خود را متناسب با مخاطبان خود تنظیم کنید.

رهبران ارشد که خود را مسئول حفظ شهرت برند خود می‌دانند علاقه‌مندند از خطراتی که این شهرت را تهدید می‌کند، جلوگیری کنند. بنابراین، صحبت از «ریسک‌های اخلاقی و شهرت» و ارتباط اخلاق هوش مصنوعی را با نگرانی‌ها و مسئولیت‌ها برای آن‌ها مهم است. اما در طرف دیگر، طراحان محصولات معمولاً کمتر نگران این موضوعات در فرآیند تهیه محصولات هستند. بنابراین، توضیح اینکه چگونه اخلاق هوش مصنوعی به بهبود طراحی محصول آن‌ها منجر می‌شود – به‌ویژه، تأکید بر نگاه کاربران و شهروندان به محصولات تولیدی آنان – می‌تواند بسیار موثر باشد. متخصصان و مهندسان داده، مدل‌های قوی می‌خواهند که کارآمد باشد. صحبت با زبان مورد علاقه آن‌ها به معنای توضیح چگونگی کاهش bias در الگوریتم‌ها در این مسیر، مفید خواهد بود. بالاخره، هیچ کس نمی‌خواهد یک مدل نادرست یا غیرقابل استفاده بسازد.

4) ایجاد آگاهی سازمانی را با مأموریت یا هدف شرکت گره بزنید.

اخلاق در هوش مصنوعی را با فرهنگ سازمانی ادغام کنید. توضیح دهید که چگونه مدیریت ریسک‌های اخلاقی در امتداد آن مأموریت است و نشان‌دهنده آن چیزی است که شما نمی‌خواهید انجام دهید. به عنوان مثال، ممکن است ماموریت شما ارائه بهترین مشاوره مالی ممکن باشد. اما نمی‌توانید این مشاوره را بدون اعتماد مردم به خود و با سهل‌انگاری در استفاده از هوش مصنوعی ارائه دهید. وقتی هوش مصنوعی اشتباه می‌کند، اشتباه در مقیاس اتفاق می‌افتد و «بخش قابل توجهی» از مشتریان از دست می‌روند. بنابراین، محافظت از مشتریان در گرو استقرار برنامه مسئولانه و قابل اعتماد در خصوص اخلاق درAI است.

5) اخلاق در هوش مصنوعی را به روشی عملیاتی محقق کنید.

بین ارائه شعارهایی مانند «برای ما حفظ حریم خصوصی مهم است» یا «ما به حریم خصوصی احترام می‌گذاریم» با تحقق آن در فرآیندها مبتنی بر اصولی نظیر «عدم فروش داده‌های مشتریان به شرکت‌های طرف سوم» یا «ناشناس‌سازی داده‌ها برای اشتراک‌گذاری با شرکت‌های طرف سوم» فاصله زیادی است. باید این ارزش‌ها از دایره روابط عمومی‌ها خارج شده و به کنش‌های سازمانی در ارائه خدمات داده‌محور منتج شود.

6) آموزش مداوم؛

ایجاد آگاهی سازمانی کاری نیست که شما بعد از ظهر چهارشنبه به آن بپردازید! این امر به نقاط تماس مداوم و متنوعی از بلندگوهای داخلی و خارجی، برگزاری کارگاه‌ها، انتشار خبرنامه‌ها و نظایر آن نیاز دارد. هوش مصنوعی و فناوری‌های نوظهور دائماً در تحول هستند و با این تغییرات، منابع جدیدی از ریسک‌های اخلاقی به وجود می‌آیند. برای اطمینان از این که سازمان شما خیلی عقب نیست، آموزش مداوم یک سنگر مهم در برابر موج فزاینده پیشرفت‌های فنی خواهد بود.

مراجع

I. A. Hamilton, "Why it's totally unsurprising that Amazon's recruitment AI was biased against women," Business Insider, 13 Oct 2018. [Online]. Available: https://www.businessinsider.com/amazon-ai-biased-against-women-no-surprise-sandra-wachter-2018-10?IR=T.

Beena Ammanath and Reid Blackman, "Everyone in Your Organization Needs to Understand AI Ethics," Harvard Business Review, 2021.

[1] Artificial Intelligence (AI)

[2] Black-box algorithms

[3] Chief Data Officer (CDO)

[4] Reputation

[5] AI ethical risk program

[6] Data scientists and engineers

[7] Discriminatory Algorithms