دکتری مهندسی سیستمهای مخابراتی، مشاور حوزه شهر هوشمند و تحول دیجیتال
اخلاق در هوش مصنوعی؛ یک شعار یا یک نیاز واقعی؟
اخلاق در هوش مصنوعی؛ یک شعار یا یک نیاز واقعی؟
هوش مصنوعی به یکی از اولویتهای اصلی شرکتها، کسبوکارها و سازمانها تبدیل شده است. اگرچه به موازات توسعه هوش مصنوعی، رگولاتورهای حوزه فناوری اطلاعات سراغ تنظیم مقررات در خصوص موضوعاتی نظیر نحوه میزبانی و ذخیرهسازی دادهها، موضوع فراموش کردن دادهها توسط سیستمهای مبتنی بر AI[1] و نحوه استفاده از دادهها در کاربردهایی به غیر از کاربرد اصلی رفتهاند، اما شرکتها و کسب و کارها نیز، ضرورت تجاری استقرار مسئولانه سیستمهای هوش مصنوعی و دنبال کردن برنامههای اخلاق هوش مصنوعی (AI ethics) را بیش از گذشته درک کردهاند.
اخبار و شکایات مشتریان در خصوص موارد ابتدایی نظیر نقصان در سیستمهای تشخیص چهره گرفته تا عدم رعایت حریم خصوصی و موارد پیشرفتهتر نظیر الگوریتمهای غیرقابل تشخیص[2]که عملکرد آنها حتی پیامدهای بدی برای شرکتهای بزرگی نظیر آمازون داشته است (رفتار تبعیضآمیز نرمافزار استخدام شرکت آمازون علیه زنان)، اخلاق در هوش مصنوعی را به دستور کار هیأت مدیره، مدیران عامل و مدیران داده (CDO)[3]شرکتهای فناور و دادهمحور وارد کرده است. اما راهکار اصلی در حوزه اخلاق در هوش مصنوعی، ارتقاء آگاهی نسبت به ریسکهای بهرهبرداری از هوش مصنوعی است که اغلب از دید مدیران و رهبران سازمانی مغفول میماند و معمولاً راهکار سیستماتیکی برای این آگاهیبخشی ارائه نمیشود.
اغلب مدیران ارشد در شرکتها و سازمانهای فناور، دغدغههای جدی در خصوص موضوعاتی نظیر حفظ «خوشنامی»[4]و رعایت اخلاق تجاری دارند. این امر، نشاندهنده ضرورت ایجاد یک «برنامه مدیریت ریسکهای اخلاقی هوش مصنوعی»[5]در سازمان/شرکت به منظور شناسایی و برطرف کردن مخاطرات تجاری مرتبط با AI است. امری که در صورت تحقق صحیح، مواجهه مناسب با ریسکهای این حوزه و در گام بعدی، توسعه دامنه رعایت اخلاق در سایر حوزههای مرتبط با این فناوری را به همراه خواهد داشت. اما ایجاد این برنامه، مستلزم پاسخگویی به سه مسأله مهم است:
اول؛ تأمین راهکارها و محصولات مبتنی بر AI
یکی از منابع اصلی تولید ریسک (!) در استفاده از سیستمهای هوش مصنوعی، عملکرد مسئولان مرتبط با تأمین راهکارها و محصولات مبتنی بر AI در سازمانها و شرکتها است. به طور مثال، تأمین محصولات مرتبط با بخشهای منابع انسانی، بازاریابی و مالی نیازمند تمرکز روی مشخصات متفاوت و دقیقی است که عدم توجه به آنها در فرآیند تأمین فناوری، ریسکهای جدی را متوجه آن بخش خواهد نمود. پس، بخش قابل توجهی از این مسئولیت ناظر به درخواست و بررسی اسناد مرتبط از فروشندگان محصولات مبتنی بر هوش مصنوعی است كه نحوه شناسایی و كاهش مخاطرات و Bias در الگوریتمهای هوش مصنوعی را ارائه میکند.
دوم؛ دانش مدیران ارشد
مدیریت ریسکهای بهرهبرداری از هوش مصنوعی نیازمند دانش بالای مدیران ارشد به منظور شناسایی نقاط ضعف موجود در سیستمهای مورد استفاده در شرکت یا سازمان تحت مدیریت آنان است که چالشهای قانونی یا به خطر افتادن حسن شهرت را در پی دارد. به طور مثال، استفاده از یک راهکار مبتنی بر هوش مصنوعی در فرآیند تولید محصول بدون استفاده از دانش لازم در فرآیند تأیید، برند شرکت – و نه مدیر مربوطه – را با مخاطراتی مواجه خواهد کرد.
سوم؛ متخصصان و مهندسان علم داده
عملیاتی کردن هر برنامه مدیریت ریسکهای اخلاقی هوش مصنوعی نیازمند بهرهگیری از توان متخصصان و مهندسان علم داده[6]در این حوزه است. در صورتی که متخصصان و مهندسان علم داده نسبت به دغدغههای اخلاق در هوش مصنوعی (AI ethics) یا از نتایج مخرب مخاطرات آن بر کسبوکار بیاطلاع باشند، ریسک بالایی متوجه شرکتهای متبوع آنها خواهد شد. در طرف مقابل، در صورتی که این دانش به صورت سازمانی توسعه یافته باشد، تمامی همکاریهای لازم حتی در سطوح بین بخشی برای جلوگیری از مشکلات قانونی و ریسکهای مربوط به حسن شهرت شرکت، شکل خواهد گرفت.
البته، معمولاً ایجاد آگاهی بین بخشی نیاز به کار دارد. این امر به مخابره یک پیام ثابت نیاز دارد که متناسب با نگرانیهای خاص هر گروه باشد. به هر حال، علایق و مسئولیتهای مجموعه مدیران با نظرات طراحان محصولات متفاوت بوده و نظرات این گروهها با دغدغهها و نظرات متخصصان و مهندسان داده متفاوت است. بنابراین، صحبت با همه این گروهها با علایق، مسئولیتها، نظرات و دغدغههای متفاوت با یک زبان، معادل صحبت نکردن با همه آنهاست! این پیام نباید سطحی باشد؛ سطحی بودن پیام منجر به این خواهد شد که افراد فکر کنند اخلاق در هوش مصنوعی یا یک مسأله مربوط به بخش روابط عمومی است، یا یک نگرانی خاص است که به آنها ارتباطی ندارد. این پیام، نیازمند دنبال شدن توسط یک رهبر سازمانی با سطح مدیریتی عالی است که مسئولیت تدوین و نظارت بر اجرای راهبردی باشد که منجر به آگاهی در کل سازمان شود؛ در واقع، اگر پیام از بالا نرسد، این مسأله جدی گرفته نخواهد شد.
چگونه آگاهی سازمانی ایجاد کنیم؟
در ایجاد آگاهی سازمانی، بسیار مهم است که هر کارمند ریسکهای بهرهبرداری از AI را درک کرده و احساس کند که موفقیت استفاده از هوش مصنوعی در سازمان در گرو عملکرد اوست. در واقع، کارمندان نه تنها باید از وجود این مخاطرات آگاه باشند، بلکه باید بدانند این خطرات به طور مشخص چگونه بر شغل آنها تأثیر میگذارد و چه رابطهای با شرح وظایف آنها دارد. این امر، یکی از ملزوماتی است که باید واحد مدیریت منابع انسانی در استخدام افراد به آن توجه داشته باشد.
در ادامه، 6 راهکار ایجاد دانش سازمانی در خصوص ریسکهای مربوط به اخلاق در هوش مصنوعی ارائه شده است:
1) حذف ترس از هوش مصنوعی و موضوع اخلاق در آن؛
یکی از موانعی که سازمان ها با آن روبرو هستند، ترس افراد خارج از فناوری اطلاعات از این موضوعات است. «هوش مصنوعی»، «یادگیری ماشین» و «الگوریتم های تبعیضآمیز»[7]می توانند مفاهیمی مرعوب کننده باشند که باعث شود افراد به طور کلی از موضوع دور شوند. برای ایجاد آگاهی سازمانی بسیار مهم است که افراد با مفاهیم (نه لزوماً زیربناهای فنی) آشنا شوند.
سواد ابتدایی هوش مصنوعی خیلی هم دشوار نیست. یادگیری ماشین در حقیقت یادگیری با مثال است که همه با آن آشنا هستند و به همین ترتیب، بد بودن در یادگیری به دلیل اینکه مثال کافی در اختیار نبوده نیز برای همه آشنا است. اگر در حال توضیح الگوریتمهای تبعیضآمیز هستید، می توانید توضیح دهید که برخی از آنها نتیجه نرمافزاری هستند که نمونه کافی برای یادگیری نداشته و بنابراین این نرمافزار اشتباهاتی انجام میدهد (به عنوان مثال نداشتن نمونه کافی از چهره افراد سیاهپوست برای نرم افزار تشخیص چهره).
الزام مرتبط با واحدهای منابع انسانی و بازاریابی به آشنایی با مبانی نحوه عملکرد هوش مصنوعی و چگونگی بروز خطرات اخلاقی هوش مصنوعی، شاید در ابتدا امری ناممکن باشد. اما این تجربه، پیش از این در خصوص امنیت سایبری در بسیاری موارد ایجاد شده است و سازمانهای متعددی موفق شدهاند که سواد و آگاهی در مورد خطرات مربوط به امنیت سایبری را در سطح سازمان ایجاد نمایند؛ در حالی که تحقق این امر، غیرممکن به نظر میرسید. در این راستا باید توجه داشته باشید که اگر افراد شما اصول اولیه مرتبط با هوش مصنوعی را ندانند، هنگام انجام وظایف خود قادر نیستند سوالات درستی (مثلاً از فروشندگان محصولات مبتنی بر هوش مصنوعی) در خصوص ویژگیهای محصول بپرسند.
2) ارتباط با مشتریان را جدی بگیرید.
مشتریان مهمترین سرمایه هر شرکت یا سازمانی هستند و در صورت احساس سوء استفاده، اعتماد خود را از دست میدهند. این در حالی است که معمولاً در صورت قرار گرفتن در جریان توسعه محصولات، انعطافپذیری خوبی از خود نشان میدهند؛ بیشتر از حدی که شرکتها انتظار دارند! با این کار، از طرفی میتوان از لاک محافظهکاری در توسعه محصولات خارج شده و از طرف دیگر، اعتماد مشتری به شرکت یا سازمان و درک مشتری از اهمیت خود برای سازمان را افزایش داد. مهمتر از همه، الگوریتمهای هوش مصنوعی در حین فرآیند آموزش اطلاعاتی بیشتری در خصوص سلیقه مشتری پیدا کرده و خروجی آنها با استقبال بالاتری روبرو خواهد شد.
3) ارتباطات خود را متناسب با مخاطبان خود تنظیم کنید.
رهبران ارشد که خود را مسئول حفظ شهرت برند خود میدانند علاقهمندند از خطراتی که این شهرت را تهدید میکند، جلوگیری کنند. بنابراین، صحبت از «ریسکهای اخلاقی و شهرت» و ارتباط اخلاق هوش مصنوعی را با نگرانیها و مسئولیتها برای آنها مهم است. اما در طرف دیگر، طراحان محصولات معمولاً کمتر نگران این موضوعات در فرآیند تهیه محصولات هستند. بنابراین، توضیح اینکه چگونه اخلاق هوش مصنوعی به بهبود طراحی محصول آنها منجر میشود – بهویژه، تأکید بر نگاه کاربران و شهروندان به محصولات تولیدی آنان – میتواند بسیار موثر باشد. متخصصان و مهندسان داده، مدلهای قوی میخواهند که کارآمد باشد. صحبت با زبان مورد علاقه آنها به معنای توضیح چگونگی کاهش bias در الگوریتمها در این مسیر، مفید خواهد بود. بالاخره، هیچ کس نمیخواهد یک مدل نادرست یا غیرقابل استفاده بسازد.
4) ایجاد آگاهی سازمانی را با مأموریت یا هدف شرکت گره بزنید.
اخلاق در هوش مصنوعی را با فرهنگ سازمانی ادغام کنید. توضیح دهید که چگونه مدیریت ریسکهای اخلاقی در امتداد آن مأموریت است و نشاندهنده آن چیزی است که شما نمیخواهید انجام دهید. به عنوان مثال، ممکن است ماموریت شما ارائه بهترین مشاوره مالی ممکن باشد. اما نمیتوانید این مشاوره را بدون اعتماد مردم به خود و با سهلانگاری در استفاده از هوش مصنوعی ارائه دهید. وقتی هوش مصنوعی اشتباه میکند، اشتباه در مقیاس اتفاق میافتد و «بخش قابل توجهی» از مشتریان از دست میروند. بنابراین، محافظت از مشتریان در گرو استقرار برنامه مسئولانه و قابل اعتماد در خصوص اخلاق درAI است.
5) اخلاق در هوش مصنوعی را به روشی عملیاتی محقق کنید.
بین ارائه شعارهایی مانند «برای ما حفظ حریم خصوصی مهم است» یا «ما به حریم خصوصی احترام میگذاریم» با تحقق آن در فرآیندها مبتنی بر اصولی نظیر «عدم فروش دادههای مشتریان به شرکتهای طرف سوم» یا «ناشناسسازی دادهها برای اشتراکگذاری با شرکتهای طرف سوم» فاصله زیادی است. باید این ارزشها از دایره روابط عمومیها خارج شده و به کنشهای سازمانی در ارائه خدمات دادهمحور منتج شود.
6) آموزش مداوم؛
ایجاد آگاهی سازمانی کاری نیست که شما بعد از ظهر چهارشنبه به آن بپردازید! این امر به نقاط تماس مداوم و متنوعی از بلندگوهای داخلی و خارجی، برگزاری کارگاهها، انتشار خبرنامهها و نظایر آن نیاز دارد. هوش مصنوعی و فناوریهای نوظهور دائماً در تحول هستند و با این تغییرات، منابع جدیدی از ریسکهای اخلاقی به وجود میآیند. برای اطمینان از این که سازمان شما خیلی عقب نیست، آموزش مداوم یک سنگر مهم در برابر موج فزاینده پیشرفتهای فنی خواهد بود.
مراجع
I. A. Hamilton, "Why it's totally unsurprising that Amazon's recruitment AI was biased against women," Business Insider, 13 Oct 2018. [Online]. Available: https://www.businessinsider.com/amazon-ai-biased-against-women-no-surprise-sandra-wachter-2018-10?IR=T.
Beena Ammanath and Reid Blackman, "Everyone in Your Organization Needs to Understand AI Ethics," Harvard Business Review, 2021.
[1] Artificial Intelligence (AI)
[2] Black-box algorithms
[3] Chief Data Officer (CDO)
[4] Reputation
[5] AI ethical risk program
[6] Data scientists and engineers
[7] Discriminatory Algorithms
مطلبی دیگر از این انتشارات
ابهامزدایی و بازشناسی نقشها در نوآوری شهری
مطلبی دیگر از این انتشارات
جنبههای زیستبوم شهر هوشمند مسکو
مطلبی دیگر از این انتشارات
هشت روند آتی در حوزه تحلیل داده