اصل متن توسط رویا پاکزاد و به زبان انگلیسی نوشته شده است. با تشکر از پ. برای ترجمه.
من اصلا از تستهای شخصیتشناسی خوشم نمیاد!
مهم نیست که چیزی که دربارهت میگن درست باشه یا غلط، دوست ندارم درک مردم از من به چهار حرف، یا پنج عدد، یا چند نشونه خلاصه بشه. اگر بخوام میتونم صفحهها راجع به این بنویسم که چطور این «درک» سرسری و بیدقت از شخصیت آدمها میتونه منجر به تبعیض در محل کار، قضاوتهای اشتباه، یا تجاوز به حریم شخصی اونها بشه، اما هدف این پست این نیست - هر چند که همین موضوع انگیزهی نوشتن این مطب بوده.
در اینجا، روی یکی از اشکال جدید تست شخصیت تمرکز میکنم که بر اساس یادگیری ماشین ساخته شده. تست مورد نظر من متعلق به شرکت IBM Watson هست با نام ادراکات شخصیتی (Personality Insights). اونطور که سایت IBM مدعی شده، این ابزار «از تحلیلگرهای زبانی استفاده میکند تا ویژگیهای شخصیتی ذاتی فرد، شامل پنج اصل (یا O.C.E.A.N)، نیازها و ارزشهایش را از طریق ارتباطات دیجیتال مانند ایمیل، پیامهای متنی، توییتها، و پستهای فرومها، استخراج کند.»
بذارین بهتون بگم این یعنی چه: من محتوای توییترم رو وارد این ابزار کردم و به عنوان خروجی نتیجهی زیر رو دریافت کردم که فرضا قراره نشوندهندهی ویژگیهای شخصیتی، نیازهای مصرفی و ارزشهای من باشه:
اگه به فایل خروجی که اینجا در دسترسه دقت کنید میبینید که، براساس نتیجهگیری این ابزار من آدمی هستم که احتمالا «هنگام خرید محصول تحت تاثیر تبلیغات آنلاین قرار میگیرم.» علاوه بر این، احتمالا آدمی هستم که دغدغههای محیط زیستی دارم و به دیدن مستند علاقه دارم و احتمال اینکه فیلمهای موزیکال رو دوست داشته باشم کمتره (اعتراض: راستش یکی از سریالهای مورد علاقهی این روزام Crazy Ex-Girlfriend هست که اتفاقا موزیکاله).
بعد از دیدن این نتایج، ذهن منفیبافم سریع رفت سمت شرکت Cambridge Analytica، شرکتی که از فعالیتهای شبکههای اجتماعی افراد استفاده کرده بود تا شرح حال روانی و ترجیحات سیاسیشون رو حدس بزنه و بر اساس اون رفتارشون تو انتخابات رو پیشبینی کنه.
بنابراین به عنوان یک محقق در زمینهی تکنولوژی و حقوق بشر، تصمیم گرفتم که در مورد این ابزار تحقیق بیشتری کنم.
در اینجا یه مرور کلی خواهیم داشت که بخشی از اون بر اساس صفحهی GitHub ادراکات شخصیتی IBM و یک سری مستندات منتشر شدهی دیگهست:
? ورودی: ادراکات شخصیتی توییتها، ایمیلها، پیامهای متنی، پستهای وبلاگی، و/یا هرچیزی که فردی که شخصیتش قراره مورد ارزیابی قرار بگیره رو دریافت میکنه. این ابزار در حال حاضر زبانهای انگلیسی، اسپانیایی، ژاپنی، کرهای، و عربی رو طبق گفتهی وبسایتش پشتیبانی میکنه، نتایج این ابزار برای زبانهای عربی و کرهای اونقدر خوب نیست و نمیشه روش حساب کرد. کمترین میزان کلمهای که میتونین وارد ابزار کنید تا نتیجه بگیرید ۱۰۰ کلمهست، البته، برای اینکه نتیجه دقت لازم رو داشته باشه حدود ۳۰۰۰ کلمه برای متن ورودی لازم دارید. (demo و مستندات IBM جزییات بیشتری از نوع دادهی قابل قبول ارائه کردهان.)
? خروجی: بعد از پردازش دادههای ورودی، ابزار نتیجهی کامل رو ارائه میکنه ( با فرمت JSON یا CSV) که ۵۲ ویژگی شخصیتی شما به ترتیب امتیازی و همچنین رفتار مصرفی شما رو نشون میده. امتیاز بر اساس درصدی از جامعهی نمونه بیان میشه. مثلا، اگه ویژگی «ماجراجویی» من براساس چیزهایی که مینویسم امتیاز ۰.۲۵ گرفته باشه به این معنیه که من از ۲۵٪ جامعه نمونه ماجراجوترم و از ۷۵٪ اونها کمتر ماجراجو هستم.
نکته: جامعهی نمونه از کاربران توییتری تشکیل شده که اطلاعات خودشون رو برای تحلیل در اختیار ابزار ادراکات شخصیتی شرکت IBM گذاشته بودن. جامعهی نمونه برای زبان انگلیسی یک میلیون کاربر، برای زبان عربی و ژاپنی صدهزار کاربر و برای زبان اسپانیایی هشتادهزار کاربره.
شاخصههای فردی جامعهی نمونه، مثل سن، جنسیت، سطح سواد و غیره، جایی عنوان نشده بود.
ابزار یه امتیاز خام هم در اختیار شما قرار میده که میتونید اگه خواستید برای مقایسهی خودتون با جامعه نمونهی دلخواه خودتون ازش استفاده کنید ( برای مثال امتیاز شما در مقایسه با کارکنان شرکتی که توش کار میکنید).
برای کسب اطلاعات بیشتر راجع به فرمت خروجی و تفسیرش به اینجا و اینجا مراجعه کنید.
? مدل: روش بنیادی این ابزار بر اساس رویکرد open-vocabulary هست. این روش رو محققان دانشگاه پنسیلوانیا ارائه دادن که روی تحلیل استاتوسهای فیسبوک ۷۵۰۰۰ کاربر داوطلب کار میکردن. بر اساس این تحلیل و اضافه کردن پرسشنامههای شخصیتی، اونها تونستن مدلهایی رو بسازن که بر اساس استاتوسها، سن، جنسیت و شخصیت فرد رو میتونه پیشبینی کنه.
البته ورژنهای اولیهی ابزار ادراکات شخصیتی از تحقیق زبانشناسی و فرهنگ لغت روانشناسی-زبانی شمارش واژه (LIWC) استفاده میکرد. (برای اطلاعات بیشتر دربارهی فرهنگ لغت LIWC میتونین به اینجا مراجعه کنین.)
پژوهشگران IBM برای ساختن ابزار ادراکات شخصیتی، یک سری مطالعات انجام دادن و مدلهای یادگیری ماشین متعددی رو ساختن که بتونن رابطهی بین فعالیت توییتر افراد و ویژگیهای شخصیتیشون رو درک کنن. برای مثال، با مطالعهی ۳۵۰۰ کاربر توییتر، متوجه شدن که افرادی که بیشتر ریتوییت میکنن احتمال اینکه به عنوان فردی متواضع، روراست و خودمانی به حساب بیان، بیشتره. ( لینک مطالعات)
به طور خلاصه، ابزار ادراکات شخصیتی از تکنیک تعبیه کلمات GloVe برای ساختن یک جانشین برداری به ازای هر کلمهی متن ورودی استفاده میکنه. بعد اونها رو وارد یه الگوریتم یادگیری ماشین میکنه تا تست بشن و روشون کار انجام بشه (توضیح بیشتری دربارهی جزییات این الگوریتم داده نشده؛ گرچه محققین IBM تو مطالعهای با عنوان ۲۵ توییت تا شناختن شما: مدلی جدید برای پیشبینی شخصیت بر اساس شبکههای اجتماعی، ویژگیهای تکنیک تعبیه کلمات GloVe رو با رگرسیون فرایند گاوسی ترکیب کردن تا ویژگیهای شخصیتی رو استخراج کنن.)
? آموزش: این مدل بر اساس پرسشنامههای پخش شده بین هزاران کاربر، به همراه اطلاعات به دست اومده از توییتر اونها آموزش داده میشه. اطلاعات بیشتری راجع به ترکیب جمعیتی اونها (سن، جنسیت، زبان، سطح سواد) وجود نداره، اما مطالعات قبلی IBM بیشتر از اطلاعات توییتر و پرسشنامههایی که کاربران انگلیسی زبان پر کرده بودن مدلهاشون رو آموزش داده و تست میکردن.
⚖️ معیارهای سنجش: برای فهمیدن دقت ابزار ادراکات شخصیتی، شرکت IBM یک مطالعهی اعتبارسنجی ترتیب داد و پرسشنامههای پاسخ داده شده و فید توییتر ۱۵۰۰ تا ۲۰۰۰ شرکت کننده در همهی زبانها رو استفاده کرد. بعد امتیازات به دست اومده از نظرسنجی رو با امتیازات ابزار ادراکات شخصیتی و خطای مطلق میانگین (MAE) و میانگین همبستگی بین دو امتیاز مربوط به موضوعات مختلف ویژگیهای شخصیتی مقایسه کردن. (در نظر داشته باشید که MAE عددی بین صفر و یکه، و صفر یعنی امتیاز پیشبینی شده دقیقا مساویه با امتیاز واقعی (پرسشنامه)، و یک یعنی ماکزیمم خطا. همبستگی عددی بین منفی یک و یکه. در نظر داشته باشید که بهترین همبستگی میانگین عدد ۰.۳۵ هست که خیلی بالا نیست، اما برا اساس چیزی که وبسایت IBM گفته تو ادبیات تحقیق این حوزه، همبستگیهای بالای ۰.۲ قابل قبول به حساب میاد.)
خب بعد از کسب یه کمی اطلاعات دربارهی روش کار این ابزار، تصمیم گرفتم یه سری آزمایش که در ادامه راجع بهشون حرف میزنم رو انجام بدم:
فرض کنیم من برای کاری درخواست پر کردم که از الزاماتش وبلاگ نوشتن هم هست. شرکت مربوطه از من میخواد که نمونه نوشتههام رو براشون بفرستم و من تصمیم میگیرم اونا رو به پستهای قبلی وبلاگم ارجاع بدم. مدیر بخش استخدام هم برنامهش اینه که با استفاده از ابزار اداراکات شخصیتی یه چیزایی دربارهی من دستگیرش بشه؛ و سه تا از پستهای قبلی وبلاگ منو وارد ابزار میکنه (Swipe Left: Privacy Practices of Online Dating Apps, Tech workers of the world, unite for human rights!, and Announcing the Humane AI newsletter) و نتیجهش رو میگیره. بعد متوجه میشه که با توجه به این ابزار من تو زمینههای «نظم و ترتیب»، «وظیفهشناسی»، و «اجتماعی بودن» افتضاحم! آره دقیقا همون ویژگیهای خوبی که رییست میخواد که حتما داشته باشی...
چطوری میتونم درستش کنم؟ ? ممکنه بخوام توی متنهام یه تغییرات کوچیکی انجام بدم تا نتایج رو تغییر بده و اینطوری خودم رو کاندیدای بهتری برای این شغل معرفی کنم. وقتی بیشتر دربارهی فرهنگ لغت LIWC مطالعه کردم فهمیدم که استفادهی مکرر از یک سری دسته لغت خاص، با ویژگیهای شخصیتی ارتباط مستقیم داره. بنابراین تصمیم گرفتم که ضمیرهای اول شخص مفرد رو تبدیل به جمع کنم و روی متن اصلی یک سری اصلاحات ریز انجام دادم.
تغییراتی که روی متن اعمال کردم رو در ادامه میتونید ببینید (که به رنگ سبز کدگذاری شده):
ماموریت با موفقیت انجام شد! فقط با چند تغییر کوچیک (مثل حذف کردن کلماتی که ممکنه منفی یا خودخواهانه به نظر بیان، مثلا «نگران»، «مال من» و «خودم») ویژگیهای شخصیتیام رو طوری بهبود دادم که دیگه یه شخص قابل اعتمادتر و وظیفهشناستر به نظر بیام، ایدهآل برای استخدام!
یک جایی وسط این تغییرات، علایق احساسی و هنریم رو هم از دست دادم. علاوه بر این، این رو هم در نظر داشته باشید که این نتایج –چه متن اصلی وبلاگم و چه متن تغییر داده شده- با نتایجی که بر اساس توییترم به دست اومده بود (که اول این پست نشون داده بودم) کاملا متفاوتن. فایلهای ورودی و خروجی رو میتونید از اینجا ببینید.
تو آزمایش دوم، تصمیم گرفتم سخنرانیهای عمومی ایلهان عمر (نمایندهی مسلمان مجلس نمایندگان ایالات متحده) رو به عنوان ورودی به ابزار بدم. درست مثل آزمایش قبلی، متن رو طبق چیزی که در ادامه میبینید تغییرات جزییای دادم:
و نتیجه این شد که میبینید. تغییرات خیلی چشمگیر نیستن اما باز هم باعث شد به فکر فرو برم که تو مقیاس بزرگتر ممکنه چه تاثیری داشته باشن! (برای دیدن فایلهای ورودی و خروجی اینجا رو ببینید).
با بهکارگرفتن همچین مثالی، قصد ندارم نتیجه بگیرم که ادراکات شخصیتی IBM علیه گروه مذهبی خاصی رفتار تبعیضآمیز داره. ولی میخوام نشون بدم که حتما یک متغیر یا ترکیبی از متغیرها یا نوعی الگو درون دادههای آموزشی (یا قسمت ارائهی واژگان GloVe یا مدل نهایی) وجود داره که چنین تفاوتهایی رو ایجاد کرده و درک منطقی که پشت این تفاوتها وجود داره، خیلی ارزشمنده.
تا وقتی این مدل مثل یه جعبه سیاه اطلاعاتش نامشخص باشه، نمیتونیم منطق تغییراتی که توی خروجی به وجود میاد رو تفسیر کنیم. نگرانی من اینه که این عدم شفافیت در روشهای تصمیمگیری ابزار، میتونه برای بعضی گروههای مذهبی آسیبزا باشه. مثلا فرض کنیم که دولت بخواد از این ابزار برای بررسی اپلیکیشنها و درک ویژگیهای شخصیتی افراد پناهجو استفاده کنه که تو کشور خودشون بخاطر نوشتن و فعالیتهای مذهبیشون محکوم شده باشن.
میشه آزمایشهای زیادی طراحی کرد که باهاش ابزار ادراکات شخصیتی رو تست کنیم. ولی برای من بیشتر پیامدهای اخلاقی و حقوقی این ابزار اهمیت داره. چه موارد کاربردی واقعیای وجود داره؟ این ابزار روی حق و حقوق اشتغال ما چه تاثیری میتونه داشته باشه؟ روی حریم خصوصی؟ آزادی بیان و عقیده؟ برای جلوگیری از ریسک پیامدهای مضر احتمالی، IBM چه کارهایی میتونه انجام بده؟
برای اینکه درک بهتری از پیامدهای اخلاقی و حقوقی این ابزار داشته باشم، از «اصول راهنمای تجارت و حقوق بشر سازمان ملل» یا UN Guiding Principles on Business and Human Rights به عنوان راهنما استفاده کردم که بتونم درک کنم که در موارد مختلف چطور حقوق گروههای آسیبپذیر ممکنه تحت تاثیر قرار بگیره. در اینفوگرافیکی که میبینید، سعی کردم منظورم رو از UNGP و «سنجش اثرات حقوق بشری» نشون بدم.
شرکت IBM ادعا میکنه که ابزار ادراکات شخصیتی میتونه برای اهداف بازاریابی و جذب مشتری، ایجاد ارتباط بین افراد (مثلا زوجیابی، پیدا کردن دکتر و...)، و نوشتن رزومه مورد استفاده قرار بگیره. علاوه براین کاربردهای خاصی هم برای این ابزار وجود داره مثل «پایش و پیشبینی سلامت روانی» و «پایش عناصر رادیکال و نابهنجار از طریق شبکههای اجتماعی» (شناسایی کردن نشانههای زودهنگام رادیکالیزه شدن).
وقتی داشتم پستهای وبلاگ IBM رو دربارهی بعضی مواردی که در اون از ابزار ادراکات شخصیتی استفاده شده مطالعه میکردم، دو کاربردی که در ادامه میگم نظرم رو جلب کرد.
به نظر من، دربارهی موارد اشاره شده در بالا، مهمترین نگرانیهایی که در مورد حقوق افراد وجود داره اینها هستند:
حق برابری و آزادی از تبعیض (بند۲ بیانیهی جهانی حقوق بشر یا UDHR)
حق داشتن شرایط عادلانه و مطلوب کاری و فرصتهای شغلی برابر (بند ۲۳ UDHR؛ عنوان هفتم حقوق شهروندی قانون ۱۹۶۴ آمریکا)
شاید براتون سوال باشه که چرا این قطعه از بیانهی جهانی حقوق بشر به موضوع بحثمون مرتبطه؟ الان با یه مثال براتون میگم:
انگلیسی زبان دوم منه. اگه شما ایرانی باشید - یا دوستهای ایرانی داشته باشید- میدونید که ما گاهی موقع صحبت کردن و نوشتن به انگلیسی حروف تعریف (a, an, the) رو جا میندازیم. بعضی وقتها هم پیش میاد که he و she رو به جای هم به کار میبریم چون تو فارسی ضمیرها جنسیتی نیست.
افراد مختلف عادتهای نوشتاری و گفتاری متفاوتی دارن. آیا این اشتباهات لپی امتیاز شخصیتی من رو تو ابزار پایین میاره؟ اگه یکی از شرکتهایی که اسمشون آورده شده بخواد متن مصاحبهی من یا یکی از نوشتههام رو برای ارزیابی استفاده کنه که تصمیم بگیره من رو استخدام کنه یا بهم ترفیع بده یا نه، در مقابل یه فردی که انگلیسی زبان مادریش هست من چه فرقی خواهم داشت؟
در پروژهای به نام «مراقب کلماتت باش» که انجمن ۲۰۱۹ هاروارد/امآیتی انجام داده بود، محققین نشون دادن که غلطهای املایی و استفادهی متفاوت از فاصله و ضمایر میتونه چه تاثیر چشمگیری روی نتیجهای که سیستمهای پردازندهی زبانی معمول به ما میدن، داشته باشه. مطالعات دیگری هم وجود داره که روی نابرابری نژادی که سیستمهای NLP بین توییتهای انگلیسی آفریقایی-آمریکایی ها و سایر آمریکاییها قائل میشن، متمرکز شده. بعلاوه، محققین به مشکل بزرگی اشاره کردن بعنوان کلیشهها و تعصبات جنسیتی در مفهوم کلمات، که ابراز ادراکات شخصیتی خیلی وسیع ازش استفاده میکنه.
خلاصه اینکه، این فاکتورها باعث میشن که اگر بخوان کارکنان رو با ابزارهایی مثل ادراکات شخصیتی ارزیابی کنن، حفظ «شرایط کاری عادلانه و مطلوب» کار خیلی سختی باشه.
اما این همهی ماجرا نیست. موارد بسیار زیاد دیگهای هم وجود دارن که در اونها هم حقوق فردی کارکنان ممکنه تحت تاثیر قرار بگیره و محدود بشه. دو نمونه دیگه از مواردی که ممکنه این ابزار حقوق افراد رو زیر پا بذاره یا محدود کنه هم میگم:
حق آزادی بیان و عقیده (بند ۱۹ UDHR)
حق آزادی گردهمایی و تجمعات صلحآمیز، حق سازماندهی و مذاکرهی جمعی (بند ۲۰ UDHR، بیانیه ILO در مورد قواعد و حقوق اساسی در کار)
بیاین دوباره برگردیم به آزمایشی که رو پست وبلاگم انجام داده بودم. همونطوری که ممکنه یادتون باشه، با یک سری تغییرات جزیی تونستم کاری کنم که کاندیدای شغلی قابل اعتمادتر و وظیفهشناستری به نظر بیام. پس اگه بدونم که قراره براساس توییتهام در مورد آیندهی شغلیام تصمیم گرفته بشه، این مساله روی اینکه چی مینویسم و چطور مینویسم تاثیر نخواهد گذاشت؟
اگه به دلایل نامشخصی (براساس قوانین نامشخصی که ابزار داره) امتیاز ویژگی «به چالش کشیدن قدرت» من بالا باشه، این باعث میشه مدیران اون شرکت در مورد من گارد داشته باشن؟
در طول چندسال گذشته، کارکنان حوزهی تکنولوژی و سازمانهای کارگری اعتراضات زیادی برای محکوم کردن نوع فعالیتهای شرکتها انجام دادند و خواستار شفافیت بیشتر شدن. آیا کمپانیهایی مثل Palantir، Amazon، Uber یا هر کمپانی دیگهای از ابزارهایی مثل ابزار ادراکات شخصیتی استفاده میکنه و امتیاز مربوط به ویژگی «به چالش کشیدن قدرت» رو در کارکنانش براساس ارتباطات ایمیلی، توییتها یا پستهای فرومهای عمومی رو از این طریق ارزیابی میکنه؟ آیا این کار مغایر با حق کارکنان برای آزادی اعتراض صلح آمیز و سازماندهی نیست؟
یه مثال دیگه هم براتون میزنم:
حق برخورداری از حریم خصوصی (بند ۱۲ UDHR)
شرکت IBM ادعا میکنه که ابزار ادراکات شخصیتی یه ابزار stateless؛ یعنی «هیچ محتوایی (شامل هرگونه اطلاعات شخصی فرد) در این سرویس ابری ذخیره نمیشود» این خبر خوبیه، البته به نظر من. اما نگرانی من فقط این نیست که آیا IBM خودش این دادهها رو ذخیره میکنه یا نه، بلکه راجع به وجود اون توسعهدهندههای شخص ثالثی نگرانم که از API ادراکات شخصیتی برای اپلیکیشنهای خودشون استفاده میکنن. براساس چیزی که IBM میگه «مشتریان مسئولند که در مورد سازگاری مسائل خود با قوانین و مقررات مختلف اطمینان کسب کنند، شامل قانون حفاظت از دادههای عمومی اتحادیه اروپا. [...] IBM هیچگونه مشاورهی حقوقی، حسابداری یا حسابرسی ارائه نمیکند یا گارانتی نمیکند که هیچیک از خدمات یا محصولاتش در مورد سازگاری با قوانین یا مقررات برای مشتریان قابل قبول باشد.» (منبع)
طرح Lite شرکت IBM به شما اجازه میده بدون پرداخت هیچ هزینهای ۱۰۰۰ درخواست API در ماه برای ابزار ادراکات شخصیتی داشته باشید.خلاصه اینکه، هرکسی به هر دلیلی، میتونه از ابزار ادراکات شخصیتی استفاده کنه و شخصیت شما رو بر اساس نوشتههای عمومیتون، یا ارتباطات ایمیلیتون یا فعالیتهای شبکههای اجتماعیتون نتیجهگیری کنه- بدون اینکه حتی به شما اطلاع داده بشه.
اونچه که من تو این پست نوشتم فقط نمونهای از خروارها سیستمهای یادگیری ماشین جعبه-سیاه ماننده که اخیرا به سرعت در حال تکثیرن – شرکت IBM Watson بههرحال یکی از هزاران مورده- که میتونن عواقب ناخواستهای داشته باشن. درسته، شکی نیست که موارد استفادهی معتبری برای این ابزار و ابزارهای دیگه مثل این وجود داره. اما به نظر میاد که اثرات بالقوهی اون به خوبی در نظر گرفته نشده بود: چطور میتونیم اطمینان کسب کنیم که فواید چنین ابزاری از آسیبهای احتمالی که برای ضعیفترین اقشار جامعه ممکنه داشته باشه بیشتره؟
اگه شما یک توسعه دهنده هستید که میخواید از هرگونه سرویسهای ML مبتنی بر فضای ابری برای اپلیکیشن شخصی خودتون استفاده کنید، بهتون قویا توصیه میکنم که مستندات اون سرویس رو زیر و رو کنید و مسائل مربوط به اخلاقیات و حقوق فردی و اجتماعی رو بررسی کنید. سناریوهای فرضی بسازید و قبل از اینکه بخواید ازش استفاده کنید ابزار رو با اونها تست کنید و ببینید چه تاثیری ممکنه روی افراد و گروههای مختلف مثل اقلیتهای جنسی و جنسیتی، کودکان، اقلیتهای مذهبی، پناهجویان، و غیره میتونه داشته باشه. ببینید که هر چندوقت یه بار سرویسها و مستنداتشون رو آپدیت میکنن. و همیشه به تاثیرات و کاربردهای بزرگتر فکر کنید. (ممکنه روش کاری که تو این دو پست استفاده شده به دردتون بخوره: تعصب جنسیتی و نژادی در APIهای احساسات مبتنی بر فضای ابری NLP، از بین رفتن کیفیت: تکامل ضمنی سرویسهای بینشی کامپیوتری).
و در آخر، در مورد خود شرکت IBM، فقط یه درخواست دارم.
این «فکت شیت» که کارکنان خودتون در تیم تحقیقاتی IBM پیشنهاد کردن رو پر کنید و به طور عمومی منتشرش کنید: فکت شیتها: اعتماد فزاینده به سرویسهای AI از طریق سند تضمین اعتبار از سوی تهیه کننده. اگه نمیتونید ساختن ابزارهای جعبه سیاه مانند رو متوقف کنید، حداقل به پیشنهاد کارکنان خودتون عمل کنید و یه «فکت شیت» منتشر کنید. شفاف عمل کنید و نشون بدید میتونید یه نمونهی خوب از کاربرد یادگیری ماشین باشید، نه یه نمونهی بد.