تفسیر پذیری، تفسیر پذیری و تفسیر پذیری. با افزایش روز افزون تکنولوژی های هوش مصنوعی و راه یافتن اونها در کارهایی که تا به امروز انسان ها اپراتور های اصلی بودند یه سری مفاهیمی اهمیت بیشتری پیدا کردن. یکی از این مفاهیم که اخیرا شاید در موردش بیشتر شنیده باشید تفسیرپذیریه (interpretability). مخصوصا وقتی هوش مصنوعی قراره جای افرادی رو بگیره که کارهای حساس تری دارن و اشتباه در اونها ممکنه باعث به خطر افتادن جان انسان ها بشه. که خب یکی از اون حوزه ها همین حوزه ی سلامت هستش. من در این مقاله میخوام در مورد تفسیر پذیری در هوش مصنوعی دنیای سلامت و برخی از تفکرات حوالی اون صحبت کنم.
تفسیر پذیری هوش مصنوعی به معنای توانایی درک و تفسیر عملکرد و تصمیمات یک مدل هوش مصنوعیه. با توجه به اینکه اکثرا مدل های هوش مصنوعی برای ما جعبه های سیاهی هستند که نمیدونیم داخل اونها چه چیزی میگذره، فهمیدن اینکه چگونه این سیستمها به تصمیمات خودشون میرسن و چه اطلاعاتی رو برای این تصمیمات استفاده میکنن برای ما اهمیت بالایی داره. شاید بشه توضیحات زیادی در مورد علت مورد نیاز بودن تفسیر پذیری و توضیح الگوریتم های هوش مصنوعی داد اما من دوست دارم یک مثالی از ویدیویی که پایین میزارم و شاید وقت نکنید کامل ببینید براتون بگم. این خانم، فیناله دوشی (Finale Doshi-Velez) به همراه همکاراش در یک مقاله یک مدل طراحی میکنه که به کمک اطلاعاتی که از طریق اطلاعاتی که از بیماران زیادی گرفته بودن پیش بینی میکنه که مریض داخل ICU چند روز دیگه زنده میمونه و خب با دقت بالایی این کار رو انجام میداد. همه چی خوب بود و همه خوشحال بودن تا اینکه پزشکان ازشون پرسیدن که چطور این سطح از دقت امکان پذیره؟اونها تصمیم گرفتن ببینن مدل از کدوم یکی از داده های مریض برای تشخیص داره استفاده میکنه. اونها متوجه شدن که مدل اکثر اوقات از حجم داده هایی که بهش داده بودن استفاده نمیکنه و درعوض این مسیر رو یادگرفته که وقتی پزشک در دستورات بیمار عبارت «فراخواندن کشیش بیمارستان» رو مینویسه به احتمال زیاد زمان مرگ بیمار نزدیکه و این باعث میشه بتونه زمان مرگ رو با دقت بالایی حدس بزنه. خب این اتفاق هم جالبه و هم نا امید کننده. اما چیزی که میشه ازش یاد گرفت اینه که بعضی وقت ها ما مدل هایی رو میسازیم که لزوما قرار نیست کار درست رو در هر شرایطی انجام بدن. فرض کنید همین مدل قرار بود در مرکز دیگه ای به کار گرفته بشه برای تشخیص زمان مرگ و در اون مرکز خبری از دستور «فراخواندن کشیش بیمارستان» نبودِ در این صورت مسلما الگوریتم ما با درصد خطای بالایی مواجه میشد. اما فینالی به درستی و خیلی زیبا در این مورد توضیح میده که لزوما منظور ما از تفسیر پذیر بودن توضیح تک تک اتفاقات و جابه جایی بیت ها در کامپیوتر برای به دست آوردن نتیجه نیست، بلکه ما به عنوان استفاده کنندگان از این تکنولوژی نیاز داریم تا کلیت مسیر تصمیم گیری مدل رو بدونیم و به عبارتی برای ما نتیجه قابل توضیح باشه. البته فکر میکنم در نهایت توضیحات من به اندازه ی صحبت خود فینالی شیوا نباشه و اگر وقت داشتید حتما تدتاک خودش رو گوش کنید.
اهمیت تفسیرپذیری خودش رو در قانون گذاری هم نشون میده و در کشور هایی که در قانون گذاری و پیش بینی آینده پیشرو تر هستند، مدل هوش مصنوعی برای اینکه بتونه صلاحیت لازم برای انجام کارهای حساستر رو داشته باشه یکی از استاندارد ها تفسیرپذیر بودن یا توضیح پذیر بودن اون مدله. واقعیت اینه که مثل هر محصولی که در دنیای درن ما وارد میشه، وقتی کمی بیشتر در دنیای هوش مصنوعی گشت بزنید متوجه میشید که توسعه دهندگان و کاربران در دو گروه قرار دارن. گروهی از این افراد بر این عقیدن که قانون گذاری ها و رگولیشن های بیشتر باعث میشه بر سر راه خلاقیت توسعه دهندگان یک مانع ایجاد بشه و دست اونها برای ساختن و امتحان کردن چیزهای بیشتری که ممکنه یکی از اونها فردای مارو بسازه کمتر میشه. گروهی دیگه بر این عقیدن که در صورتی که ما رگولیشن های لازم رو انجام ندیم، هر گونه آسیبی که در نهایت ممکنه با عملکرد اشتباه به ما انسان ها وارد بکنه در مقابل تمام خوبی های اون میتونه ناچیز باشه، در واقع شاید اینکه الان جلوی اتفاق های بد رو نگیریم، وقتی در سراشیبی لغزنده بیوفتیم به مراتب اشتباه های بیشتر و تهدید کننده تری برای بشر رخ بده. تاریخ نشون داده که نتیجه ی نهایی معمولا چیزی قابل پیرش برای هر دو گروهه. از طرفی رگولیشن ها به قدری نخواهند بود که خلاقیت رو محدود کنن و به قدری هم شل نخواهند بود که باعث بشه در سراشیبی به سمت پایین بره. (حداقل امیدوارم اینطور باشه)
احتمالا من اینجا بیشتر در مورد تفسیر پذیری بنویسم و در مورد زوایای فراوانی که میشه به این موضوع نگاه کرد صحبت کنم.