Roozbahani
Roozbahani
خواندن ۸ دقیقه·۳ سال پیش

مشکل فلسفی-اخلاقی اعتماد به هوش مصنوعی جعبه سیاه: مدلسازی جعبه سیاه در برابر جعبه سفید

توضیحات من- محمد حسین روزبهانی: در مقطع کارشناسی ارشد، 13-14 سال پیش، اولین تلاش هایم برای بکارگیری هوش مصنوعی در مهندسی مکانیک رو با استفاده از شبکه های عصبی مصنوعی اغاز کردم. آن روزها خیلی از اساتید و داوران سوالات زیادی درباره اینکه شبکه عصبی مصنوعی چگونه پیش بینی می کند، چگونه آموزش می بیند داشتند، پس رفتم و تا اولین مقاله معرفی شبکه های عصبی مصنوعی که یک استاد مهندسی برق از الگوهای زیستی موفق به مدلسازی ریاضیاتی شده بود تا خیلی منابع دیگر و بروز تر را مطالعه کردم و هر اندازه من به خیال خود توضیح خیلی روانی می دادم اما افراد همچنان می گفتند این هم یک روش میانگین یابی یا برون یابی بیش نیست! و اصل مسئله زیر سوال می رفت. بعدها متوجه شدم از اساس یک گنگی و نامشخصی در اینکه چرا چنین مکانیزم عمکلردی بین وزن ها و توابع مثلا سیگموئیدی وجود دارد. اصلا برای همین است که این روش ها در یادگیری ماشین و هوش مصنوعی به بلک باکس معروف شده اند. به لحاظ فلسفی و اخلاقی این الگوی اعتماد به هوش مصنوعی جعبه سیاه بابت دقت بالایش چالشی شده است که از دانشگاه MIT گرفته تا مایکروسافت و شرکت های بزرگ دیگر را در چند سال اخیر به خود مشغول داشته است. چیزی که متاسفانه در عشق و سودای هوشمند شدن سازمان ها و شهر ها در ایران کمتر به آن توجه می شود. من اما می خواهم تلاش کنم تا در آزمایشگاه دوقلوی دیجیتال مون تا حد ممکن این مباحث را دنبال کرده و در صورت امکان همگام با پیشرفت های جهانی در این موضوع از روش های تفسیر پذیر در هوش مصنوعی خود استفاده کنیم البته این به معنای فدا کردن دقت و به طور کل کنار گذاشتن مسیر طی شده در دهه اخیر فعالیت های علمی خودم نیست. به هر صورت مثل محصولات کشاورزی -غذایی ارگانیک است. فکر نمی کنم به این سادگی و در دو سه سال آتی بتوانیم این مسئله را حل کنیم. اما آگاهی بر مسیری که داریم توسعه می دهیم کمک کننده خواهد بود.

در سال 2018، یک چالش برجسته در هوش مصنوعی (AI) اتفاق افتاد، یعنی چالش یادگیری ماشینی تفسیر پذیر. هدف از این مسابقه ایجاد یک مدل جعبه سیاه پیچیده برای مجموعه داده و توضیح نحوه عملکرد آن بود. یک تیم قوانین را رعایت نکرد. آنها به جای ارسال در جعبه سیاه، مدلی ایجاد کردند که کاملاً قابل تفسیر بود. این منجر به این سوال می شود که آیا دنیای واقعی یادگیری ماشین شبیه چالش یادگیری ماشینی قابل توضیح است، جایی که مدل های جعبه سیاه حتی زمانی که نیازی به آنها نیست استفاده می شود.

•جعبه سفید مدلی است که منطق درونی، مراحل کار و برنامه نویسی آن شفاف است و بنابراین فرآیند تصمیم گیری آن قابل تفسیر است. •درخت‌های تصمیم ساده رایج‌ترین نمونه مدل‌های جعبه سفید هستند در حالی که نمونه‌های دیگر مدل‌های رگرسیون خطی، شبکه‌های بیزی و نقشه‌های شناختی فازی هستند. این روش ها قابلیت پیش‌بینی کمتری را ارائه می‌کنند و همیشه قادر به مدل‌سازی پیچیدگی ذاتی مجموعه داده (یعنی تعاملات ویژگی) نیستند. با این حال، توضیح و تفسیر آنها بسیار آسان تر است.

•مدل‌های جعبه سیاه مانند شبکه‌های عصبی، مدل‌های تقویت گرادیان (gradient Boosting models) یا مجموعه‌های پیچیده (Complicated ensembles) اغلب دقت بالایی ارائه می‌کنند. درک عملکرد درونی این مدل‌ها سخت‌تر است و تخمینی از اهمیت هر ویژگی در پیش‌بینی‌های مدل ارائه نمی‌دهند، همچنین درک نحوه تعامل ویژگی‌های مختلف آسان نیست.

مرجع تعریف جعبه سیاه و سفید "اینجا"


در دسامبر 2018، صدها دانشمند کامپیوتر، مهندسان مالی و مدیران برتر در کنفرانس سالانه سیستم‌های پردازش اطلاعات عصبی (NeurIPS) خود را در اتاقی در مرکز کنوانسیون مونترال جمع کردند تا نتایج چالش یادگیری ماشین توضیح‌پذیر را بشنوند، رقابتی معتبر. با همکاری Google، شرکت Fair Isaac Corporation (FICO)، و دانشگاهیان در برکلی، آکسفورد، امپریال، UC Irvine و MIT سازماندهی شد. این اولین مسابقه علم داده بود که نیاز به درک نتایج محاسبه شده توسط مدل های جعبه سیاه را که بر تصمیم گیری مبتنی بر یادگیری ماشین مسلط هستند، منعکس می کرد.

در چند سال گذشته، پیشرفت‌ها در یادگیری عمیق برای بینایی کامپیوتری منجر به این باور گسترده شده است که دقیق‌ترین مدل‌ها برای هر مشکل علم داده باید ذاتاً غیرقابل تفسیر و پیچیده باشند. این باور از استفاده تاریخی از یادگیری ماشین در جامعه سرچشمه می گیرد: تکنیک های مدرن آن برای تصمیم گیری های کم خطر مانند تبلیغات آنلاین و جستجوی وب که در آن تصمیمات فردی عمیقاً بر زندگی انسان تأثیر نمی گذارد متولد و پرورش یافته است.

در یادگیری ماشینی، این مدل‌های جعبه سیاه مستقیماً از داده‌ها توسط یک الگوریتم ایجاد می‌شوند، به این معنی که انسان‌ها، حتی کسانی که آنها را طراحی می‌کنند، نمی‌توانند بفهمند که چگونه متغیرها برای پیش‌بینی ترکیب می‌شوند. حتی اگر لیستی از متغیرهای ورودی داشته باشیم، مدل‌های پیش‌بینی جعبه سیاه می‌توانند آنقدر توابع پیچیده متغیرها باشند که هیچ انسانی نمی‌تواند بفهمد که چگونه متغیرها به طور مشترک با یکدیگر مرتبط هستند تا به یک پیش‌بینی نهایی برسند.

مدل‌های قابل تفسیر، که از نظر فنی، جایگزینی مشابه، اما احتمالاً اخلاقی‌تر برای مدل‌های جعبه سیاه ارائه می‌کنند، متفاوت هستند. در واقع آنها برای ارائه درک بهتری از نحوه پیش‌بینی‌ها محدود هستند. در برخی موارد، می توان به خوبی مشخص کرد که چگونه متغیرها به طور مشترک برای تشکیل پیش بینی نهایی مرتبط هستند، جایی که شاید تنها چند متغیر در یک عبارت منطقی کوتاه ترکیب می شوند، یا با استفاده از یک مدل خطی، که در آن متغیرها وزن شده و با هم جمع می شوند. گاهی اوقات مدل‌های قابل تفسیر از مدل‌های ساده‌تر در کنار هم (قابل تجزیه) تشکیل می‌شوند، یا محدودیت‌های دیگری بر روی مدل قرار می‌گیرند تا سطح جدیدی از بینش را اضافه کنند. با این حال، اکثر مدل‌های یادگیری ماشین با محدودیت‌های تفسیرپذیر طراحی نشده‌اند. آنها فقط به گونه ای طراحی شده اند که پیش بینی کننده های دقیقی در یک مجموعه داده ایستا باشند که ممکن است نشان دهنده نحوه استفاده از مدل در عمل باشد یا نباشد.

این باور که باید دقت را فدای تفسیرپذیری کرد، نادرست است. این به شرکت‌ها اجازه می‌دهد تا مدل‌های جعبه سیاه اختصاصی یا پیچیده را برای تصمیم‌گیری‌های پرمخاطره زمانی که مدل‌های قابل تفسیر بسیار ساده برای کارهای مشابه وجود دارد، به بازار عرضه کرده و بفروشند. به این ترتیب، به سازندگان مدل اجازه می دهد تا بدون در نظر گرفتن پیامدهای مضر برای افراد آسیب دیده، سود ببرند. تعداد کمی از این مدل ها سؤال می کنند زیرا طراحان آنها ادعا می کنند که مدل ها برای دقیق بودن باید پیچیده باشند. چالش یادگیری ماشین قابل توضیح 2018 به عنوان یک مطالعه موردی برای در نظر گرفتن معاوضه ترجیح دادن مدل‌های جعبه سیاه نسبت به مدل‌های قابل تفسیر عمل کرد.

قبل از اعلام برندگان چالش، از مخاطبان - متشکل از بازیگران قدرتمند در حوزه‌های مالی، رباتیک و یادگیری ماشین - خواسته شد تا در یک آزمایش فکری شرکت کنند که در آن آزمایش فرض می شد شرکت کنندگان سرطان دارند در نتیجه برای برداشتن تومور، به جراحی نیاز داشتند. به تمامی شرکت کنندگان دو تصویر روی صفحه، نمایش داده شد. یکی از تصاویر یک جراح انسانی را نشان می‌داد که می‌توانست هر چیزی را در مورد جراحی توضیح دهد، اما 15 درصد احتمال داشت که در حین جراحی باعث مرگ شود. تصویر دیگر بازوی رباتیکی را نشان می‌دهد که می‌توانست عمل جراحی را تنها با احتمال 2 درصد شکست انجام دهد. این ربات به منظور شبیه سازی رویکرد جعبه سیاه به هوش مصنوعی (AI) بود. در این سناریو، اعتماد کامل به ربات مورد نیاز بود. هیچ سوالی از ربات نمی‌توان پرسید، و هیچ درک خاصی از نحوه تصمیم‌گیری ربات ارائه نمی‌شد. سپس از حضار خواسته شد تا دست خود را بلند کنند تا به کدام یک از این دو عمل جراحی نجات بخش رای دهند. همه به جز یک دست به ربات رای دادند.

در حالی که ممکن است بدیهی به نظر برسد که احتمال مرگ و میر 2 درصد بهتر از احتمال مرگ 15 درصد است، چارچوب بندی ریسک های سیستم های هوش مصنوعی به این شکل، ملاحظات اساسی و جالب تر را پنهان می کند: چرا ربات باید یک جعبه سیاه باشد؟ آیا ربات توانایی خود را برای انجام جراحی دقیق از دست می دهد اگر توانایی توضیح خود را داشته باشد؟ آیا برقراری ارتباط بهتر بین ربات و بیمار یا یک پزشک، مراقبت از بیمار را به جای کاهش آن بهبود نمی بخشد؟ آیا نیازی نیست که بیمار بتواند قبل از جراحی به ربات توضیح دهد که دچار اختلال انعقاد خون شده است؟

این احتمال که ربات نیازی به جعبه سیاه بودن نداشته باشد، به عنوان یک گزینه ارائه نشد و تنها انتخاب بین جعبه سیاه دقیق و جعبه شیشه ای نادرست به مخاطبان کارگاه داده شد. به مخاطبان گفته نشد که چگونه دقت نتایج جراحی اندازه‌گیری می‌شود (در چه جمعیتی 2% و 15% اندازه‌گیری شد؟) و همچنین در مورد نقص‌های احتمالی در مجموعه داده‌ای که برای آموزش ربات استفاده می‌شود به آنها گفته نشد. با فرض اینکه دقت باید به قیمت تفسیرپذیری تمام شود (توانایی درک اینکه چرا جراح کاری را که انجام می‌دهد)، این آزمایش ذهنی در نظر نداشت که تفسیرپذیری ممکن است به دقت آسیبی نرساند. تفسیرپذیری حتی ممکن است دقت را بهبود بخشد، زیرا به درک اینکه چه زمانی مدل، در این مورد یک جراح رباتیک، ممکن است نادرست باشد، اجازه می‌دهد.

از شما خواسته می شود یک ماشین دقیق یا یک انسان قابل درک انتخاب کنید یک دوگانگی نادرست است. درک آن به این صورت به ما کمک می کند تا مشکلات ناشی از استفاده از مدل های جعبه سیاه برای تصمیم گیری های پرمخاطره در سراسر جامعه را تشخیص دهیم. این مشکلات در امور مالی، اما همچنین در مراقبت های بهداشتی، عدالت کیفری و فراتر از آن وجود دارد.

منبع این بحث اینجاست (کلیک کنید)

هوش مصنوعییادگیری ماشینفلسفه علمشبکه عصبی مصنوعی
عضو هیئت علمی دانشگاه
شاید از این پست‌ها خوشتان بیاید