امیرحسین باقری
امیرحسین باقری
خواندن ۴ دقیقه·۳ سال پیش

الگوریتم درخت تصمیم بیزی قابل تفسیر

درختان تصمیم بیزی به دلیل تفسیر احتمالی خود شناخته شده اند با این حال، ساخت آنها گاهی اوقات می تواند پرهزینه باشد. در این مقاله ما یک الگوریتم کلی درخت تصمیم بیزی ارائه می کنیم که برای مسائل رگرسیون و طبقه بندی قابل استفاده است.

این الگوریتم، الگوریتم Monte Carloرا اعمال نمی کند و نیازی به مرحله هرس ندارد. در حالی که امکان ساخت فضای درخت احتمال وزنی وجود دارد، متوجه هستیم که یک درخت خاص، greedy-modal tree (GMT)، بیشتر اطلاعات موجود در مثال‌های عددی را توضیح می‌دهد.

این رویکرد مشابه جنگل‌های تصادفی در مجموعه داده‌ها با معیار مختلف عمل می‌کند. به ویژه، درخت بیزی با استفاده از یک درخت منفرد (نسبتا کم عمق) به دقت مشابهی دست می یابد، که امکان یک تکنیک کاملاً قابل توضیح را فراهم می کند که اغلب پیش نیازی برای کاربردهای مالی یا صنعت پزشکی است.

درخت‌های تصمیم، از تکنیک‌های یادگیری ماشینی محبوبی هستند که برای کارهای طبقه‌بندی و رگرسیون به کار می‌روند. این تکنیک با مدل نتیجه مشخص می شود که به عنوان یک ساختار درختی کدگذاری می شود.

به درختان تصمیم جعبه سفید گفته می شود چون همه گره های یک درخت را می توان مشاهده و درک کرد، علاوه بر این، ساختار درختی می‌تواند خروجی را با محاسبات بسیار کمتری نسبت به سایر تکنیک‌های یادگیری ماشینی پیچیده‌تر بازگرداند.

در این مقاله، به طور صریح کل فرآیند تولید درخت را مدل‌سازی می‌کنیم، در حالی که تنها امتیاز احتمالی پارتیشن‌های ممکن را ارائه می‌کنیم. این به ما امکان می دهد به جای تکیه بر یک الگوریتم اکتشافی، جنبه هرس را به صورت احتمالی مشاهده کنیم.

نمای کلی درختان بیزی

ما D = {(x i , y i )}به عنوان مجموعه داده ای از n که مشاهدات مستقل هستند معرفی میکنیم.

x = (x 1 , ..., x d ) در فضای Rdویژگی های هر یک از مشاهدات را توضیح می دهد که y به صورت تصادفی از Yx انتخاب می شود.

توزیع Y x نوع مسئله ای را که ما حل می کنیم تعیین می کند: یک متغیر تصادفی گسسته به یک مسئله طبقه بندی تبدیل می شود در حالی که یک متغیر تصادفی پیوسته به یک مسئله رگرسیونی تبدیل می شود. تابع بتا به ویژه برای محاسبه احتمال نمونه های طبقه بندی در این مقاله مفید خواهد بود

مجموعه داده D از یک فرآیند تولید داده نمونه برداری می شود. ما این فرآیند را به دو مرحله تقسیم می کنیم: اول، یک نقطه x در Rd نمونه برداری می شود. دوم، نتیجه Yx با توجه به x نمونه برداری می شود. در این مقاله ما هیچ دانش قبلی از تولید مکان های x را در نظر نمی گیریم. از این رو، ما بر روی توزیع Yx تمرکز خواهیم کرد.

فرض می شود که این توزیع شرطی در زیر یک ساختار درختی کدگذاری شده است ایجاد شده به دنبال مجموعه ای از قوانین بازگشتی ساده بر اساس {xi}ni=1، یعنی فرآیند تولید درخت: با شروع از ریشه، تعیین می کنیم که آیا این کار را می کنیم گره فعلی را با دو برگ تحت یک احتمال از پیش تعریف شده گسترش دهید

با توجه به فرآیند بالا، واضح است که بلوک ساختمانی درختان تصمیم بیزی در نظر گرفتن پارتیشن‌هایی از Rd است که نتایج را تحت یک رویکرد احتمالی بهتر توضیح می‌دهند. همه نقاط در یک مجموعه از یک پارتیشن Π توزیع نتیجه یکسانی دارند، یعنی Y به x بستگی ندارد. بنابراین، با فرض یک پیش از پارامترهای توزیع Y، می‌توانیم احتمال هر مجموعه را در یک پارتیشن به دست آوریم. از آنجایی که همه مشاهدات مستقل فرض می شوند، احتمال تقسیم کل L(D|Π) با ضرب احتمالات هر مجموعه به دست می آید.

درختان نمودارهای غیر چرخه ای جهت دار هستند که از گره هایی با یک ریشه واحد و حرکت بعدی تشکیل شده اند هر دو گره متصل توسط یک مسیر منحصر به فرد به هم متصل می شوند. طبق طبقه بندی ما گره ها به صورت برگ یا جوانه هستند. در حالی که برگها شامل گره های پایانی هستند اطلاعات مدل، جوانه ها به گره های فرزند اضافی اشاره می کنند. اگر شماره از گره های فرزند همیشه دو است، ما درخت را یک درخت باینری می نامیم. هر جوانه حاوی سوال یا قاعده ای که پاسخ آن به یکی از فرزندانش می انجامد. شروع از ریشه که تنها گره بدون والد است، مسیر درخت را دنبال می کنیم تا به یک برگ می رسیم.

روش GMT پیشنهادی یک درخت تصمیم بیزی است که زمان آموزش را کاهش می دهد با اجتناب از هر گونه نمونه برداری از زنجیره مارکوف مونت کارلو یا مرحله هرس. نتایج مثال عددی GMT ​​دارای قدرت پیش بینی مشابه RF هستند. این رویکرد ممکن است در جایی مفید باشد که توانایی توضیح مدل a نیاز به این دلیل که قابلیت تفسیری مشابه DT را دارد اما عملکردی دارد مشابه RF از این رو، مزایای GMT ​​این است که می تواند به راحتی انجام شود قابل درک است و برای آموزش زمان کمتری نسبت به RF نیاز دارد. علاوه بر این، توانایی تعیین یک احتمال قبلی ممکن است به ویژه برای برخی از مسائل مناسب باشد و راه کارآمدتری برای کشف درختان معنی دار و بهبود کارایی است.

الگوریتمدرخت تصمیم
شاید از این پست‌ها خوشتان بیاید