فرهنگ اسکندری
فرهنگ اسکندری
خواندن ۱ دقیقه·۴ سال پیش

kullback_leibler divergence


در آمار، kullback_leibler divergence یک معیار است برای اینکه متوجه بشویم یک توزیع احتمالی چقدر با یک توزیع احتمالی دیگر اختلاف(تفاوت) دارد.

دو توزیع احتمالی P و Q را در نظر بگیرید. به طور معمول P داده های ما را نشان میدهد(داده هایی که میخواهیم بدانیم چقدر با یک توزیع احتمالی دیگر اختلاف دارد). Q نقش یک مدل یا نمونه را دارد( مثلا Q از توزیع نرمال پیروی میکند و آن را به عنوان مدل قرار میدهیم تا بفهمیم P چقدر با توزیع نرمال اختلاف دارد).

این معیار به معنی تشخیص واگرایی دو توزیع احتمالی از هم است. این معیار relative entropy نیز نامیده میشود که توسط Solomon kullback و Richard Leibler در سال 1951 با عنوان واگرایی جهت دار بین دو توزیع معرفی شد.

فرمول
فرمول

مثال: عکس زیر را مشاهده کنید. P شکل سمت چپ است که از توزیع باینومیال پیروی میکند و شکل سمت راست Q است مه از توزیع یکنواخت پیروی میکند.

 kullback_Leibler divergence
kullback_Leibler divergence


kl divergencekullback leibler divergencekullback leibler
عاشق دنیای اعدادم و الآن دارم مسیر دیتاساینس رو پیش میرم?
شاید از این پست‌ها خوشتان بیاید