ویرگول
ورودثبت نام
hanieh_molavi
hanieh_molavi
خواندن ۱ دقیقه·۲ سال پیش

Bayesian Decision Theory (2)

اکنون به بخش دوم نظریه بیژین رسیدیم و می خواهیم نکاتی رو بررسی کنیم.

با فرض وجود دو نتیجه ممکن، پس باید موارد زیر رعایت شود:(با فرض اینکه 2 تا شرط داریم)

P(C1​)+P(C2​)=1

علت یک شدن مجموع احتمالات این است که برای یک ورودی داده شده، نتیجه آن باید یکی از این دو باشد. هیچ نتیجه نامعلومی وجود ندارد.

اگر نتایج n وجود داشته باشد، موارد زیر باید رعایت شوند:

P(C1​)+P(C2​)+P(C3​)+...+P(Cn​)=1

با توجه به معادلات prior probability، مجموع همه احتمالات پسین یا posterior probabilities، باید 1 باشد.

P(C1​∣X)+P(C2​∣X)=1

در حال تعمیم یافته هم خواهیم داشت:

P(C1​∣X)+P(C2​∣X)+P(C3​∣X)+...+P(Cn​∣X)=1



4) شاهد یا Evidence

در اینجا نحوه evidence شواهد زمانی است که فقط دو نتیجه رخ می دهد:

P(X)=P(X∣C1​)P(C1​)+P(X∣C2​)P(C2​)

در حالت تعمیم یافته خواهیم داشت:

P(X)=P(X∣C1​)P(C1​)+P(X∣C2​)P(C2​)+P(X∣C2​)P(C2​)+...+P(X∣Cn)P(Cn​)


با توجه به آخرین معادله evidence، نظریه تصمیم بیژین (یعنی پسین) را می توان به صورت زیر نوشت:



در بخش بعدی به مفاهیم نظریه تصمیم گیری بیژین در یادگیری ماشین می پردازیم.

نظریه بیزیbayesian theoryPattern Recognitionیادگیری ماشینآمار
شاید از این پست‌ها خوشتان بیاید