ویرگول
ورودثبت نام
هانیه مهدوی
هانیه مهدوی
خواندن ۷ دقیقه·۱ سال پیش

جزوه دوره آمار و احتمال دکتر علی شریفی - جلسه هجدهم - امیدریاضی شرطی، خطی‌بودن امیدریاضی و روش تبدیل معکوس

منبع اصلی این پست، دوره آمار و احتمال مهندسی دکتر علی شریفی زارچی از آکادمی مکتبخونه می‌باشد. لطفاً برای حفظ حقوق منتشر کننده اصلی، ویدیوهارو از منبع اصلی دنبال کنید. همچنین، در انتهای هر جلسه، به ویدیو مربوط به آن جلسه ارجاع داده شده است.

سعی کردم هرچیزی که از ویدیوها فهمیدم رو به صورت متن در بیارم و در این پلت‌فورم با بقیه به اشتراک بذارم. کل ویدیوها 27 تاست که سعی می‌کنم هفته‌ای یک الی دو جلسه رو منتشر کنم. تا جایی که تونستم سعی کردم خوب و کامل بنویسم، اما اگر جایی ایرادی داشت، حتما تو کامنت‌ها بهم بگید تا درستش کنم.

پیشنهاد می‌کنم قبل از خوندن ادامه مطلب، یک کاغذ و قلم جلو دستتون باشه تا بتونید روابط ارائه شده رو در جاهایی که لازم هست برای خودتون تو کاغذ بنویسید و محاسبات لازم رو خودتون هم انجام بدین تا بهتر متوجه بشید که در هر مرحله چه اتفاقی میفته.


خطی بودن امید ریاضی

در جلسات گذشته دیدیم که اگر دو متغیر X و Y داشته باشیم و هر کدوم امید ریاضی‌ خودشون رو داشته باشن، فارغ از اینکه نسبت بهم وابسته هستن یا مستقل‌اند، امید ریاضی X + Y برابر هست با جمع امید ریاضی X و Y. این مورد رو برای حالت گسسته اثبات هم کردیم. برای حالت پیوسته هم میشه به سادگی این قضیه رو اثبات کرد و داریم:

متغیر نشان‌گر

یک متغیر نشان‌گر یک متغیر تصادفی هست که در یک سری شرایط مقدار 0 و در شرایطی دیگر مقدار 1 دارد.

اگر احتمال 1 اومدن متغیر رو p در نظر بگیریم، احتمال 0 بودن متغیر برابر هست با یک منهای p و امید ریاضی این متغیر برابر هست با:

همونطور که واضحه این متغیر خیلی شبیه متغیر برنولی هست، فقط به خاطر کاربرد خاصی که داره اسمش رو تغییر دادیم. در ادامه در قالب چند مثال با کاربرد متغیر نشان‌گر بیشتر آشنا میشیم.

مثال اول

در یک جمع 50 نفره، به طور متوسط چند نفر وجود دارن که روز تولدشون با یک نفر دیگه یکسان باشه؟ به عبارتی دیگه، در یک جمع 50 نفره هر کسی که روز تولد مشابه با بقیه داره دستاشونو میبرن بالا، در نهایت امید ریاضی تعداد دست‌هایی که بالا رفته رو باید به دست بیاریم. اول از همه میایم یک متغیر نشان‌گر به صورت زیر تعریف می‌کنیم:

در نهایت دنبال چی هستیم؟ دنبال اینکه جواب رابطه زیر رو پیدا کنیم:

از اونجایی که می‌دونیم امید ریاضی خطیه و ربطی به وابستگی یا استقلال متغیرها از هم نداره (تو این مثال متغیرهامون نسبت بهم وابستن) می‌تونیم رابطه بالا رو به صورت زیر بنویسیم:

حالا، از اونجایی که هر کدوم از Ii ها متقارن هستن می‌تونیم در ادامه رابطه بالا داشته باشیم:

چیزی که بالا اومده یعنی اینکه بیایم احتمال اینکه 1 نفر دستش رو ببره بالا محاسبه کنیم در 50 ضرب کنیم و همین جواب مسئله ماست.

حالا چطور بیایم احتمال اینکه 1 نفر دستش رو ببره بالا محاسبه کنیم؟ اینطوری:

احتمال اینکه 1 نفر دستش رو ببره بالا معادل این هست که انگار بیایم احتمال اینکه هیچکسی دستشو نبره بالا رو محاسبه کنیم و از یک کم کنیم. حالا اینو چجوری محاسبه کنیم؟

در یک جمع 50 نفره هستیم و هیچ دو نفری از افراد روز تولد مشابه ندارن. قراره احتمال این رو محاسبه کنیم و در نهایت از 1 کم کنیم. اولین نفر می‌تونه در هر روزی از سال به دنیا اومده باشه پس 365 حالت داره. بقیه افراد باقی‌مونده هم هر کدوم تو یک روز دیگه‌ای از سال به دنیا اومدن پس میشه 364 به توان 49. کل حالت‌هایی هم که وجود داره برابر هست با 365 به توان 50. پس در نهایت داریم:

حالا کافیه 1 رو از جواب بالا کم کنیم و در 50 ضرب کنیم تا مسئله حل بشه. در نهایت برای جواب داریم 6.3.

امید ریاضی شرطی

مسئله انداختن تاس رو قبلاً دیدیم. به صورت کلی E(X) تو این مسئله برابر هست با 3.5. حالا اگر بهمون بگن که بیا امید ریاضی X رو محاسبه کن به شرطی که تاس زوج اومده باشه، اون موقع امید ریاضی چی میشه؟

E(X | Y) = 1/3 * (2 + 4 + 6) = 4

به صورت کلی برای محاسبه امید ریاضی شرطی داریم:

یعنی انگار که میایم یک محدودیتی روی E(X) توسط Y اعمال می‌کنیم که باعث میشه جواب توی این حالت با حالت قبلی فرق کنه.

رابطه خطی بودن امید ریاضی در حالت شرطی بودن هم صدق می‌کنه. یعنی داریم:

همچنین، قبلاً با قانون احتمال کل آشنا شدیم. اگر اون قانون رو با حالت شرطی امید ریاضی ترکیب کنیم خواهیم داشت:

اگر علاقه‌مند هستید که در مورد چگونگی اثبات رابطه بالا بدونید می‌تونید به دقیقه 35 از ویدیو این جلسه مراجعه کنید. در ادامه یک سری مثال رو با روابطی که تا اینجا یاد گرفتیم حل خواهیم کرد.

مثال دوم

مسئله زیر رو در نظر بگیرید:

خب برای شروع می‌تونیم X رو زمان خروج معدنچی از معدن در نظر بگیریم و Y رو هم دری در نظر بگیریم که اولین بار برای خروج انتخاب میشه، در نهایت هم قراره E(X) رو محاسبه کنیم. برای حل به سادگی می‌تونیم از قضیه زیر استفاده کنیم:

در کل 3 تا در وجود داره. پس i می‌تونه مقادیر 1 و 2 و 3 رو داشته باشه و احتمال اینکه هر کدوم از درب‌هارو دفعه اول برای خروج انتخاب کنه برابر با 1/3 هست.

برای حالتی که اولین دری که انتخاب میشه درب شماره 1 باشه اگر بخوایم امید ریاضی زمان خروج رو محاسبه کنیم داریم:

if i = 1 -> E(X | Y=y1) P(Y=y1) = 2 * 1/3

در حالتی که درب شماره 2 بعنوان اولین در انتخاب بشه برای امید ریاضی زمان خروج داریم:

if i = 2 -> E(X | Y=y2) P(Y=y2) = (3 + E(X)) * 1/3

ممکنه سوال پیش بیاد که چطور به 3 + E(X) رسیدیم. وقتی قراره درب شماره 2 رو انتخاب کنه، 3 ساعت علاف میشه بعد دوباره میرسه به نقطه اول. یعنی جایی که می‌تونه دوباره یکی از 3 درب رو انتخاب کنه. یعنی همون چیزی که دنبالش هستیم که برابره با E(X). پس در نهایت میشه 3 + E(X).

و در حالتی که درب شماره 3 بعنوان اولین در انتخاب بشه به صورت مشابه با درب شماره 2 برای امید ریاضی زمان خروج داریم:

if i = 3 -> E(X | Y=y3) P(Y=y3) = (5 + E(X)) * 1/3

حالا فقط کافیه جواب‌هایی که تا اینجا به دست آوردیم رو جمع بزنیم تا E(X) رو پیدا کنیم. داریم:

E(X) = 2 * 1/3 + (3 + E(X)) * 1/3 + (5 + E(X)) * 1/3 E(X) = 10

روش تبدیل معکوس

در جلسات گذشته دیدیم که اگر یک تابعی مثل g(X, Y) داشته باشیم، با قانون LOTUS می‌تونیم به سادگی امید ریاضی g رو محاسبه کنیم.

حالا فرض کنید Z و W و g به صورت زیر تعریف شدن:

Z = g1(X, Y) W = g2(X, Y) g(X, Y) = (g1(X, Y), g2(X, Y))

دنبال این هستیم که f_zw(Z, W) رو محاسبه کنیم. چطور میشه این کارو کرد؟

مثال زیر رو در نظر بگیرید:

اول از همه میایم X و Y رو برحسب Z و W می‌نویسیم. داریم:

X = h1(Z, W), h1 = Z + W Y = h2(Z, W), h2 = Z + 2W

بعد میایم ماتریس ژاکوپین تشکیل میدیم و دترمینانش رو محاسبه می‌کنیم:

برای محاسبه f_ZW(Z, W) داریم:

از اونجایی که X و Y از یک توزیع نرمال استاندارد میان در نهایت داریم:

ممکنه سوال پیش بیاد که کلاً هدف از این کار چیه؟ اصلاً دنبال چی هستیم؟ قضیه اینکه داریم از روی یک توزیع یک توزیع دیگه رو به دست میاریم.

مثلاً فرض کنید دو تا متغیر تصادفی مستقل X و Y داریم و قد و وزن آدم‌ها از روی این دو متغیر به دست میان.

اگه نمودار قد و وزن رو بکشیم به این صورت در میاد:

اومدیم چیکار کردیم؟ دو تا متغیر نرمال و مستقل از هم رو شبیه کردیم به توزیع قد و وزن آدم‌ها. به عبارتی دیگه، دو تا متغیر تصادفی قد و وزن رو که تابع چگالی‌شون رو نمی‌دونستیم و تحلیلش برامون سخت بود رو از دو تا متغیر تصادفی که از هم مستقل هستن و توزیعشون رو می‌دونیم و تحلیلشون برامون ساده‌ست به دست آوردیم. در نهایت هم به کمک روش تبدیل معکوس می‌تونیم تابع چگالی قد و وزن رو به دست بیاریم.

جمع‌بندی مطالب ارائه شده

در مورد خصوصیت خطی بودن امید ریاضی مثال‌هایی رو دیدیم و با متغیر نشان‌گر آشنا شدیم و دیدیم که چطور می‌تونه مسائل پیچیده رو به سادگی برامون حل کنه. فهمیدیم که چطور میشه از روی یک توزیع، تابع چگالی توزیع دیگه‌ای رو به دست آورد و روش تبدیل معکوس چیه و به چه دردی می‌خوره.


اگر جایی ایراد یا مشکلی بود، حتما بهم بگید تا تصحیحش کنم. همچنین، پیشنهاد می‌کنم که حتماً صفحه گیت‌هاب این دوره رو مورد بررسی قرار بدین. حتماً به دردتون می‌خوره.

ویدیو این جلسه

صفحه گیت‌هاب مرتبط با این دوره

جزوه جلسه قبلی (جلسه هفدهم)

جزوه جلسه بعدی (جلسه نوزدهم)

تبدیل معکوسمتغیر نشان‌گرامید ریاضیامید ریاضی شرطیاحتمال
من هانیه‌ام. مدتیه شروع کردم به تولید محتوا در قالب متن و به زبان فارسی، از روی دوره‌هایی که می‌گذرونم. اگر دوست داشتین برام قهوه بخرید: https://coffeete.ir/honio
شاید از این پست‌ها خوشتان بیاید