مردی سگی را گاز گرفت!

نویسنده: امیرمسعود جعفرپیشه

به گزارش واحد خبری نیم‌خط، «در شب گذشته، سگی، مردی را گاز گرفت». بله، درست متوجه شدید؛ سگی، مردی را گاز گرفت. نکند انتظار داشتید که واقعاً مردی، سگی را گاز گرفته باشد؟ مگر تاکنون چند مرد را دیده‌­اید که سگی را گاز گرفته باشند؟ (البته شاید سگی که مردی را گاز گرفته باشد هم ندیده باشید!)

همان‌طور که دیدیم، دو گزاره‌ی در ظاهر مشابه، می‌­توانند اطلاعات متفاوتی به ما بدهند. اما به‌راستی اطلاعات چه معنایی می‌­تواند داشته باشد؟ آیا می‌­توانیم تعریفی ریاضی برای اطلاعات داشته باشیم؟ و آیا اصلاً می‌­توان مقدار اطلاعات موجود در یک پیام را سنجید؟ برای این کار خوب است سعی کنیم اطلاعات سه گزاره‌ی زیر را با هم مقایسه کنیم:

  • فردا خورشید از مشرق طلوع می­‌کند.
  • فردا زلزله‌­ای 8 ریشتری در تهران رخ می­‌دهد.
  • فردا مدرسه‌­ها به‌علت آلودگی هوا تعطیل می‌­شوند.

به نظر شما کدام‌ یک از سه گزاره‌ی فوق، اطلاعات بیشتری به ما منتقل می­‌کند؟ انتظار دارید که کدام یک از این گزاره‌­ها تیترِ یک روزنامه‌­ها شود؟ چرا هیچ روزنامه­‌ای تیترِ یک خبری خودش را به «طلوع خورشید از مشرق» اختصاص نمی­‌دهد؟

همان‌طور که احتمالاً حدس زده‌­اید، گزاره‌ی «فردا زلزله‌­ای 8 ریشتری در تهران رخ می‌­دهد.»، بیشترین اطلاعات را به ما منتقل می­‌کند ولی گزاره‌‌ی «فردا خورشید از مشرق طلوع می­‌کند.» تقریبا هیچ اطلاعات جدیدی به ما اضافه نمی‌­کند. اما چه چیزی بین این سه گزاره تفاوت ایجاد می‌­کند؟

در زندگی روزمره وقتی می‌خواهیم اطلاعاتی در مورد یک فرد به دست آوریم، اصطلاحا آمار آن فرد را می­‌گیریم! شاید خوب باشد در این جا نیز آمار گزاره­‌های مطرح‌شده را بگیریم و سعی کنیم بر اساس مشاهدات روزمره‌ی خودمان، در مورد میزان اطلاعات هریک از گزاره‌­ها نظر دهیم. طلوع خورشید از مشرق، یک حقیقت علمی است که همواره رخ می­‌دهد. تعطیلی مدرسه‌­ها (در دوران پیش از کرونا البته!)، هم پدیده‌­ای است که گاه و بی‌­گاه رخ می­‌دهد. اما وقوع زلزله­‌ای 8 ریشتری، اتفاقی نادر است که انتظار نداریم هر روز یا حتی هر سال رخ دهد.

مطابق نظریه‌ی شانون و در یک مدل ریاضی، میزان اطلاعات یک برآمد* آزمایش تصادفی، متناسب با احتمال وقوع آن­ برآمد است و هرچه احتمال وقوع آن برآمد کم‌تر باشد، اطلاعات بیشتری دارد. به بیان دقیق‌­تر، میزان اطلاعاتی که از وقوع برآمد x که احتمال وقوع آن P(x) است، به‌دست می‌­آید، برابر است با**:

در این حالت واحد اطلاعات را بیت می‌­گویند (البته این بیت، با آن بیتی که معمولاً در اندازه‌­گیری ظرفیت حافظه‌­ها می­‌شناسیم، لزوماً برابر نیست).

رابطه‌ی بالا چهار خاصیت مهم دارد. (سعی کنید با توجه به تعریف تابع اطلاعات، به چرایی هرکدام از آن­ها فکر کنید و یا مثال­ مناسبی بزنید.)

  • اطلاعات هر برآمد آزمایش تصادفی، کمیتی غیرمنفی است.
  • اگر P(A) بزرگ‌تر یا مساوی با P(B) باشد، آن‌­گاه I(A) کوچک‌تر یا مساوی با I(B) است.
  • اگر P(A) = 1، آن‌­گاه I(A) = 0.
  • اگر A و B دو برآمد کاملاً مستقل باشند، آن‌­گاه اطلاعات توام آن دو برآمد، برابر جمع اطلاعات دو برآمد است. (برای بررسی چرایی، به خواصی که تابع لگاریتم دارد، توجه کنید.)

نکته‌ی جالب در مورد اطلاعات، معادل بودن آن با ابهام است. به بیان بهتر، وقتی که اطلاعاتی در مورد یک برآمد آزمایش تصادفی به‌دست می‌­آوریم، عملاً ابهام ما در مورد آن برآمد از بین می‌­رود یا کم می‌­شود. مثلاً هنگامی که یک سکه را پرتاب می­‌کنیم، احتمال آن‌که رو یا پشت بیاید، برابر با 1/2 است. بنابراین قبل از پرتاب سکه، در مورد آن‌که رو می‌­آید یا پشت ابهام داریم ولی وقتی که رو آمد، به میزان

بیت اطلاعات به دست می‌­آوریم و ابهام ما به‌طور کامل برطرف می‌­شود.

برای آن‌که با معادل بودن مفهوم ابهام و اطلاعات بیشتر آشنا شویم، فرض کنید که امیر یک طرفدار جدی فوتبال و والیبال است. در ابتدای تابستان، او می‌­داند که 16 تیم به مرحله یک‌هشتم نهایی یورو 2020 صعود کردند و 4 تیم نیز به مرحله نیمه نهایی لیگ والیبال ملت‌­ها صعود کرده‌­اند. اما برای انجام یک ماموریت کاری، امیر به یک مسافرت دو هفته‌­ای می‌­رود که در آن هیچ‌­گونه دسترسی به اخبار ندارد. بنابراین امیر که علاقه­‌مند است قهرمان مسابقه­‌ها را بداند، در مورد قهرمان این مسابقه­‌ها دچار ابهام می‌­شود­. اما پس از دو هفته و بازگشت به خانه، قهرمان این دو رویداد را می‌فهمد و ابهام­ش برطرف می­‌شود. به نظر شما با فهمیدن قهرمان کدام‌یک از این دو رویداد، امیر اطلاعات بیشتری به دست می­‌آورد؟ میزان این اطلاعات چقدر است؟ برای سادگی می­‌توانید احتمال قهرمانی تمام تیم‌­ها در هر یک از مسابقه­‌ها را یکسان فرض کنید!

در واقعیت ممکن است برآمد­های مختلف یک آزمایش تصادفی، احتمال­‌های برابر نداشته باشند. به‌عنوان مثال، بهتر نیست که احتمال قهرمانی آلمان را بیشتر از احتمال قهرمانی ولز بدانیم؟ (شاید به همین دلیل است که اگر ولز قهرمان یورو شود، شگفت‌­زده خواهیم شد!). یا در یک منطقه‌ی نسبتاً خشک از نظر آب‌وهوایی، انتظار داریم که پیش‌بینی هوای روز بعد، بیشتر آفتابی باشد تا بارانی. مثلاً با توجه به وضعیت جوی یک منطقه، انتظار داریم که ایستگاه هواشناسی آن منطقه، 80 درصد اوقات وضعیت هوا را آفتابی اعلام کند و 20 درصد اوقات بارانی (با فرض آن‌که تنها همین دو پیش‌بینی را می­‌تواند انجام دهد). حال اگر این ایستگاه هواشناسی اعلام کند که فردا هوا بارانی است، به میزان 2.322 بیت اطلاعات به ما می‌­دهد و اگر اعلام کند که فردا هوا آفتابی است، به میزان 0.322 بیت به ما اطلاعات داده شده است.

اما این ایستگاه هواشناسی هر روز چه میزان اطلاعات به ما می‌­دهد؟ برای پاسخ به این سوال باید میانگین اطلاعاتی را که این ایستگاه در هر روز به ما می‌­دهد، محاسبه کنیم. مطابق تعریف، آنتروپی، متوسط اطلاعاتی است که می‌­توان از برآمد­های مختلف یک آزمایش تصادفی انتظار داشت؛ اما از آن‌جایی که احتمال برآمدهای مختلف یک آزمایش تصادفی لزوماً برابر نیستند، برای محاسبه‌ی آنتروپی از میانگین وزن‌دار استفاده می­‌کنیم. به‌عنوان مثال برای محاسبه‌ی آنتروپی مربوط به این ایستگاه هواشناسی، لازم است تا میانگین وزن‌دار اطلاعات ایستگاه هواشناسی در روز­های مختلف (که وزن­‌ها همان احتمال بارانی یا آفتابی بودن هوا است) را محاسبه کنیم:

بنابراین آنتروپی این ایستگاه هواشناسی برابر با 0.722 بیت است و به این معنا است که این ایستگاه هواشناسی هر روز به‌طور متوسط، مقدار 0.722 بیت به ما اطلاعات می‌­دهد. اما فرض کنید که ما در تاسیس این ایستگاه‌­های هواشناسی محدودیت داشته باشیم؛ به نظر شما بهتر است این ایستگاه‌­ها را در چه مناطقی تأسیس کنیم تا بیشترین میزان متوسط اطلاعات را به‌دست آوریم؟ (لازم است مناطقی را از نظر آب‌و‌هوایی بیابید که در آن­ها، این ایستگاه­‌ها بیشترین میزان متوسطِ اطلاعات (آنتروپی) را دارند.)

همان‌طور که دیدیم، واژه‌ی ساده­ای مانند اطلاعات، می­‌تواند دارای یک تعریف ریاضی و دقیق باشد که از قضا با شهود ما هم تا حد خوبی سازگار است. البته شاید جالب باشد بدانید که تعریف ارائه‌شده، تنها تعریف موجود برای اطلاعات نیست و تعریف­های دیگری هم برای اطلاعات و میزان آن، ارائه شده است. بنابراین شاید از این به بعد، هنگام جمع‌آوری اطلاعات -که یکی از بخش‌­های مهم انجام یک پژوهش است- اولین سوالی که می­‌پرسیم این باشد که به‌راستی در این‌جا چه تعریفی از اطلاعات مد نظر است؟

ضمناً فراموش نکنید که پاسخ‌های خود به سوالات متن را با رستا اینفو (@Rastaiha_info) به اشتراک بگذارید.


پانویس‌ها:

* در یک آزمایش تصادفی، به هر عضو از فضای نمونه یک برآمد گفته می­‌شود. به عنوان مثال در پرتاب سکه، فضای نمونه آزمایش {رو، پشت} است و برآمدهای این آزمایش رو یا پشت است.

** برای محاسبه عبارت:

که به صورت لگاریتم P(x) در پایه (یا مبنای) 2 خوانده می‌­شود، لازم است عددی را پیدا کنیم که اگر 2 را به توان آن عدد برسانیم، برابر P(x) شود. به عنوان مثال:

زیرا

بنابراین برای محاسبه اطلاعات داریم: