دانشجوی علوم اجتماعی محاسباتی
دانشجوی علوم اجتماعی محاسباتی
خواندن ۲ دقیقه·۴ سال پیش

استعاره کچل و خطای محاسباتی ما در شناخت مساله اصلی

این فیلم را ببینید:

https://www.aparat.com/v/bg3F0

چند هفته پیش، یکی از تیم‌های فوتبال اسکاتلند اطلاعیه‌ای می‌دهد که «ما از این پس به جای فیلمبرداران انسانی، از هوش مصنوعی برای کنترل دوربین‌های اطراف زمین استفاده می‌کنیم؛ یعنی دوربین‌های هوشمند ما به شکل خودکار می‌توانند محلِ توپ روی زمین را تشخیص دهند».

تا این‌جای کار همه‌چیز خوب است. اما ...

مشکل زمانی پیش می‌آید که این دوربین‌های هوشمند با پدیده‌ی ناشناخته‌ای روبرو می‌شوند: «یک داور کچل». پس دوربین‌ها سرِ داور را به جای توپ فوتبال اشتباه می‌گیرند بخش زیادی از زمان بازی، کله‌ی او را دنبال می‌کنند.

https://www.isna.ir/news/99081106900/%D8%AF%D9%88%D8%B1%D8%A8%DB%8C%D9%86-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%B3%D8%B1-%D8%B7%D8%A7%D8%B3-%D8%AF%D8%A7%D9%88%D8%B1-%D9%81%D9%88%D8%AA%D8%A8%D8%A7%D9%84-%D8%B1%D8%A7-%D8%A8%D8%A7-%D8%AA%D9%88%D9%BE-%D8%A7%D8%B4%D8%AA%D8%A8%D8%A7%D9%87-%DA%AF%D8%B1%D9%81%D8%AA-%D9%81%DB%8C%D9%84%D9%85

خب. تا این‌جای کار، به جز کمی عصبانی شدنِ تماشاچیان و اندکی تمسخر توانایی فنی باشگاه، اتفاق چندان بغرنج و خطرناکی رخ نداده است. همه هم می‌دانیم که وقوع چنین اشتباه‌های فنی‌ای در ابتدای راه طبیعی است و مطمئنیم که این سامانه بعد از مدت کوتاهی ارتقا پیدا خواهد کرد.

اما این همه‌ی داستان نیست.


اول اجازه دهید ببینم که این اشتباه چرا رخ داده است؟ احتمالا طراحان این ماشین به او گفته بوده‌اند که «دایره‌ی سفیدی که در چارچوب زمین سبز حرکت می‌کند، توپ است. تو باید آن را همیشه در مرکز قاب تصویر نگه داری». ماشین هم این فرمان را موبه‌مو اجرا کرده و وقتی با دو دایره‌ی سفید متحرک مواجه شده، آن یکی که (احتمالاً به دلیل تراکم بازیکنان در اطراف یا دور بودن از محل دوربین) مبهم‌تر بوده کنار گذاشته و این دایره‌ی کاملاً واضح، شفاف و نزدیک را انتخاب کرده است.

پس مشکل چیست؟ مشکل این است که دوربین «دایره‌ی اصلی» را به بهانه‌ی ابهام یا تار بودن رها کرده و روی دایره‌ی بی‌اهمیتی که در دسترسش بوده متمرکز شده است.

این دوربین هوشمند اسکاتلندی برای تصویربرداری از بازی طراحی شده بود و به همین خاطر، ناکارآمدی‌اش در همین گام‌های ابتدایی روشن شد. اما فرض کنید قرار بود ارزیابی بازی از نظر شاخص‌هایی مثل مالکیت توپ و الگوی حرکت بازیکنان و ... را انجام دهد. باز هم نادرستی محاسباتِ آن به همین وضوح روشن بود؟

استعاره کچل: خطای محاسباتی ما در شناخت مساله‌ی اصلی
استعاره کچل: خطای محاسباتی ما در شناخت مساله‌ی اصلی

و یک سوال مهم‌تر. آیا ممکن است دستگاه محاسبات اجتماعی ما که در شبکه‌ی پژوهش‌های دانشگاهی‌مان، مصوبات قانونی‌مان، تصمیمات سازمانی‌مان و ... پدیدار می‌شود هم گرفتار چنین خطایی شود؟ مثلاً وقتی می‌خواهیم با اتکا به آن فلان مساله‌ی اجتماعی را حل کنیم، سرِ کچلِ فلان پدیده‌ی فرعی و کم‌اهمیت را به جای توپِ مساله‌ی اصلی قرار ندهد؛ حتی با فرض این که در توصیف شاخص‌ها و ویژگی‌های پدیده‌های اثرگذار بر مساله درست عمل کرده باشیم.

امکان بروز این خطا زمانی بیشتر می‌شود که بدانیم مساله‌های اصلی معمولاً دیریاب‌تر، پیچیده‌تر و پوشیده‌ترند و مساله‌های بی‌اهمیت یا کم‌اهمیت دم‌دستی و واضح‌تر.

البته وقتی از دستگاه محاسبات اجتماعی حرف می‌زنم، مقصودم ابزارهای رایانه‌ای و هوش مصنوعی و ... نیست. منظورم هر فرایند حل مساله‌ای است که در بخشی از نظام دانشی و پژوهشی اجتماعی ما دنبال می‌شود. هرچند، هرقدر که بیشتر از روش‌های عددی و توانایی ماشین برای فهم و حل پدیده‌های اجتماعی استفاده کنیم، احتمال بروز این اشتباه هم بیشتر می‌شود.

به نظرم «استعاره‌ی کچل» (Bald Head Metaphor) نام مناسبی است برای یادآوری اهمیت پرهیز از یکی از خطرناک‌ترین آسیب‌های عرصه‌ی سیاستگذاری اجتماعی و فرهنگی: اشتباه در شناخت مساله‌ی اصلی.

علوم اجتماعی محاسباتیسیاستگذاری اجتماعیهوش مصنوعیاشتباه محاسباتیاولویت بندی
مشغول به «فرهنگ»، «سیاست» و «علوم اجتماعی محاسباتی»
شاید از این پست‌ها خوشتان بیاید