این فیلم را ببینید:
چند هفته پیش، یکی از تیمهای فوتبال اسکاتلند اطلاعیهای میدهد که «ما از این پس به جای فیلمبرداران انسانی، از هوش مصنوعی برای کنترل دوربینهای اطراف زمین استفاده میکنیم؛ یعنی دوربینهای هوشمند ما به شکل خودکار میتوانند محلِ توپ روی زمین را تشخیص دهند».
تا اینجای کار همهچیز خوب است. اما ...
مشکل زمانی پیش میآید که این دوربینهای هوشمند با پدیدهی ناشناختهای روبرو میشوند: «یک داور کچل». پس دوربینها سرِ داور را به جای توپ فوتبال اشتباه میگیرند بخش زیادی از زمان بازی، کلهی او را دنبال میکنند.
خب. تا اینجای کار، به جز کمی عصبانی شدنِ تماشاچیان و اندکی تمسخر توانایی فنی باشگاه، اتفاق چندان بغرنج و خطرناکی رخ نداده است. همه هم میدانیم که وقوع چنین اشتباههای فنیای در ابتدای راه طبیعی است و مطمئنیم که این سامانه بعد از مدت کوتاهی ارتقا پیدا خواهد کرد.
اما این همهی داستان نیست.
اول اجازه دهید ببینم که این اشتباه چرا رخ داده است؟ احتمالا طراحان این ماشین به او گفته بودهاند که «دایرهی سفیدی که در چارچوب زمین سبز حرکت میکند، توپ است. تو باید آن را همیشه در مرکز قاب تصویر نگه داری». ماشین هم این فرمان را موبهمو اجرا کرده و وقتی با دو دایرهی سفید متحرک مواجه شده، آن یکی که (احتمالاً به دلیل تراکم بازیکنان در اطراف یا دور بودن از محل دوربین) مبهمتر بوده کنار گذاشته و این دایرهی کاملاً واضح، شفاف و نزدیک را انتخاب کرده است.
پس مشکل چیست؟ مشکل این است که دوربین «دایرهی اصلی» را به بهانهی ابهام یا تار بودن رها کرده و روی دایرهی بیاهمیتی که در دسترسش بوده متمرکز شده است.
این دوربین هوشمند اسکاتلندی برای تصویربرداری از بازی طراحی شده بود و به همین خاطر، ناکارآمدیاش در همین گامهای ابتدایی روشن شد. اما فرض کنید قرار بود ارزیابی بازی از نظر شاخصهایی مثل مالکیت توپ و الگوی حرکت بازیکنان و ... را انجام دهد. باز هم نادرستی محاسباتِ آن به همین وضوح روشن بود؟
و یک سوال مهمتر. آیا ممکن است دستگاه محاسبات اجتماعی ما که در شبکهی پژوهشهای دانشگاهیمان، مصوبات قانونیمان، تصمیمات سازمانیمان و ... پدیدار میشود هم گرفتار چنین خطایی شود؟ مثلاً وقتی میخواهیم با اتکا به آن فلان مسالهی اجتماعی را حل کنیم، سرِ کچلِ فلان پدیدهی فرعی و کماهمیت را به جای توپِ مسالهی اصلی قرار ندهد؛ حتی با فرض این که در توصیف شاخصها و ویژگیهای پدیدههای اثرگذار بر مساله درست عمل کرده باشیم.
امکان بروز این خطا زمانی بیشتر میشود که بدانیم مسالههای اصلی معمولاً دیریابتر، پیچیدهتر و پوشیدهترند و مسالههای بیاهمیت یا کماهمیت دمدستی و واضحتر.
البته وقتی از دستگاه محاسبات اجتماعی حرف میزنم، مقصودم ابزارهای رایانهای و هوش مصنوعی و ... نیست. منظورم هر فرایند حل مسالهای است که در بخشی از نظام دانشی و پژوهشی اجتماعی ما دنبال میشود. هرچند، هرقدر که بیشتر از روشهای عددی و توانایی ماشین برای فهم و حل پدیدههای اجتماعی استفاده کنیم، احتمال بروز این اشتباه هم بیشتر میشود.
به نظرم «استعارهی کچل» (Bald Head Metaphor) نام مناسبی است برای یادآوری اهمیت پرهیز از یکی از خطرناکترین آسیبهای عرصهی سیاستگذاری اجتماعی و فرهنگی: اشتباه در شناخت مسالهی اصلی.