گزارش نویس در حوزه صنعت سرگرمی و فناوری های نوین
ارتش 100 هزار نفری برای پاک سازی اینترنت
وقتی به شبکه های اجتماعی، «یوتیوب» و یا «آپارات» سر می زنیم به هر نوع محتوایی دسترسی داریم. سرگرمی، خنده، دیدن فیلم، ویدئوهای آموزشی، دوستیابی و به اشتراک گذاری لحظات زندگی ما، همه و همه در بستر رسانه های اجتماعی رخ می دهد. حال چنین حجم عظیمی از محتوا چگونه نظارت می شود؟
امروزه بسیاری از نیازهای روزمره ما از طریق اینترنت رفع می شود. حضور مجازی ما در شبکه های اجتماعی زندگی بشر امروزی را دگرگون ساخته است. زندگی آنچنان با رسانه های اجتماعی گره خورده است که هر ساله میانگین ساعات حضور ما در اینترنت و شبکه های اجتماعی بیشتر می شود و بر اساس آمار منتشر شده در مارچ 2017، در جوامع مدرن، افراد روزانه 2 ساعت در شبکه های اجتماعی وقت می گذرانند. «Mediakix» یکی از شرکت های فعال در حوزه بازاریابی در شبکه های اینترنتی است. این شرکت آماری را منتشر کرده است که نشان دهنده هر شهروندان آمریکایی به طور میانگین روزانه 40 دقیقه در «یوتیوب» صرف دیدن ویدئو می نمایند. همچنین کاربران آمریکایی به صورت میانگین یک ساعت در شبکه اجتماعی «توئیتر» وقت می گذرانند و 40 دقیقه نیز در «فیس بوک»، رقیب «توئیتر» فعال هستند. در این بین کمترین زمان به «اینستاگرام» اختصاص دارد. تنها 15 دقیقه.
حال اگر این دو ساعت ها را جمع کنیم مجموع آن رقمی تکان دهنده خواهد بود. اگر با همین روند پیش برویم، 5 سال و 4 ماه از زنگی انسان ها در جوامع مدرن در رسانه های اجتماعی سپری خواهد شد. در حقیقت این شبکه ها را ما خودمان شکل دادیم؛ محتوایی را که با هر هدفی در شبکه های اجتماعی و بسترهای به اشتراک گذاری بارگذاری می کنیم سبب شکل گیری حجم عظیم داده شده است. داده هایی که دیدن آن ها 2 ساعت از زندگی روزمره ما را به خود اختصاص می دهند. اما محتوای ما برای قرارگرفتن در شبکه های اجتماعی و بستر های به اشتراک گذاری باید چه ویژگی داشته باشند؟
شبکه های اجتماعی مانند «فیس بوک» و «اینستاگرام» و وبسایت های بارگذاری ویدئو مانند «یوتیوب»، همگی بر اساس محتوای بارگذاری شده کاربر شکل گرفته اند. در حقیقت فعالیت کاربران و بارگذاری محتوا برای به اشتراک گذاری سبب شکل گیری این شرکت های بزرگ شده است. اما چه نوع محتوایی می تواند در چنین بسترهایی قرار گیرد؟ خطوط قرمز آن ها چیست؟ فرایند نظارت بر محتوای بارگذاری شده توسط کاربران چگونه کنترل می شود؟ بسترهایی که کودکان و خانواده ها در آن وقت می گذرانند چگونه محتوایی را می پذیرد؟
آپارات و سامانه های «UGC» مشابه در کشور ما شکل گرفته اند و با قدرت در حال توسعه هستند. برای نظارت بر محتوای چنین سرویس هایی در کشور ما افزون بر ممیزی های بین المللی، ممیزی های خاصی نیز وجود دارد. اما این چالشی جهانی برای چنین سرویس هایی است. در ادامه به بررسی نحوه نظارت پیشگامان صنایع محتوا محور در جهان می پردازیم.
ابتدا از «یوتیوب» آغاز کنیم. در سال های ابتدایی شکل گیری چنین بسترهایی، نظارت آن ها تنها بر اساس «گزارش» یا «Report» کاربران صورت می گرفت. هر کاربر می تواند ویدئویی را که مناسب می داند را گزارش کند. در بخش گزارش گزینه هایی جود دارد که کاربر بر اساس انتخاب یکی از آن ها نوع محتوا را مشخص می کند. محتوا گزارش شده در یکی از دسته های تصاویر مستهجن، تصاویر خشونت آمیز، ترویج تروریسم ( پس از شکل گیری دائش برای جلوگیری از ترویج ویدئوهای آن ها این گزینه اضافه شد)، محتوای نفرت پراکنانه و سو استفاده، اعمال خطرآفرین، کودک آزاری، اسپم ها و نقض حقوق دیگران قرار می گیرد. در حقیقت پس از گزارش شدن یک محتوا، محتوا به «صف بررسی» وارد می شود و در بیشتر موارد این نیروی انسانی است که فرایند نظارت بر محتوا را انجام می دهد. چنین افرادی را «Content Moderator» می نامند.
پس از گزارش شدن محتوا، محتوا بر روی مونیتور بزرگ ناظران به نمایش در می آید و آن ها بر اساس پروتوکل ها و ممیزی های خاصی تصمیم می گیرند که آیا محتوا حفظ شود یا خیر. پس تصمیم گیری انسانی نقش پر رنگی در فرایند نظارت دارد. هوش مصنوعی نیز بخش از فعالیت های نظارتی را بر عهده دارد. کیفیت ویدئوها، مشکلات فنی و در برخی موارد بررسی مستهجن بودن بر عهده هوش مصنوعی است. البته هوش مصنوعی وظایف دیگری نیز دارد. برای مثال مدتی است که «ID Code» برای محتوای بارگذاری شده در «یوتیوب» اضافه شده و هر کسی می تواند برای محتوای خود کد مشخصی داشته باشد تا با کمک هوش مصنوعی بتواند نقض کننگان پی رایت محتوا را شناسایی کنند.
چنین سیستم نظارتی برای «فیس بوک» نیز وجود دارد و دسته بندی های محتوای گزارش شده بر اساس پروتوکل جهانی برای رسانه های دیجیتال است. اما آن چه که مشخص است این است که نقش انسانی در این فرایند بسیار پر رنگ است و سرعت نظارت و کیفیت آن را پایین می آورد. غول های صنعت دیجیتال هزینه های بسیاری برای توسعه هوش مصنوعی در این زمنیه انجام داده اند اما همچنان راهی دراز برای توسعه مناسب آن ها در پیش است.
اما چالش اصلی و اعتراض ها به چنین مکانیزم های از زمانی آغاز شد که ویژگی «Live» یا «زنده» به شبکه های اجتماعی مانند «فیس بوک» و «اینستاگرام» اضافه شد. «فیس بوک» امروزه دارای 2 میلیارد کاربر در سراسر جهان است و در حال تولید برنامه های خاص خود و راه اندازی شبکه استریم است. اما راه اندازی سامانه «Live» اعتراضات بسیاری به همراه داشت. مارک زاکربرگ در روز رونمایی از سامانه پخش زنده «فیس بوک» اذعان کرد که این سامانه فرصتی ناب برای ایجاد ارتباط بدون هیچ حد و مرزی را برای کاربران مهیا می سازد و از جنبه های زیبای آن سخن گفت.
از این پس دوربین موبایل شما مانند تلویزیونی است که می تواند هر چیزی را که دوست دارید را به تصویر بکشد.
اما واقعا چگونه می توان به تصاویر زنده نظارت کرد؟ آیا تنها اکتفا کردن به گزارش کاربران می توان کافی باشد؟ هوش مصنوعی نیز شاید نتواند پاسخ گوی چنین حجم عظیمی از داده باشد. برای کنترل ویدئوهای زنده زاکربرگ اعلام کرد که «فیس بوک» تا پایان سال 2017، 3 هزار نیروی جدید به ارتش نظارتی خود می افزاید تا محتوای زنده را رصد کنند. در سال 2016 خبرهای بسیاری تکان دهنده ای از ویدئوهای خشونت آمیز در «فیس بوک لایو» مخابره شد و خانواده ها را در سراسر جهان نگران کرد.
تصاویر خود کشی، کودک آزاری و ... که برای مدت طولانی بر روی «فیس بوک» قرار گرفتند و در یک مورد پاک شدن یک ویدئو شلیک و خود کشی یک روز طول کشید و این نشان از ضعف هوش مصنوعی و کمبود نیروی انسانی سیستم نظارت آن بود.
جنبه تاریکتری نیز در آن سوی صحبت های زاکربرگ وجود دارد. بر اساس قوانین ایالات متحده آمریکا، افرادی که به نظارت محتوا می پردازند باید شامل بیمه های درمانی های خاصی شوند و قراردادهای رسمی و حقوق بالایی برای کار دشوار آن ها ضروری است. اما شرکت هایی مانند «گوگل»، «فیس بوک» و «مایکروسافت» برای رفع موانع حقوقی و مسئولیت های سنگین خود در آمریکا به آن سوی اقیانوس نقل مکان کرده اند. این شرکت ها دفاتری را در کشورهایی مانند هند و فیلیپین ایجاد کرده اند تا با استخدام ارتش های 100 هزار نفری، نظارت بر محتوای جهانی تولید شده در چنین بسترهایی را محقق سازند. در سال 2014 جنجال ها بر سر نقض شدن حقوق کارمندان این شرکت ها در فیلیپین شدت گرفت.
عدم بهره مندی از بیمه های درمانی مناسب و حقوق پایین و قراردادهای نامناسب سبب شد تا جامعه جهانی از فجایع ای که بر سر نظارت کنندگان محتوا آمده است، آگاه شوند. در چندین مورد وکلای بین المللی به کمک آسیب دیدگان این صنعت کثیف شتافتند و غرامت های هنگفتی از غول های آمریکایی طلب کردند. فارغ التحصیلان جوانی که در هند و فیلیپین با دیدن آگهی استخدام در «گوگل» و «فیس بوک» به سمت شغل نظارت محتوا جذب می شدند. امکان فسخ قرارداد به صورت یک طرفه برای شرکت ها، قراردادهای کوتاه مدت، عدم بهره مندی از بیمه های درمانی سبب شد تا در این کشورها افراد زیادی با آسیب های روانی رو به رو شوند. 8 تا 10 ساعت دیدن تصاویر آزاد دهنده در مونیتورهای بزرگ که به 10 تیکه تقسیم شده اند حتی در کوتاه مدت نیز وحشتناک است.
حال شرایط کمی بهبود پیدا کرده است اما لازمه توسعه هوش مصنوعی مناسب برای نظارت بر محتوا به شدت احساس می شود. قطعا پیشرفت علم و فناوری نباید سبب نابودی آینده افرادی باشد که تلاش می کنند تا ما فضای مجازی امن و دلنشینی داشته باشیم.
مطلبی دیگر از این انتشارات
همه چیز در مورد «Black Mirror: Bandersnatch» هدیه غافلگیرکننده نتفلیکس!
مطلبی دیگر از این انتشارات
بلاک چین و اقتصاد خلاق
مطلبی دیگر از این انتشارات
نوآوری از جنس نتفلیکس: با سریال نارکوس اسپانیایی یاد بگیرید