هوش مصنوعی چگونه می‌تواند به تعدیل محتوا کمک کند

منتشر شده در: forbes به تاریخ ۱ دسامبر ۲۰۲
لینک مطلب اصلی: How AI Can Help To Moderate Content

اینترنت از محتوای سمی برخوردار است. شرکت‌های رسانه‌های اجتماعی مانند فیس بوک، توییتر، اینستاگرام و غیره از ترکیبی از تعدیل‌کننده‌های محتوای انسانی و تکنولوژی برای محدود کردن مقدار مطالب مضر استفاده کرده‌اند. با پیشرفت الگوریتم های هوش مصنوعی، شرکت‌هایی مانند آزمایشگاه‌های اسپکتروم در حال هجوم به فضا برای استفاده از الگوریتم های هوش مصنوعی بافتی برای بهبود تشخیص محتوای سمی هستند. آن‌ها به تازگی ۱۰ میلیون دلار در سپتامبر ۲۰۲۰ سرمایه‌گذاری کرده‌اند. به نظر می‌رسد که پلتفرم‌های محتوا راه‌حل‌های پیچیده‌تری می‌خواهند.

جاستین دیویس، مدیر عامل شرکت آزمایشگاه‌های اسپکتروم می‌گوید: از نام‌های کاربری ایجاد شده گرفته تا پرس و جوهایی که برای جستجو وارد شده، پست‌های ساخته‌شده، تصاویر آپلود شده، اینترنت پر از محتوای ایجاد شده توسط کاربران است. متاسفانه، همه این محتواها مناسب نیستند. تشخیص این که کدام محتوا مناسب نیست، می‌تواند برای پلتفرم‌های دارای تکنولوژی اعتدال قدیمی چالش برانگیز باشد.

ویژگی چند زبانی الگوریتم های هوش مصنوعی پیچیده‌تر می‌کند.

بسیاری از پلتفرم‌های جهانی هستند. آن‌ها هر روز توسط خالقان محتوا که به زبان‌های مختلف کار می‌کنند، مورد دسترسی قرار می‌گیرند. الگوریتم هایی که از «کلمات کلیدی» به عنوان پایه جستجوی خود برای سمیت استفاده می‌کنند، ممکن است به دلیل تفاوت‌های زبانی خوب عمل نکنند. همچنین یک روش بسیار ناکارآمد است. اینجا جایی است که هوش مصنوعی زمینه‌ای وارد می‌شود. هوش مصنوعی ترکیبی زمانی است که فراداده‌ها در اطراف یک قطعه از اطلاعات در داخل الگوریتم ها به همراه معنای گفتار استفاده می‌شوند.

رویکرد آزمایشگاه‌های اسپکتروم، ترجمه را به نفع یک تکنیک جدید که در سراسر زبان‌ها همراستا می‌شود، نادیده می‌گیرد. مزیت این روش، در مقابل ترجمه، این است که پلتفرم‌ها می‌توانند تمام کارهای انجام‌شده به زبان انگلیسی را به زبان‌های دیگر اعمال کنند، که در زمان قابل‌توجهی صرفه‌جویی می‌شود.

دیویس می‌گوید: "تصور کنید که در حال اجرای یک برنامه دوست‌یابی هستید که در سراسر جهان استفاده می‌شود. رفتاری که در یک فرهنگ قابل‌قبول است ممکن است در فرهنگ دیگر مناسب نباشد. کاملا واضح است که شما نمی‌توانید برای تعدیل دقیق بر روی لیستی از کلمات ممنوعه ترجمه‌شده تکیه کنید." آزمایشگاه‌های اسپکتروم هوش مصنوعی متنی حول تعبیه کلمه سفارشی ساخته می‌شود. فرض بر این است که یک کاربر معین به طور متفاوت در مورد عمودی‌های مختلف یک پلتفرم صحبت خواهد کرد. این مکالمه نرمال پایه کاربر در برنامه‌های بازی با رفتار آن‌ها در برنامه‌های قرار عشقی متفاوت خواهد بود. همه اینها به خاطر محتوایی است که آن‌ها بر روی پلت فرم خاص ایجاد می‌کنند.

دیویس می‌گوید: ما آزمایشگاه‌های اسپکتروم را تاسیس کردیم زیرا متوجه شدیم که سمیت آنلاین یک مشکل داده بود، نه یک مشکل ابزار. هیچ‌کس به صف اعتدال دیگری نیاز نداشت. چیزی که آن‌ها نیاز داشتند، تشخیص دقیق‌تر بود. رویکرد ما مشکل دقت را حل می‌کند و میانه‌روها را قادر می‌سازد تا کاری را انجام دهند که هرگز قادر به انجامش نبوده اند: در مقیاس، در زمان واقعی، در سراسر زبان‌ها عمل کنند.

محتوای مضر غیر فعال است

مشکل تشخیص محتوای مضر این است که قصد محتوا اغلب غیرفعال است. برندها به طور فزاینده‌ای با اثر محتوای مضر مرتبط هستند که می‌تواند بر روی مارک‌های به خوبی تثبیت شده‌باشد. محتوای سمی اغلب می‌تواند به شکل یک سخنرانی منظم باشد که تشخیص آن دشوار است. گاهی اوقات حتی محتوای فکاهی تیره نیز می‌تواند محتوای سمی باشد.

دیویس می‌گوید: رفتار سمی که کاملا مشخص است، مانند استفاده از توهین به مقدسات، تشخیص آن خیلی سخت نیست. آنچه که شناسایی آن به طور قابل‌توجهی دشوارتر است، رفتارهای شنیع‌تری مانند آزار جنسی، خشونت سایبری، گرومینگ CSAM، افراط‌گرایی و استخدام تروریست‌ها است. این رفتارها در طی زمان تکامل می‌یابند و می‌توانند بدون استفاده از کلمات ممنوعه رخ دهند.

هوش مصنوعی متنی می‌تواند به درک رفتار کاربری که محتوا را تولید می‌کند، کمک کند. الگوریتم هوش مصنوعی با استفاده از فراداده کاربر، پاسخ‌های تاریخی به محتوای آن‌ها، و پاسخ‌های به محتوای فعلی آن‌ها، می‌تواند به طور مداوم یک حلقه بازخورد ایجاد کند که به آن اجازه دهد مفهوم کاربر را درک کند.

دیویس می‌گوید: بیایید به یک کاربر برنامه ملاقات به عنوان مثال نگاه کنیم. آن شخص می‌تواند با چند فرد مختلف در برنامه تعامل داشته باشد. اجازه دهیدی بگوییم که پس از تعامل برای مدتی، آن فرد هر یک از دوستان مجازی خود را به طور واضح پیام جنسی می‌فرستد. دوست اول با پیام مشابهی به او پاسخ میدهد.
دوست دوم اصلا جواب نمی‌دهد. دوست سوم با ترس، عصبانیت یا ناراحتی و یا نوع دیگری از مسمومیت پاسخ می‌دهد.
فن‌آوری ما کل تعامل میان کاربران را تحلیل می‌کند، نه فقط پیام‌ها یا کلمات تکی، و قادر خواهد بود بگوید که کدام یک از این تعاملات مشکل پلتفرم هستند.

رفع مشکلات فرهنگی

با فراتر رفتن از نگاه کردن به محتوای مضر به عنوان یک رفتار بد، اگر تبعیض آشکار را به عنوان یک نوع محتوای سمی طبقه‌بندی کنید، در بسیاری از کشورها، این می‌تواند یک مشکل مهم باشد. در هند، جایی که تبعیض طبقاتی اغلب در رسانه‌های اجتماعی و دیگر بس‌ترهای محتوایی وجود دارد، محتوای جانبدارانه یا سمی می‌تواند مسایل فرهنگی جامعه را تقویت کند.

برنامه آزمایشگاه‌های طیف تکنولوژی را برای تشخیص تبعیض کاست در زبان هندی و انگلیسی توسعه داد.

در کشورهای غربی، به ویژه در پلتفرم‌های بازی، گردن‌کلفتی با خشونت سایبری نیز می‌تواند به یک موضوع مهم تبدیل شود. با صرف زمان بیشتر و بیشتر توسط کودکان در این پلتفرم‌ها، کشورهای غربی بیشتر نگران تشخیص رفتارهای خشونت سایبری هستند.

دیویس می‌گوید: اگر شما فقط به یک کلمه بر روی یک سکوی مبتنی بر کودک نگاه می‌کنید و آن کلمه را تعبیه نمی‌کنید تا درک کنید که کودکان چگونه با آن پویایی اجتماعی ارتباط برقرار می‌کنند. پس احتمالا در تشخیص اینکه چه زمانی قلدری سایبری رخ می‌دهد، خیلی دقیق نیستید، چون چیزهایی مانند طعنه و کنایه، آن‌ها حرف رمزی خودشان را دارند.

اتوماسیون در مقابل تعدیل‌کننده‌های انسانی

با دقیق‌تر شدن الگوریتم‌های هوش مصنوعی در تشخیص محتوای سمی به صورت آنلاین، فرآیند فشرده کار محتوا می‌تواند خودکارانه‌تر شود.

دیویس می‌گوید: تعدیل‌کننده‌های انسانی مردمی پر شور هستند که در جوامعی که خدمت می‌کنند سرمایه‌گذاری کرده‌اند. با ما، آن‌ها شریکی دارند که می‌توانند به او اعتماد کنند تا ایده دقیقی از آنچه در حال رخ دادن است به آن‌ها بدهد. آن‌ها برای تقویت تلاش‌های خود به فن‌آوری ما تکیه می‌کنند.

در کوتاه‌مدت، همانطور که افراد بیشتری محتوای آنلاین را بررسی می‌کنند، تعدیل‌کننده‌های محتوا همچنان کلید تعدیل محتوای بسیاری از سکوها خواهند بود. اما با موفقیت تکنولوژی هوش مصنوعی زمینه‌ای مانند آزمایشگاه‌های اسپکتروم، محتوای سمی دقیق‌تر را می توان شناسایی کرد و برای تعدیل‌کننده‌ها علامت‌گذاری کرد.

دیویس می‌گوید: ماموریت ما این است که اینترنت را به مکانی با ارزش‌تر برای همه تبدیل کنیم. ما در بین مشتریان خود که شامل بازی‌های ریو، مرکوری، و گروه ملاقات می‌شوند، از ۱ میلیارد نفر در برابر رفتارهای سمی محافظت (و شمارش) می‌کنیم.

ترجمه این مقاله با استفاده از ربات ترجمه آنلاین مقالات هوش مصنوعی انجام شده و بصورت محدود مورد بازبینی انسانی قرار گرفته است. در نتیجه ممکن است دارای برخی اشکالات ترجمه باشد.