من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
هوش مصنوعی چگونه میتواند به تعدیل محتوا کمک کند
منتشر شده در: forbes به تاریخ ۱ دسامبر ۲۰۲
لینک مطلب اصلی: How AI Can Help To Moderate Content
اینترنت از محتوای سمی برخوردار است. شرکتهای رسانههای اجتماعی مانند فیس بوک، توییتر، اینستاگرام و غیره از ترکیبی از تعدیلکنندههای محتوای انسانی و تکنولوژی برای محدود کردن مقدار مطالب مضر استفاده کردهاند. با پیشرفت الگوریتم های هوش مصنوعی، شرکتهایی مانند آزمایشگاههای اسپکتروم در حال هجوم به فضا برای استفاده از الگوریتم های هوش مصنوعی بافتی برای بهبود تشخیص محتوای سمی هستند. آنها به تازگی ۱۰ میلیون دلار در سپتامبر ۲۰۲۰ سرمایهگذاری کردهاند. به نظر میرسد که پلتفرمهای محتوا راهحلهای پیچیدهتری میخواهند.
جاستین دیویس، مدیر عامل شرکت آزمایشگاههای اسپکتروم میگوید: از نامهای کاربری ایجاد شده گرفته تا پرس و جوهایی که برای جستجو وارد شده، پستهای ساختهشده، تصاویر آپلود شده، اینترنت پر از محتوای ایجاد شده توسط کاربران است. متاسفانه، همه این محتواها مناسب نیستند. تشخیص این که کدام محتوا مناسب نیست، میتواند برای پلتفرمهای دارای تکنولوژی اعتدال قدیمی چالش برانگیز باشد.
ویژگی چند زبانی الگوریتم های هوش مصنوعی پیچیدهتر میکند.
بسیاری از پلتفرمهای جهانی هستند. آنها هر روز توسط خالقان محتوا که به زبانهای مختلف کار میکنند، مورد دسترسی قرار میگیرند. الگوریتم هایی که از «کلمات کلیدی» به عنوان پایه جستجوی خود برای سمیت استفاده میکنند، ممکن است به دلیل تفاوتهای زبانی خوب عمل نکنند. همچنین یک روش بسیار ناکارآمد است. اینجا جایی است که هوش مصنوعی زمینهای وارد میشود. هوش مصنوعی ترکیبی زمانی است که فرادادهها در اطراف یک قطعه از اطلاعات در داخل الگوریتم ها به همراه معنای گفتار استفاده میشوند.
رویکرد آزمایشگاههای اسپکتروم، ترجمه را به نفع یک تکنیک جدید که در سراسر زبانها همراستا میشود، نادیده میگیرد. مزیت این روش، در مقابل ترجمه، این است که پلتفرمها میتوانند تمام کارهای انجامشده به زبان انگلیسی را به زبانهای دیگر اعمال کنند، که در زمان قابلتوجهی صرفهجویی میشود.
دیویس میگوید: "تصور کنید که در حال اجرای یک برنامه دوستیابی هستید که در سراسر جهان استفاده میشود. رفتاری که در یک فرهنگ قابلقبول است ممکن است در فرهنگ دیگر مناسب نباشد. کاملا واضح است که شما نمیتوانید برای تعدیل دقیق بر روی لیستی از کلمات ممنوعه ترجمهشده تکیه کنید." آزمایشگاههای اسپکتروم هوش مصنوعی متنی حول تعبیه کلمه سفارشی ساخته میشود. فرض بر این است که یک کاربر معین به طور متفاوت در مورد عمودیهای مختلف یک پلتفرم صحبت خواهد کرد. این مکالمه نرمال پایه کاربر در برنامههای بازی با رفتار آنها در برنامههای قرار عشقی متفاوت خواهد بود. همه اینها به خاطر محتوایی است که آنها بر روی پلت فرم خاص ایجاد میکنند.
دیویس میگوید: ما آزمایشگاههای اسپکتروم را تاسیس کردیم زیرا متوجه شدیم که سمیت آنلاین یک مشکل داده بود، نه یک مشکل ابزار. هیچکس به صف اعتدال دیگری نیاز نداشت. چیزی که آنها نیاز داشتند، تشخیص دقیقتر بود. رویکرد ما مشکل دقت را حل میکند و میانهروها را قادر میسازد تا کاری را انجام دهند که هرگز قادر به انجامش نبوده اند: در مقیاس، در زمان واقعی، در سراسر زبانها عمل کنند.
محتوای مضر غیر فعال است
مشکل تشخیص محتوای مضر این است که قصد محتوا اغلب غیرفعال است. برندها به طور فزایندهای با اثر محتوای مضر مرتبط هستند که میتواند بر روی مارکهای به خوبی تثبیت شدهباشد. محتوای سمی اغلب میتواند به شکل یک سخنرانی منظم باشد که تشخیص آن دشوار است. گاهی اوقات حتی محتوای فکاهی تیره نیز میتواند محتوای سمی باشد.
دیویس میگوید: رفتار سمی که کاملا مشخص است، مانند استفاده از توهین به مقدسات، تشخیص آن خیلی سخت نیست. آنچه که شناسایی آن به طور قابلتوجهی دشوارتر است، رفتارهای شنیعتری مانند آزار جنسی، خشونت سایبری، گرومینگ CSAM، افراطگرایی و استخدام تروریستها است. این رفتارها در طی زمان تکامل مییابند و میتوانند بدون استفاده از کلمات ممنوعه رخ دهند.
هوش مصنوعی متنی میتواند به درک رفتار کاربری که محتوا را تولید میکند، کمک کند. الگوریتم هوش مصنوعی با استفاده از فراداده کاربر، پاسخهای تاریخی به محتوای آنها، و پاسخهای به محتوای فعلی آنها، میتواند به طور مداوم یک حلقه بازخورد ایجاد کند که به آن اجازه دهد مفهوم کاربر را درک کند.
دیویس میگوید: بیایید به یک کاربر برنامه ملاقات به عنوان مثال نگاه کنیم. آن شخص میتواند با چند فرد مختلف در برنامه تعامل داشته باشد. اجازه دهیدی بگوییم که پس از تعامل برای مدتی، آن فرد هر یک از دوستان مجازی خود را به طور واضح پیام جنسی میفرستد. دوست اول با پیام مشابهی به او پاسخ میدهد.
دوست دوم اصلا جواب نمیدهد. دوست سوم با ترس، عصبانیت یا ناراحتی و یا نوع دیگری از مسمومیت پاسخ میدهد.
فنآوری ما کل تعامل میان کاربران را تحلیل میکند، نه فقط پیامها یا کلمات تکی، و قادر خواهد بود بگوید که کدام یک از این تعاملات مشکل پلتفرم هستند.
رفع مشکلات فرهنگی
با فراتر رفتن از نگاه کردن به محتوای مضر به عنوان یک رفتار بد، اگر تبعیض آشکار را به عنوان یک نوع محتوای سمی طبقهبندی کنید، در بسیاری از کشورها، این میتواند یک مشکل مهم باشد. در هند، جایی که تبعیض طبقاتی اغلب در رسانههای اجتماعی و دیگر بسترهای محتوایی وجود دارد، محتوای جانبدارانه یا سمی میتواند مسایل فرهنگی جامعه را تقویت کند.
برنامه آزمایشگاههای طیف تکنولوژی را برای تشخیص تبعیض کاست در زبان هندی و انگلیسی توسعه داد.
در کشورهای غربی، به ویژه در پلتفرمهای بازی، گردنکلفتی با خشونت سایبری نیز میتواند به یک موضوع مهم تبدیل شود. با صرف زمان بیشتر و بیشتر توسط کودکان در این پلتفرمها، کشورهای غربی بیشتر نگران تشخیص رفتارهای خشونت سایبری هستند.
دیویس میگوید: اگر شما فقط به یک کلمه بر روی یک سکوی مبتنی بر کودک نگاه میکنید و آن کلمه را تعبیه نمیکنید تا درک کنید که کودکان چگونه با آن پویایی اجتماعی ارتباط برقرار میکنند. پس احتمالا در تشخیص اینکه چه زمانی قلدری سایبری رخ میدهد، خیلی دقیق نیستید، چون چیزهایی مانند طعنه و کنایه، آنها حرف رمزی خودشان را دارند.
اتوماسیون در مقابل تعدیلکنندههای انسانی
با دقیقتر شدن الگوریتمهای هوش مصنوعی در تشخیص محتوای سمی به صورت آنلاین، فرآیند فشرده کار محتوا میتواند خودکارانهتر شود.
دیویس میگوید: تعدیلکنندههای انسانی مردمی پر شور هستند که در جوامعی که خدمت میکنند سرمایهگذاری کردهاند. با ما، آنها شریکی دارند که میتوانند به او اعتماد کنند تا ایده دقیقی از آنچه در حال رخ دادن است به آنها بدهد. آنها برای تقویت تلاشهای خود به فنآوری ما تکیه میکنند.
در کوتاهمدت، همانطور که افراد بیشتری محتوای آنلاین را بررسی میکنند، تعدیلکنندههای محتوا همچنان کلید تعدیل محتوای بسیاری از سکوها خواهند بود. اما با موفقیت تکنولوژی هوش مصنوعی زمینهای مانند آزمایشگاههای اسپکتروم، محتوای سمی دقیقتر را می توان شناسایی کرد و برای تعدیلکنندهها علامتگذاری کرد.
دیویس میگوید: ماموریت ما این است که اینترنت را به مکانی با ارزشتر برای همه تبدیل کنیم. ما در بین مشتریان خود که شامل بازیهای ریو، مرکوری، و گروه ملاقات میشوند، از ۱ میلیارد نفر در برابر رفتارهای سمی محافظت (و شمارش) میکنیم.
ترجمه این مقاله با استفاده از ربات ترجمه آنلاین مقالات هوش مصنوعی انجام شده و بصورت محدود مورد بازبینی انسانی قرار گرفته است. در نتیجه ممکن است دارای برخی اشکالات ترجمه باشد.
مطلبی دیگر از این انتشارات
پایتون، Mojo خود را برای هوش مصنوعی به کار میگیرد
مطلبی دیگر از این انتشارات
۱۰ ویژگی حیاتی رهبری برای عصر هوش مصنوعی
مطلبی دیگر از این انتشارات
با عیدی ابر آروان و فندق، دیگه نگران وضعیت کسب و کار خودتون بعد از قرنطینه نباشید.