ابزار هوش مصنوعی جدید از شما سلفی می‌خواهد، اما سپس از آسیب رساندن به شما تغذیه می‌کند

منتشر شده در analyticsinsight به تاریخ ۲۸ اکتبر ۲۰۲۲
لینک منبع New AI Tool Asks for Your Selfies but Then Feeds on Hurting Your Ego

ناگهان، یک ابزار جدید هوش مصنوعی افراد را بدون تعمیر و بر اساس سلفی‌های آن‌ها آزار می‌دهد، درست زمانی که ما شروع به باور کردیم که پیشرفت‌ها در فناوری تولیدکننده هوش مصنوعی ممکن است متوقف شود. اما در حال حاضر ما این پاسخ را داریم که هیچ گونه توقف در فن‌آوری و کاربردهای بحث‌برانگیز هوش مصنوعی وجود ندارد.

هر روز صبح در سال ۲۰۲۲، یک ابزار جدید هوش مصنوعی به صورت آنلاین منتشر می‌شود. روزهایی که کاربران اینترنتی با استفاده از DALLE 2 و DALLE Mini که تصاویر نژادپرستانه منتشر می‌کرد، هنرهای مسخره‌ای برای پست‌های مزخرف توییتر ایجاد می‌کردند، مدت‌هاست که گذشته است. درعوض، در ماه‌های اخیر، شاهد استفاده از این فناوری‌ها در تعداد فزاینده‌ای از راه‌های غیراخلاقی، نقض حق نسخه‌برداری و دیستوپیایی بوده‌ایم، از جمله استفاده از آن‌ها برای برنده شدن در مسابقات هنری قانونی، جایگزینی عکاسان واقعی در بخش نشر و حتی سرقت منحصر به فرد هنر فن. یک ابزار هوش مصنوعی جدید برای سلفی ها به تازگی منتشر شده است که پسر خوبی نیست و توسط سازنده آن Clip Interrogator نام‌گذاری شده است.

هنرمند مولد هوش مصنوعی @pharmapsychotic برنامه‌ای به نام CLIP Interrogator را توسعه داد که اساساً به تعیین اینکه "محرک مناسبی برای ایجاد تصاویر جدید مانند تصاویر موجود است" کمک می‌کند.

به‌عنوان مثال، نمونه‌ای از دزد هوش مصنوعی را در نظر بگیرید که با گرفتن اسکرین شات از یک هنرمند طرفدار Genshin Impact در حال پخش اجرای زنده انجام کارشان، دزدی کرد و آن را به یک تولیدکننده تصویر آنلاین وارد کرد تا ابتدا آن را «تکمیل» کند.

و سپس نسخه هوش مصنوعی هنر را شش ساعت قبل از هنرمند اصلی در توییتر پست کنید.

مرد فریبکار پس از آن ادعا کرد هنرمند مرتکب دزدی شده است و برای کار آن‌ها اعتبار طلب کرده است.

دزد ممکن است تصویر سرقت‌شده را در داخل کیف پول محلی آپلود کند و یک سری دستورالعمل متنی دریافت کند که به ایجاد هنر مرتبط با استفاده از مبدل‌های مختلف متن به تصویر مانند DALLE کوچک کمک می‌کند. اگرچه این روش تا حدودی دشوار است، اما دنیای جدیدی از فرصت‌ها را برای راه‌حل‌های با نیروی هوش مصنوعی باز می‌کند.

با این حال، در توییتر، کاربران می‌توانند سلفی‌ها را آپلود کنند و سو استفاده کلامی را از یک ماشین با استفاده از حق امتیاز CLIP دریافت کنند. این ابزار به سه کاربر برچسب زد: «جو بایدن به عنوان یک زن تغییر جنسیت داده»، «بسیار جنسیتی با چشمان شبح زده» و «مرد ضعیف بتا». علاوه بر این، زمانی که عکس‌هایی از زنان در تاپ نمایش داده می‌شد، به نظر می‌رسید که به‌ویژه به وب‌سایت‌های پورنو اشاره می‌کردند. شوکه شدیم؟ نه، اصلا. ناامید؟ مثل همیشه.

ما تصمیم گرفتیم که این تکنولوژی را با آپلود کردن برخی از تصاویر مشهور آزمایش کنیم، زیرا نمی‌توانیم به هوش مصنوعی با سلفی‌ها اعتماد کنیم. در این فهرست، ماشین گان کلی (MGK) ، گورخر خون‌آشام همسایه، پیت دیویدسون و البته، علاقمند به سلفی کیم کارداشیان قرار داشتند.

« خطا: این برنامه خیلی شلوغ است.» پس از چند دقیقه رفرش کردن و طول دادن ظاهر شد. به آن ادامه دهید! در نهایت، با استفاده از یکی از سلفی‌های آینه‌ای بدنام MGK، توانستیم CLIP Interrogator را برای تولید پیام‌های متنی دریافت کنیم. ابزار، "غیر باینری، angst white، Reddit، Discord" را بیرون داد.

از سوی دیگر، دیویدسون، دوست این رپر آمریکایی، چندین عکس دریافت کرد، از جمله "یونگ لاغر، عکس بازداشت جنایتکار، هسته عجیب و غریب، بولداگ و تصویر نفرین شده". به عنوان یک نقطه مرجع، تصویر مورد بحث، عکسی بدون پیراهن است که کمدین برنامه زنده شنبه‌شب در زمان آشنایی با کیم کارداشیان، برای تلافی با Kanye West گرفته بود. ابزار هوش مصنوعی در صحبت با طراح، به عکس جواهرات الماس محبوب کیم کارداشیان اشاره کرد که «تحت تأثیر برندا چمبرلین است، پوشیدن کورتا، توزیع‌های منظم، و کلاه گیس است». CLIP Interrogator "بر اساس شبکه عصبی Contrastive Language-Image Pre-Training (CLIP) OpenAI است که در سال 2021 منتشر شد و توسط Hugging Face میزبانی شده است، که منابع اضافی را برای مقابله با ترافیک هدر داده است، همانطور که توسط Futurism بیان شده است. اکنون جزئیات بیشتر به دلیل ترافیک سنگین ابزار مبهم هستند.

تنها چیزی که ما می‌توانیم از آن مطمئن باشیم این است که آزار دیده اما هنوز راه‌هایی برای پیش‌داوری دارد، به‌ویژه زمانی که کاربران از آن برای اظهار نظر در مورد عکس‌های خود استفاده می‌کنند. علاوه بر این، این واقعیت که ۳۲۰ توییت در توییتر با استفاده از عبارت جستجوی «حق امتیاز CLIP» یافت شده‌است، نشان می‌دهد که این تکنولوژی در اینجا باقی می‌ماند.

تعیین آنچه که هوش مصنوعی مخرب امیدوار به انجام آن است، دشوار است. می‌دانیم که این شبکه مبتنی بر شبکه عصبی پیش آموزش تصویر-زبان تطبیقی چهره حفره‌ای (CLIP) است که در سال ۲۰۲۱ توسط OpenAI منتشر شد و منابع بیشتری برای کنترل ترافیک معیوب در اختیار دارد.

اما فراتر از آن، این یک معمای کوچک است: آیا توسعه دهنده تلاش می‌کند تا نشان دهد هوش مصنوعی چگونه به ما نگاه می‌کند، آیا آن‌ها آن را طوری طراحی کرده‌اند که تا حد ممکن زهرآگین باشد، یا چیز دیگری در بازی است؟

این متن با استفاده از ربات ترجمه مقالات تکنولوژی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.
مقالات لینک‌شده در این متن می‌توانند به صورت رایگان با استفاده از مقاله‌خوان ترجمیار به فارسی مطالعه شوند.