شورای جدید هوش مصنوعی متا کاملاً از مردان سفیدپوست تشکیل شده است

شورای جدید هوش مصنوعی متا کاملاً از مردان سفیدپوست تشکیل شده است
شورای جدید هوش مصنوعی متا کاملاً از مردان سفیدپوست تشکیل شده است

متا روز سه‌شنبه اعلام کرد که یک شورای مشورتی هوش مصنوعی تشکیل داده که تنها از مردان سفیدپوست در آن حضور دارند. چه چیزی دیگری می‌توانیم انتظار داشته باشیم؟ زنان و رنگین‌پوستان دهه‌هاست که در مورد نادیده گرفته شدن و کنار گذاشته شدن از دنیای هوش مصنوعی صحبت می‌کنند، با وجود اینکه آنها واجد شرایط هستند و نقش کلیدی در تکامل این فضا ایفا می‌کنند.

متا بلافاصله به درخواست ما برای اظهارنظر در مورد تنوع هیئت مشورتی پاسخ نداد.

این هیئت مشورتی جدید با هیئت مدیره و هیئت نظارت متا متفاوت است که از نظر جنسیتی و نژادی متنوع‌تر است. سهامداران این هیئت مشورتی هوش مصنوعی را انتخاب نکرده‌اند و مسئولیت مالی نیز ندارند. متا به بلومبرگ گفت که این هیئت نظارت و توصیه‌هایی در مورد پیشرفت‌های فناوری، نوآوری و فرصت‌های رشد استراتژیک ارائه می‌دهد. آنها "به صورت دوره‌ای" ملاقات می‌کنند.

این بسیار مهم است که هیئت مشورتی هوش مصنوعی تنها از کارآفرینان و کارآفرینان تشکیل شده است، نه اخلاقیون یا کسی با پس‌زمینه دانشگاهی یا تحقیقاتی عمیق. اگرچه می‌توان استدلال کرد که مدیران و مدیران سابق Stripe، Shopify و Microsoft به خوبی می‌توانند بر نقشه راه محصول هوش مصنوعی متا نظارت کنند، با توجه به تعداد زیادی از محصولاتی که آنها بین خود آورده‌اند، تحقیقات مستقل نشان داده‌اند که هوش مصنوعی محصولی پرخطر است و عواقب اشتباهات آن می‌تواند گسترده باشد، به ویژه برای گروه‌های حاشیه‌ای.

در مصاحبه‌ای اخیر با TechCrunch، سارا میرز وست، مدیر اجرایی مؤسسه AI Now، یک غیرانتفاعی که پیامدهای اجتماعی هوش مصنوعی را مطالعه می‌کند، گفت که بسیار مهم است که نهادهایی که هوش مصنوعی را تولید می‌کنند را "به دقت بررسی" کنیم تا اطمینان حاصل شود که نیازهای عمومی [مردم] برآورده می‌شود.

او گفت: "این فناوری خطرناک است و تحقیقات مستقل نشان داده‌اند که این خطاها به طور نابرابر توزیع می‌شوند و به طور نامتناسبی جوامعی را آسیب می‌زنند که مدت‌ها است تحت تبعیض قرار گرفته‌اند." "ما باید استانداردهای بسیار بالاتری را تعیین کنیم."

زنان بسیار بیشتر از مردان احتمال دارد که طرف بد هوش مصنوعی باشند. Sensity AI در سال ۲۰۱۹ کشف کرد که ۹۶٪ از ویدیوهای Deepfake AI آنلاین، ویدیوهای جنسی غیرقانونی هستند. هوش مصنوعی تولیدی از زمان آن کشف بسیار رایج‌تر شده است و زنان همچنان هدف این رفتار نقض حریم خصوصی هستند.

در یک رویداد برجسته از ژانویه، فیلم‌های غیرقانونی و پورنوگرافیک تیلور سوئیفت در شبکه‌های اجتماعی منتشر شد و یکی از پست‌های گسترده‌ترین آنها صدها هزار لایک و 45 میلیون بازدید دریافت کرد. پلتفرم‌های اجتماعی مانند X در گذشته نتوانسته‌اند از زنان در برابر این شرایط محافظت کنند - اما از آنجا که تیلور سوئیفت یکی از قدرتمندترین زنان جهان است، X با ممنوع کردن عبارات جستجو مانند "تیلور سوئیفت AI" و "تیلور سوئیفت deepfake" مداخله کرد.

اما اگر این اتفاق برای شما بیفتد و شما یک ستاره پاپ جهانی نباشید، ممکن است شانس خود را از دست بدهید. گزارش‌های متعددی وجود دارد مبنی بر اینکه دانش‌آموزان دبیرستانی و راهنمایی تصاویر صمیمی از همکلاسی‌های خود را با استفاده از هوش مصنوعی ایجاد می‌کنند. اگرچه این فناوری از مدت‌ها پیش وجود داشته است، اما هرگز به راحتی اکنون قابل دسترسی نبوده است - شما لازم نیست از نظر فناوری ماهر باشید تا برنامه‌هایی را که به طور خاص برای "برهنگی" تصاویر زنان تبلیغ می‌شوند، دانلود کنید یا چهره آنها را روی تصاویر پورنوگرافی قرار دهید. در واقع، بر اساس گزارش‌های کات تنبرگ از ان‌بی‌سی، فیس‌بوک و اینستاگرام آگهی‌های برنامه به نام Perky AI را میزبانی می‌کردند که خود را به عنوان یک ابزار برای ایجاد تصاویر صمیمی توصیف می‌کرد.

دو آگهی که ظاهراً بدون تشخیص متا فرار کردند، عکس‌های سلبریتی‌ها سابرینا کارپنتر و جنا اورتگا را با بدن‌های محو شده نشان می‌دادند و از مشتریان می‌خواستند تا لباس آنها را در بیاورند. یکی از عکس‌ها مربوط به زمانی بود که اورتگا فقط 16 سال داشت.

اشتباه اجازه دادن به Perky AI برای تبلیغ کردن یک حادثه منزوی نبود. هیئت نظارت متا به تازگی تحقیقات خود را در مورد عدم توانایی شرکت در رسیدگی به گزارش‌های محتوای صریح و تولید شده توسط هوش مصنوعی آغاز کرده است.

مهم است که صدای زنان و رنگین‌پوستان در نوآوری محصولات هوش مصنوعی گنجانده شود. مدت‌ها است که گروه‌های حاشیه‌ای از توسعه فناوری‌ها و تحقیقات جهان‌شونده کنار گذاشته شده‌اند و نتایج فاجعه‌بار بوده‌اند.

مثال ساده‌ای وجود دارد که تا دهه ۱۹۷۰، زنان از آزمایش‌های بالینی کنار گذاشته شده بودند، به این معنی که کل زمینه‌های تحقیقاتی بدون درک تأثیر آن بر زنان توسعه یافته است. به عنوان مثال، سیاه‌پوستان به ویژه شاهد تأثیرات فناوری ساخته شده بدون در نظر گرفتن آنها هستند - به عنوان مثال، خودروهای خودران بیشتر احتمال دارد که آنها را بزنند زیرا سنسورهای آنها ممکن است در تشخیص پوست سیاه مشکل داشته باشند، طبق مطالعه‌ای که در سال ۲۰۱۹ توسط مؤسسه فناوری جورجیا انجام شد.



منبع : Tech Crunch

🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبک‌های شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.