خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
شورای جدید هوش مصنوعی متا کاملاً از مردان سفیدپوست تشکیل شده است
متا روز سهشنبه اعلام کرد که یک شورای مشورتی هوش مصنوعی تشکیل داده که تنها از مردان سفیدپوست در آن حضور دارند. چه چیزی دیگری میتوانیم انتظار داشته باشیم؟ زنان و رنگینپوستان دهههاست که در مورد نادیده گرفته شدن و کنار گذاشته شدن از دنیای هوش مصنوعی صحبت میکنند، با وجود اینکه آنها واجد شرایط هستند و نقش کلیدی در تکامل این فضا ایفا میکنند.
متا بلافاصله به درخواست ما برای اظهارنظر در مورد تنوع هیئت مشورتی پاسخ نداد.
این هیئت مشورتی جدید با هیئت مدیره و هیئت نظارت متا متفاوت است که از نظر جنسیتی و نژادی متنوعتر است. سهامداران این هیئت مشورتی هوش مصنوعی را انتخاب نکردهاند و مسئولیت مالی نیز ندارند. متا به بلومبرگ گفت که این هیئت نظارت و توصیههایی در مورد پیشرفتهای فناوری، نوآوری و فرصتهای رشد استراتژیک ارائه میدهد. آنها "به صورت دورهای" ملاقات میکنند.
این بسیار مهم است که هیئت مشورتی هوش مصنوعی تنها از کارآفرینان و کارآفرینان تشکیل شده است، نه اخلاقیون یا کسی با پسزمینه دانشگاهی یا تحقیقاتی عمیق. اگرچه میتوان استدلال کرد که مدیران و مدیران سابق Stripe، Shopify و Microsoft به خوبی میتوانند بر نقشه راه محصول هوش مصنوعی متا نظارت کنند، با توجه به تعداد زیادی از محصولاتی که آنها بین خود آوردهاند، تحقیقات مستقل نشان دادهاند که هوش مصنوعی محصولی پرخطر است و عواقب اشتباهات آن میتواند گسترده باشد، به ویژه برای گروههای حاشیهای.
در مصاحبهای اخیر با TechCrunch، سارا میرز وست، مدیر اجرایی مؤسسه AI Now، یک غیرانتفاعی که پیامدهای اجتماعی هوش مصنوعی را مطالعه میکند، گفت که بسیار مهم است که نهادهایی که هوش مصنوعی را تولید میکنند را "به دقت بررسی" کنیم تا اطمینان حاصل شود که نیازهای عمومی [مردم] برآورده میشود.
او گفت: "این فناوری خطرناک است و تحقیقات مستقل نشان دادهاند که این خطاها به طور نابرابر توزیع میشوند و به طور نامتناسبی جوامعی را آسیب میزنند که مدتها است تحت تبعیض قرار گرفتهاند." "ما باید استانداردهای بسیار بالاتری را تعیین کنیم."
زنان بسیار بیشتر از مردان احتمال دارد که طرف بد هوش مصنوعی باشند. Sensity AI در سال ۲۰۱۹ کشف کرد که ۹۶٪ از ویدیوهای Deepfake AI آنلاین، ویدیوهای جنسی غیرقانونی هستند. هوش مصنوعی تولیدی از زمان آن کشف بسیار رایجتر شده است و زنان همچنان هدف این رفتار نقض حریم خصوصی هستند.
در یک رویداد برجسته از ژانویه، فیلمهای غیرقانونی و پورنوگرافیک تیلور سوئیفت در شبکههای اجتماعی منتشر شد و یکی از پستهای گستردهترین آنها صدها هزار لایک و 45 میلیون بازدید دریافت کرد. پلتفرمهای اجتماعی مانند X در گذشته نتوانستهاند از زنان در برابر این شرایط محافظت کنند - اما از آنجا که تیلور سوئیفت یکی از قدرتمندترین زنان جهان است، X با ممنوع کردن عبارات جستجو مانند "تیلور سوئیفت AI" و "تیلور سوئیفت deepfake" مداخله کرد.
اما اگر این اتفاق برای شما بیفتد و شما یک ستاره پاپ جهانی نباشید، ممکن است شانس خود را از دست بدهید. گزارشهای متعددی وجود دارد مبنی بر اینکه دانشآموزان دبیرستانی و راهنمایی تصاویر صمیمی از همکلاسیهای خود را با استفاده از هوش مصنوعی ایجاد میکنند. اگرچه این فناوری از مدتها پیش وجود داشته است، اما هرگز به راحتی اکنون قابل دسترسی نبوده است - شما لازم نیست از نظر فناوری ماهر باشید تا برنامههایی را که به طور خاص برای "برهنگی" تصاویر زنان تبلیغ میشوند، دانلود کنید یا چهره آنها را روی تصاویر پورنوگرافی قرار دهید. در واقع، بر اساس گزارشهای کات تنبرگ از انبیسی، فیسبوک و اینستاگرام آگهیهای برنامه به نام Perky AI را میزبانی میکردند که خود را به عنوان یک ابزار برای ایجاد تصاویر صمیمی توصیف میکرد.
دو آگهی که ظاهراً بدون تشخیص متا فرار کردند، عکسهای سلبریتیها سابرینا کارپنتر و جنا اورتگا را با بدنهای محو شده نشان میدادند و از مشتریان میخواستند تا لباس آنها را در بیاورند. یکی از عکسها مربوط به زمانی بود که اورتگا فقط 16 سال داشت.
اشتباه اجازه دادن به Perky AI برای تبلیغ کردن یک حادثه منزوی نبود. هیئت نظارت متا به تازگی تحقیقات خود را در مورد عدم توانایی شرکت در رسیدگی به گزارشهای محتوای صریح و تولید شده توسط هوش مصنوعی آغاز کرده است.
مهم است که صدای زنان و رنگینپوستان در نوآوری محصولات هوش مصنوعی گنجانده شود. مدتها است که گروههای حاشیهای از توسعه فناوریها و تحقیقات جهانشونده کنار گذاشته شدهاند و نتایج فاجعهبار بودهاند.
مثال سادهای وجود دارد که تا دهه ۱۹۷۰، زنان از آزمایشهای بالینی کنار گذاشته شده بودند، به این معنی که کل زمینههای تحقیقاتی بدون درک تأثیر آن بر زنان توسعه یافته است. به عنوان مثال، سیاهپوستان به ویژه شاهد تأثیرات فناوری ساخته شده بدون در نظر گرفتن آنها هستند - به عنوان مثال، خودروهای خودران بیشتر احتمال دارد که آنها را بزنند زیرا سنسورهای آنها ممکن است در تشخیص پوست سیاه مشکل داشته باشند، طبق مطالعهای که در سال ۲۰۱۹ توسط مؤسسه فناوری جورجیا انجام شد.
منبع : Tech Crunch
🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
یکی از بنیانگذاران اینستاگرام، مدیر ارشد محصول جدید آنتروپیک(Anthropic) سازنده Claude است
مطلبی دیگر از این انتشارات
ایمیلهای فاش شده نشان میدهد که ایلان ماسک منابع هوش مصنوعی را از تسلا دور میکند
مطلبی دیگر از این انتشارات
یونیفای به توسعهدهندگان کمک میکند بهترین LLM را برای کارشان پیدا کنند