خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
سنا از نقشه راه 32 میلیارد دلاری برای تنظیم هوش مصنوعی رونمایی کرد
چهار سناتور ارشد روز چهارشنبه از نقشه راه پیشنهادی برای مقررات هوش مصنوعی پرده برداری کردند و خواستار صرف حداقل 32 میلیارد دلار در هر سال برای نوآوری هوش مصنوعی غیردفاعی شدند.
اعضای کارگروه هوش مصنوعی - رهبر اکثریت سنا، چاک شومر (D-NY)، مایک راندز (R-SD)، مارتین هاینریش (D-NM) و تاد یانگ (R-IN) - پیشنهاد مورد انتظار را منتشر کردند. پس از ماه ها میزبانی انجمن بینش هوش مصنوعی برای اطلاع رسانی به همکاران خود در مورد این فناوری. این رویدادها کارشناسان هوش مصنوعی، از جمله مدیران اجرایی مانند سام آلتمن، مدیر عامل OpenAI و ساندار پیچای، مدیر عامل گوگل، و همچنین دانشگاهیان، کارگران و رهبران حقوق مدنی را به همراه آورد.
در اینجا نقشه راه چیست: قانون خاصی که می تواند به سرعت تصویب شود. در گزارش 20 صفحهای، گروه کاری حوزههای کلیدی را مشخص میکند که کمیتههای مربوطه سنا باید تلاشهای خود را در رابطه با هوش مصنوعی متمرکز کنند.
این موارد عبارتند از: آموزش نیروی کار هوش مصنوعی؛ پرداختن به محتوای تولید شده توسط هوش مصنوعی در زمینه های خاص، از جمله مطالب سوء استفاده جنسی از کودکان (CSAM) و محتوای انتخاباتی؛ حفاظت از اطلاعات خصوصی و محتوای دارای حق چاپ از سیستم های هوش مصنوعی؛ و کاهش هزینه های انرژی هوش مصنوعی. این گروه کاری می گوید که این گزارش فهرست کاملی از گزینه ها نیست.
شومر گفت که این نقشه راه برای راهنمایی کمیتههای سنا است زیرا آنها رهبری مقررات مربوط به صنایع دستی را بر عهده میگیرند، و هدف از آن ایجاد قانون گستردهای که تمام هوش مصنوعی را در بر میگیرد، نبود.
برخی از قانونگذاران برای معرفی پیشنهادهای مرتبط با هوش مصنوعی خود منتظر نقشه راه نبودند.
برای مثال، کمیته قوانین سنا، یک سری از لایحه های مربوط به هوش مصنوعی را در روز چهارشنبه به تصویب رساند. اما با توجه به بسیاری از حوزههای مختلف که توسط هوش مصنوعی تحت تأثیر قرار گرفتهاند و دیدگاههای مختلف در مورد سطح مناسب و انواع مقررات، هنوز مشخص نیست که چنین پیشنهادهایی با چه سرعتی به قانون تبدیل میشوند - به ویژه در سال انتخابات.
این گروه کاری سایر قانونگذاران را تشویق می کند تا با کمیته تخصیص سنا همکاری کنند تا بودجه هوش مصنوعی را به سطوح پیشنهادی کمیسیون امنیت ملی در زمینه هوش مصنوعی (NSCAI) برساند. آنها می گویند که این پول باید برای تأمین مالی تحقیق و توسعه هوش مصنوعی و نیمه هادی در سراسر دولت و زیرساخت های آزمایشی مؤسسه ملی استاندارد و فناوری (NIST) استفاده شود.
نقشه راه به طور خاص از همه سیستمهای هوش مصنوعی آینده درخواست نمیکند که قبل از فروش به عموم، ارزیابی ایمنی را انجام دهند، بلکه در عوض از آن میخواهد چارچوبی ایجاد کند که تعیین کند چه زمانی ارزیابی لازم است.
این یک انحراف از برخی از لوایح پیشنهادی است که فوراً به ارزیابی ایمنی برای همه مدلهای هوش مصنوعی فعلی و آینده نیاز دارد. سناتورها همچنین فوراً خواستار تجدید نظر در قوانین حق چاپ موجود نشدند، نبردی که شرکت های هوش مصنوعی و دارندگان حق چاپ در دادگاه ها دارند. درعوض، از سیاستگذاران میخواهد تا در نظر بگیرند که آیا قوانین جدیدی در مورد شفافیت، منشأ محتوا، حفاظت از شباهت و حق چاپ مورد نیاز است یا خیر.
دانا رائو، مشاور عمومی و افسر ارشد اعتماد Adobe، که در انجمن بینش هوش مصنوعی شرکت کرد، در بیانیهای گفت که نقشه راه سیاست شروعی دلگرمکننده است، زیرا برای دولتها مهم است که در سراسر اکوسیستم خلاقانهتر، از جمله برای هنرمندان تجسمی، حفاظتهایی را ارائه کنند. و نگرانی های آنها در مورد سبک.
با این حال، گروههای دیگر بیشتر از نقشه راه شومر انتقاد میکنند و بسیاری از آنها در مورد هزینههای پیشنهادی تنظیم این فناوری ابراز نگرانی میکنند.
آمبا کاک، مدیر اجرایی AI Now، یک گروه تحقیقاتی سیاستی که توسط گروههایی مانند بنیادهای جامعه باز، شبکه امیدیار و موزیلا حمایت میشود، پس از این گزارش بیانیهای منتشر کرد که گفت: «فهرست طولانی پیشنهادات آن جایگزینی برای قانون قابل اجرا نیست». Kak همچنین با برچسب قیمت مالیات دهندگان بزرگ در این پیشنهاد مخالفت کرد و گفت: "این خطر تقویت بیشتر قدرت در ارائه دهندگان زیرساخت هوش مصنوعی و تکرار مشوق های صنعت است - ما به دنبال تضمین هایی برای جلوگیری از وقوع آن هستیم."
رشاد رابینسون، رئیس گروه حقوق مدنی Color of Change، در بیانیهای گفت که این گزارش «به وضوح نشان میدهد که شومر هوش مصنوعی را جدی نمیگیرد، که با توجه به ظرفیت قبلی او برای صداقت، حل مشکل و رهبری در این موضوع، ناامیدکننده است. ” او افزود که این گزارش «سابقه خطرناکی برای آینده پیشرفت فناوری ایجاد می کند. ضروری است که قانونگذار نه تنها نردههای محافظ قویتری برای هوش مصنوعی ایجاد کند تا اطمینان حاصل شود که برای دستکاری، آسیب رساندن و سلب حق رای جوامع سیاهپوست استفاده نمیشود، بلکه آنها تشخیص دهند و سریعاً به گسترش پرخطر و کنترل نشده موقعیتهای هوش مصنوعی سوگیری پاسخ دهند.
منبع : The Verge
🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
رقیب بزرگ OpenAI Sora: مدل هوش مصنوعی چینی Kling ویدیوها را با دقت بیشتری ایجاد میکند
مطلبی دیگر از این انتشارات
ایلان ماسک دادخواست خود علیه OpenAI را پس گرفت، اما هنوز کارش با سام آلتمن تمام نشده
مطلبی دیگر از این انتشارات
قابلیت جدید سرچ گوگل AI Overview به زودی حاوی تبلیغات خواهد شد