خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
OpenAI میگوید آموزش مدل جدید هوش مصنوعی پرچمدار خود را آغاز کرده است.
OpenAI روز سهشنبه اعلام کرد که آموزش مدل جدید پرچمدار هوش مصنوعی را آغاز کرده که جانشین فناوری GPT-4 خواهد شد که چتبات محبوب ChatGPT را پایهریزی میکند.
این استارتآپ سانفرانسیسکویی، که یکی از شرکتهای پیشرو در حوزه هوش مصنوعی است، در یک پست وبلاگ اعلام کرد که انتظار دارد مدل جدید "سطح بعدی قابلیتها" را به ارمغان بیاورد چون در جهت ساخت "هوش مصنوعی عمومی" یا A.G.I.، ماشینی که میتواند هر کاری که مغز انسان انجام میدهد را انجام دهد، تلاش میکند. مدل جدید موتور محصولات هوش مصنوعی از جمله چتباتها، دستیارهای دیجیتالی مشابه Siri اپل، موتورهای جستجو و تولیدکنندگان تصویر خواهد بود.
همچنین OpenAI اعلام کرد که یک کمیته جدید ایمنی و امنیتی را برای بررسی نحوه مدیریت خطرات ناشی از مدل جدید و فناوریهای آینده ایجاد کرده است.
این شرکت اعلام کرد: "در حالی که ما افتخار میکنیم مدلهایی را بسازیم و منتشر کنیم که از نظر قابلیتها و ایمنی در صنعت پیشرو هستند، در این لحظه مهم به یک بحث قوی خوشآمد میگوییم."
OpenAI درصدد است فناوری هوش مصنوعی را سریعتر از رقبایش پیش ببرد، در حالی که معترضین را که میگویند این فناوری به طور روزافزون خطرناک میشود، خشنود کند. برخی از نگرانیها شامل گسترش اطلاعات نادرست، جایگزینی مشاغل و حتی تهدید بشریت است. کارشناسان در مورد زمانی که شرکتهای فناوری به هوش مصنوعی عمومی خواهند رسید اختلاف نظر دارند، اما شرکتهایی از جمله OpenAI، Google، Meta و Microsoft بیش از یک دهه است قدرت فناوریهای هوش مصنوعی را افزایش دادهاند و تقریباً هر دو تا سه سال یک جهش قابل توجه نشان میدهند.
GPT-4 OpenAI، که در مارس 2023 منتشر شد، اجازه میدهد چتباتها و دیگر اپلیکیشنهای نرمافزاری به سوالات پاسخ دهند، ایمیل بنویسند، مقالات علمی تولید کنند و دادهها را تحلیل کنند. نسخه بهروز شده این فناوری، که این ماه رونمایی شد و هنوز به طور وسیع در دسترس نیست، همچنین میتواند تصاویر تولید کند و به سوالات و دستورات با صدای بسیار مکالمهای پاسخ دهد.
روزهایی پس از رونمایی از نسخه بهروز شده - به نام GPT-4o -، بازیگر Scarlett Johansson گفت که از یک صدای "ترسناکی مشابه صدای من" استفاده میکند. او گفت که تلاشهای مدیر عامل OpenAI، Sam Altman، برای مجوز دادن به صدایش برای این محصول را رد کرده و یک وکیل استخدام کرده و از OpenAI خواسته تا از استفاده از صدایش متوقف شود. این شرکت گفت که صدا، صدای خانم Johansson نیست.
تکنولوژیهایی مانند GPT-4o مهارتهای خود را با تحلیل مقادیر عظیمی از دادههای دیجیتال، از جمله صداها، عکسها، ویدئوها، مقالات ویکیپدیا، کتابها و مقالات خبری یاد میگیرند. The New York Times در دسامبر از OpenAI و Microsoft شکایت کرد و ادعای نقض حقنشر محتوای خبری مرتبط با سیستمهای هوش مصنوعی را مطرح کرد.
"آموزش" دیجیتالی مدلهای هوش مصنوعی میتواند ماهها یا حتی سالها طول بکشد. پس از اتمام آموزش، شرکتهای هوش مصنوعی معمولاً چندین ماه دیگر را صرف آزمایش فناوری و تنظیم آن برای استفاده عمومی میکنند.
این میتواند به معنای این باشد که مدل بعدی OpenAI ممکن است تا نه ماه دیگر یا بیشتر از آن عرضه نشود.
به گفته شرکت، در حالی که OpenAI مدل جدید خود را آموزش میدهد، کمیته جدید ایمنی و امنیت آن برای بهبود سیاستها و فرآیندهای حفاظت از این فناوری کار خواهد کرد. این کمیته شامل آقای Altman و همچنین اعضای هیئت مدیره OpenAI، Bret Taylor، Adam D’Angelo و Nicole Seligman است. شرکت اعلام کرد که سیاستهای جدید ممکن است در اواخر تابستان یا پاییز به اجرا درآیند.
این ماه، OpenAI اعلام کرد که Ilya Sutskever، یکی از بنیانگذاران و یکی از رهبران تلاشهای ایمنی آن، شرکت را ترک میکند. این باعث نگرانی شد که OpenAI به اندازه کافی با خطرات ناشی از هوش مصنوعی مواجه نمیشود.
دکتر Sutskever در نوامبر به همراه سه عضو دیگر هیئت مدیره برای برکناری آقای Altman از OpenAI پیوست و گفت که آقای Altman دیگر نمیتواند برای خیر بشر به برنامههای شرکت برای ایجاد هوش مصنوعی عمومی اعتماد کند. پس از کمپین لابی توسط متحدان آقای Altman، او پنج روز بعد دوباره به سمت خود بازگشت و از آن زمان مجدداً کنترل شرکت را به دست گرفته است.
دکتر Sutskever تیمی به نام Superalignment را در OpenAI هدایت میکرد که راههایی برای اطمینان از این که مدلهای هوش مصنوعی آینده آسیب نرسانند، بررسی میکرد. مانند دیگران در این حوزه، او نیز به طور روزافزون نگران بود که هوش مصنوعی تهدیدی برای بشریت ایجاد کند.
Jan Leike، که تیم Superalignment را با دکتر Sutskever هدایت میکرد، این ماه از شرکت استعفا داد و آینده تیم را در هالهای از ابهام قرار داد.
OpenAI تحقیقات مربوط به ایمنی بلندمدت خود را در تلاشهای گستردهتر خود برای اطمینان از اینکه فناوریهایش ایمن هستند ادغام کرده است. این کار توسط John Schulman، یکی دیگر از بنیانگذاران، که قبلاً هدایت تیمی که ChatGPT را ایجاد کرده بود بر عهده داشت، هدایت خواهد شد. کمیته ایمنی جدید نظارت بر تحقیقات دکتر Schulman و ارائه راهنمایی برای نحوه مدیریت شرکت با خطرات فنی خواهد بود.
منبع : New York Times
🔹این مقاله به صورت ماشینی، توسط Aiticle تولید شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
خلاصه اخبار هوش مصنوعی | 18 خرداد
مطلبی دیگر از این انتشارات
شرکت Anthropic(سازنده Claude) در حال گسترش به اروپا و جذب سرمایه بیشتر است
مطلبی دیگر از این انتشارات
پیشروی هوش مصنوعی در جهان رسانهها: فرصتها و چالشها