خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
مدلهای هوش مصنوعی جیبی ممکن است عصر جدیدی از محاسبات را رقم بزنند
هنگامی که ChatGPT در نوامبر 2023 منتشر شد، فقط از طریق ابر قابل دسترسی بود زیرا مدل پشت آن بسیار بزرگ بود.
امروز من یک برنامه هوش مصنوعی مشابهاً توانا را بر روی مکبوک ایر خود اجرا میکنم و حتی گرم نشده است. این کاهش اندازه نشان میدهد که چگونه محققان به سرعت در حال پالایش مدلهای هوش مصنوعی برای ساخت آنها به صورت لاغرتر و کارآمدتر هستند. همچنین نشان میدهد که رفتن به مقیاسهای بزرگتر و بزرگتر تنها راه برای افزایش هوش ماشینها نیست.
مدل که اکنون باعث شده لپتاپ من با هوش مشابه ChatGPT مجهز شود، Phi-3-mini نام دارد. این مدل بخشی از یک خانواده از مدلهای کوچکتر هوش مصنوعی است که به تازگی توسط محققان مایکروسافت منتشر شده است. اگرچه به اندازه کافی کوچک است که بر روی یک تلفن هوشمند اجرا شود، من آن را با استفاده از یک لپتاپ و دسترسی از طریق آیفون با استفاده از اپلیکیشنی به نام Enchanted تست کردم که رابط چت مشابهی با اپلیکیشن رسمی ChatGPT ارائه میدهد.
در مقالهای که خانواده مدلهای Phi-3 را توصیف میکند، محققان مایکروسافت میگویند که مدل من با GPT-3.5، مدل OpenAI که پشت اولین انتشار ChatGPT قرار دارد، مقایسه میشود. این ادعا بر اساس اندازهگیری عملکرد آن در چندین استاندارد هوش مصنوعی است که برای سنجش حس مشترک و استدلال طراحی شدهاند. در تستهای خودم، آن را به همان اندازه توانا میبینم.
مایکروسافت در کنفرانس سالانه توسعهدهندگان خود، Build، در این هفته یک مدل "چندرسانهای" Phi-3 را اعلام کرد که قادر به مدیریت صدا، ویدئو و متن است. این اعلامیه تنها چند روز پس از آن بود که OpenAI و گوگل هر دو دستیاران هوش مصنوعی انقلابی را بر اساس مدلهای چندرسانهای که از طریق ابر قابل دسترسی هستند، معرفی کردند.
خانواده کوچکش از مدلهای هوش مصنوعی مایکروسافت نشان میدهد که امکان ساخت انواع برنامههای مفید هوش مصنوعی که به ابر وابسته نیستند، وجود دارد. این میتواند کاربردهای جدیدی را باز کند، زیرا آنها را قادر میسازد تا پاسخگوتر یا خصوصیتر باشند. (الگوریتمهای آفلاین یک قطعه کلیدی از ویژگی Recall هستند که مایکروسافت در کنفرانس توسعهدهندگان خود اعلام کرد و از هوش مصنوعی برای ساخت همه چیزهایی که قبلاً بر روی رایانه شخصی خود انجام دادهاید، قابل جستجو است.)
اما خانواده Phi همچنین چیزی در مورد طبیعت هوش مصنوعی مدرن و شاید نحوه بهبود آن آشکار میکند. سباستین بوبک، محقق مایکروسافت که در این پروژه دخیل است، به من میگوید که این مدلها برای آزمایش اینکه آیا انتخابهای دقیقتر در مورد آنچه یک سیستم هوش مصنوعی آموزش میبیند میتواند راههایی برای تنظیم دقیق تواناییهای آن باشد، ساخته شدهاند.
مدلهای زبان بزرگ مانند GPT-4 OpenAI یا Gemini گوگل که قدرت چتباتها و سایر خدمات را تأمین میکنند، معمولاً با تغذیه مقدار زیادی متن که از کتابها، وبسایتها و تقریباً هر منبع دیگری استخراج میشود، تغذیه میشوند. اگرچه این کار سؤالات حقوقی را مطرح کرده است، OpenAI و دیگران کشف کردهاند که افزایش مقدار متن تغذیه شده به این مدلها و قدرت محاسباتی مورد استفاده برای آموزش آنها میتواند تواناییهای جدیدی را باز کند.
بوبک، که علاقهمند به طبیعت "هوش" نمایش داده شده توسط مدلهای زبان است، تصمیم گرفت ببیند اگر به دقت محتوای تغذیه شده به یک مدل را انتخاب کنیم، میتوانیم تواناییهای آن را بدون نیاز به افزایش اندازه آموزش آن بهبود بخشیم.
در سپتامبر گذشته، تیم او مدلی را که تقریباً یک هفدهم اندازه GPT-3.5 OpenAI بود، با دادههای آموزشی با کیفیت بالا که توسط یک مدل بزرگتر هوش مصنوعی تولید میشدند، از جمله حقایق از حوزههای خاص مانند برنامهنویسی، آموزش داد. مدل حاصل تواناییهای شگفتانگیزی را برای اندازه خود نشان داد. "وای خدا، آنچه مشاهده کردیم این بود که توانستیم با استفاده از این تکنیک، GPT-3.5 را در کد زدن شکست دهیم. "او میگوید:" این واقعاً برای ما تعجبآور بود. "
گروه بوبک در مایکروسافت با استفاده از این روش، کشفهای دیگری نیز انجام دادهاند. در یکی از آزمایشها، مشاهده شد که تغذیه یک مدل بسیار کوچک با داستانهای کودکان باعث میشود تا خروجی سازگار و یکپارچهای تولید کند، حتی اگر برنامههای هوش مصنوعی با این اندازه معمولاً تولید کننده متن بیمعنی باشند. بار دیگر، نتیجه نشان میدهد که میتوانید نرمافزار هوش مصنوعی به ظاهر کمقدرت را با آموزش آن با مواد مناسب، مفید کنید.
بوبک میگوید که این نتایج ظاهراً نشان میدهند که ساخت سیستمهای هوش مصنوعی هوشمندتر در آینده فقط به مقیاسبندی آنها در اندازههای بزرگتر نیاز ندارد. همچنین احتمال دارد که مدلهای کوچکشده مانند Phi-3 یک ویژگی مهم از آینده محاسبات باشند. اجرای مدلهای هوش مصنوعی به صورت "محلی" بر روی تلفن هوشمند، لپتاپ یا رایانه شخصی باعث کاهش تاخیر یا قطعیهایی میشود که زمانی اتفاق میافتند که پرسوجها باید به ابر ارسال شوند. این تضمین میکند که دادههای شما بر روی دستگاه شما باقی میماند و ممکن است کاربردهای کاملاً جدیدی را برای هوش مصنوعی که تحت مدل متمرکز بر ابر امکانپذیر نیست، باز کند.
شرکت اپل به طور گسترده انتظار میرود که استراتژی هوش مصنوعی خود را که مدتها انتظارش را میکشید، در کنفرانس WWDC خود در ماه آینده رونمایی کند، و قبلاً ادعا کرده است که سختافزار و نرمافزار سفارشی آن امکان یادگیری ماشین را به صورت محلی بر روی دستگاههای خود فراهم میکند. به جای رقابت با OpenAI و گوگل در ساخت مدلهای بزرگتر و بزرگتر هوش مصنوعی مبتنی بر ابر، ممکن است با تمرکز بر کاهش اندازه هوش مصنوعی به اندازهای که در جیب مشتریان خود قرار میگیرد، متفاوت فکر کند.
منبع : Wired
🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
سام آلتمن آینده ای را متصور است که در آن درآمد پایه جهانی "تکه ای از GPT" باشد!
مطلبی دیگر از این انتشارات
رقیب چینی Sora | خلاصه اخبار هوش مصنوعی 19 خرداد
مطلبی دیگر از این انتشارات
ویژگی هوش مصنوعی ویندوز(Recall) که همه چیز را اسکرین شات میگیرد یک 'فاجعه' امنیتی توصیف شد