مدل‌های هوش مصنوعی جیبی ممکن است عصر جدیدی از محاسبات را رقم بزنند

هنگامی که ChatGPT در نوامبر 2023 منتشر شد، فقط از طریق ابر قابل دسترسی بود زیرا مدل پشت آن بسیار بزرگ بود.

امروز من یک برنامه هوش مصنوعی مشابهاً توانا را بر روی مک‌بوک ایر خود اجرا می‌کنم و حتی گرم نشده است. این کاهش اندازه نشان می‌دهد که چگونه محققان به سرعت در حال پالایش مدل‌های هوش مصنوعی برای ساخت آنها به صورت لاغرتر و کارآمدتر هستند. همچنین نشان می‌دهد که رفتن به مقیاس‌های بزرگتر و بزرگتر تنها راه برای افزایش هوش ماشین‌ها نیست.

مدل که اکنون باعث شده لپ‌تاپ من با هوش مشابه ChatGPT مجهز شود، Phi-3-mini نام دارد. این مدل بخشی از یک خانواده از مدل‌های کوچکتر هوش مصنوعی است که به تازگی توسط محققان مایکروسافت منتشر شده است. اگرچه به اندازه کافی کوچک است که بر روی یک تلفن هوشمند اجرا شود، من آن را با استفاده از یک لپ‌تاپ و دسترسی از طریق آیفون با استفاده از اپلیکیشنی به نام Enchanted تست کردم که رابط چت مشابهی با اپلیکیشن رسمی ChatGPT ارائه می‌دهد.

در مقاله‌ای که خانواده مدل‌های Phi-3 را توصیف می‌کند، محققان مایکروسافت می‌گویند که مدل من با GPT-3.5، مدل OpenAI که پشت اولین انتشار ChatGPT قرار دارد، مقایسه می‌شود. این ادعا بر اساس اندازه‌گیری عملکرد آن در چندین استاندارد هوش مصنوعی است که برای سنجش حس مشترک و استدلال طراحی شده‌اند. در تست‌های خودم، آن را به همان اندازه توانا می‌بینم.

مایکروسافت در کنفرانس سالانه توسعه‌دهندگان خود، Build، در این هفته یک مدل "چندرسانه‌ای" Phi-3 را اعلام کرد که قادر به مدیریت صدا، ویدئو و متن است. این اعلامیه تنها چند روز پس از آن بود که OpenAI و گوگل هر دو دستیاران هوش مصنوعی انقلابی را بر اساس مدل‌های چندرسانه‌ای که از طریق ابر قابل دسترسی هستند، معرفی کردند.

خانواده کوچکش از مدل‌های هوش مصنوعی مایکروسافت نشان می‌دهد که امکان ساخت انواع برنامه‌های مفید هوش مصنوعی که به ابر وابسته نیستند، وجود دارد. این می‌تواند کاربردهای جدیدی را باز کند، زیرا آنها را قادر می‌سازد تا پاسخگوتر یا خصوصی‌تر باشند. (الگوریتم‌های آفلاین یک قطعه کلیدی از ویژگی Recall هستند که مایکروسافت در کنفرانس توسعه‌دهندگان خود اعلام کرد و از هوش مصنوعی برای ساخت همه چیزهایی که قبلاً بر روی رایانه شخصی خود انجام داده‌اید، قابل جستجو است.)

اما خانواده Phi همچنین چیزی در مورد طبیعت هوش مصنوعی مدرن و شاید نحوه بهبود آن آشکار می‌کند. سباستین بوبک، محقق مایکروسافت که در این پروژه دخیل است، به من می‌گوید که این مدل‌ها برای آزمایش اینکه آیا انتخاب‌های دقیق‌تر در مورد آنچه یک سیستم هوش مصنوعی آموزش می‌بیند می‌تواند راه‌هایی برای تنظیم دقیق توانایی‌های آن باشد، ساخته شده‌اند.

مدل‌های زبان بزرگ مانند GPT-4 OpenAI یا Gemini گوگل که قدرت چت‌بات‌ها و سایر خدمات را تأمین می‌کنند، معمولاً با تغذیه مقدار زیادی متن که از کتاب‌ها، وب‌سایت‌ها و تقریباً هر منبع دیگری استخراج می‌شود، تغذیه می‌شوند. اگرچه این کار سؤالات حقوقی را مطرح کرده است، OpenAI و دیگران کشف کرده‌اند که افزایش مقدار متن تغذیه شده به این مدل‌ها و قدرت محاسباتی مورد استفاده برای آموزش آنها می‌تواند توانایی‌های جدیدی را باز کند.

بوبک، که علاقه‌مند به طبیعت "هوش" نمایش داده شده توسط مدل‌های زبان است، تصمیم گرفت ببیند اگر به دقت محتوای تغذیه شده به یک مدل را انتخاب کنیم، می‌توانیم توانایی‌های آن را بدون نیاز به افزایش اندازه آموزش آن بهبود بخشیم.

در سپتامبر گذشته، تیم او مدلی را که تقریباً یک هفدهم اندازه GPT-3.5 OpenAI بود، با داده‌های آموزشی با کیفیت بالا که توسط یک مدل بزرگتر هوش مصنوعی تولید می‌شدند، از جمله حقایق از حوزه‌های خاص مانند برنامه‌نویسی، آموزش داد. مدل حاصل توانایی‌های شگفت‌انگیزی را برای اندازه خود نشان داد. "وای خدا، آنچه مشاهده کردیم این بود که توانستیم با استفاده از این تکنیک، GPT-3.5 را در کد زدن شکست دهیم. "او می‌گوید:" این واقعاً برای ما تعجب‌آور بود. "

گروه بوبک در مایکروسافت با استفاده از این روش، کشف‌های دیگری نیز انجام داده‌اند. در یکی از آزمایش‌ها، مشاهده شد که تغذیه یک مدل بسیار کوچک با داستان‌های کودکان باعث می‌شود تا خروجی سازگار و یکپارچه‌ای تولید کند، حتی اگر برنامه‌های هوش مصنوعی با این اندازه معمولاً تولید کننده متن بی‌معنی باشند. بار دیگر، نتیجه نشان می‌دهد که می‌توانید نرم‌افزار هوش مصنوعی به ظاهر کم‌قدرت را با آموزش آن با مواد مناسب، مفید کنید.

بوبک می‌گوید که این نتایج ظاهراً نشان می‌دهند که ساخت سیستم‌های هوش مصنوعی هوشمندتر در آینده فقط به مقیاس‌بندی آنها در اندازه‌های بزرگتر نیاز ندارد. همچنین احتمال دارد که مدل‌های کوچک‌شده مانند Phi-3 یک ویژگی مهم از آینده محاسبات باشند. اجرای مدل‌های هوش مصنوعی به صورت "محلی" بر روی تلفن هوشمند، لپ‌تاپ یا رایانه شخصی باعث کاهش تاخیر یا قطعی‌هایی می‌شود که زمانی اتفاق می‌افتند که پرس‌وج‌ها باید به ابر ارسال شوند. این تضمین می‌کند که داده‌های شما بر روی دستگاه شما باقی می‌ماند و ممکن است کاربردهای کاملاً جدیدی را برای هوش مصنوعی که تحت مدل متمرکز بر ابر امکان‌پذیر نیست، باز کند.

شرکت اپل به طور گسترده انتظار می‌رود که استراتژی هوش مصنوعی خود را که مدت‌ها انتظارش را می‌کشید، در کنفرانس WWDC خود در ماه آینده رونمایی کند، و قبلاً ادعا کرده است که سخت‌افزار و نرم‌افزار سفارشی آن امکان یادگیری ماشین را به صورت محلی بر روی دستگاه‌های خود فراهم می‌کند. به جای رقابت با OpenAI و گوگل در ساخت مدل‌های بزرگتر و بزرگتر هوش مصنوعی مبتنی بر ابر، ممکن است با تمرکز بر کاهش اندازه هوش مصنوعی به اندازه‌ای که در جیب مشتریان خود قرار می‌گیرد، متفاوت فکر کند.


منبع : Wired

🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبک‌های شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.