من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
اعتبار فنآوری: تنکی عملکرد شبکههای یادگیری عمیق را تا ۵۰ برابر سریعتر ممکن میسازد
منتشر شده در: numenta blog به تاریخ ۱۰ نوامبر ۲۰۲۰
لینک منبع:Technology Validation: Sparsity Enables 50x Performance Acceleration Deep Learning Networks
این ویدئو از میان نتایج نمایش فنآوری ارائه شدهی Numenta که بهبود عملکرد را که تا ۵۰ برابر در وظایف استنباطی شبکههای عمیق یادگیری ممکن میسازد، بدون هیچ گونه افت در دقت نشان میدهد.
این پیشرفتها با استفاده از یک اصل مغز به نام تنکی به دست میآیند. ما شبکههای متراکم و پراکنده را با اجرای الگوریتم های خود بر روی FPGA Xilinx (آرایه گیت قابلبرنامهریزی میدان) برای یک وظیفه شناسایی گفتار با استفاده از مجموعه داده دستورها گفتاری گوگل (GSC) مقایسه کردیم. با استفاده از معیار تعداد کلمات پردازششده در هر ثانیه، نتایج ما نشان میدهد که شبکههای پراکنده بیش از ۵۰ برابر شتاب روی شبکههای متراکم روی برد Xilinx Alveo به دست میدهند.
علاوه بر این، ما شبکه GSC در حال اجرا بر روی یک تراشه کوچکتر را نشان میدهیم که در آن شبکههای متراکم برای اجرا بسیار بزرگ هستند و مجموعه جدیدی از برنامههای کاربردی را قادر میسازد که به راهحلهای کمهزینه و توان پایین متکی باشند.
در نهایت، نشان میدهیم که شبکههای تنکی به طور قابلتوجهی از قدرت کمتری نسبت به کارآمدترین شبکه متراکم استفاده میکنند.
این اثبات مفهوم اثبات میکند که پراکندگی میتواند به تسریع و راندمان توان قابلتوجهی برای انواع پلتفرمهای یادگیری عمیق و پیکربندی شبکه دست یابد در حالی که دقت رقابتی را حفظ میکند.
برای دیدن ویدیو میتوانید به این لینک مراجعه کنید.
این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است. در نتیجه میتواند دارای برخی اشکالات ترجمه باشد.
مطلبی دیگر از این انتشارات
زمانیکه ماشینها بهتر از انسانها بازی میکنند!
مطلبی دیگر از این انتشارات
آیا انسانها و میمونها رنگها را یکسان میبینند؟
مطلبی دیگر از این انتشارات
چگونه انتگرالها را حل کنیم: کلاس فشرده حساب دیفرانسیل و انتگرال