گذشته ،حال و آینده ی ماشین لرنینگ
اگر اخیراً شاهد افزایش محصولات و خدمات پیشرفته هوش مصنوعی در بازار بوده اید ، تعجب نکنید. هوش مصنوعی (AI) و فناوری یادگیری ماشینی طی سالهای اخیر به سرعت در حال پیشرفت بوده اند و با دسترسی بیشتر به داده ها و پیشرفت در قابلیت محاسبات و راه حل های ذخیره سازی در حال رشد و ارائه امکانات جدید میباشند.
در حقیقت ، اگر به پشت پرده ی هر تکنولوژی جدید نگاه کنید ، می توانید نمونه های بسیاری از فناوری یادگیری ماشین را در انواع صنایع ، از کالاهای مصرفی و رسانه های اجتماعی گرفته تا خدمات مالی و تولید و ... مشاهده کنید.
اما این سؤال همچنان باقیمانده است : چگونه یادگیری ماشینی در مدت زمانی کوتاه از داستان علمی به واقعیت تحول یافت؟
اولین باردر سال 1959 بود که دانشمند داده آرتور لی ساموئل با موفقیت یک برنامه کامپیوتری تهیه کرد که می توانست به خود بیاموزد چگونه بازی checkers را انجام دهد.
بیایید با نگاهی به گذشته و حال ، و پیش بینی آنچه در آینده رخ خواهد داد ، روند پیشرفت یادگیری ماشین را پیش بینی کنیم.
همانطور که میدانید یادگیری ماشینی (ML) زیر مجموعه ای از هوش مصنوعی است که ماشین ها ، با استفاده از الگوریتم های آموزش دیده و مدل های شبکه عصبی ، قادرند به طور مستقل از داده ها بیاموزند و بطور مداوم عملکرد و دقت در تصمیم گیری را در رابطه با یک کار خاص بهبود بخشند.
ماشین لرنینگ در گذشته
آیا یک ماشین می تواند باهوش باشد ؟
منشأ آغاز یادگیری ماشین را می توان به یک سری از وقایع در دهه 1950 نسبت داد که در آن تحقیقات پیشگام، توانایی یادگیری رایانه ها را رقم زد.
در سال 1950 ، آزمایش معروف"تورینگ تست(Turing Test)" توسط ریاضیدان انگلیسی آلن تورینگ برای تعیین اینکه آیا یک ماشین دارای رفتار هوشمند برابر یا شبیه به انسان است، ایجاد شد.
در سال 1952، آرتور لی ساموئل دانشمند معروف موفق شد یک برنامه رایانه ای IBM را آموزش دهد نه تنها بازی چکرزها را یاد بگیرد بلکه هربار که بیشتر بازی میکند بهتر شود.
سپس در سال 1957 ، اولین شبکه عصبی جهان برای رایانه توسط روانشناس آمریکایی فرانک روزنبلات طراحی شد.
ازآن پس انجام آزمایشات مرتبط در این زمینه افزایش یافت. در دهه 1960 روشهای Bayesian برای دخالت احتمالی در یادگیری ماشین معرفی شدند.
و در سال 1986 ، دانشمند رایانه Rina Dechter تکنیک دیپ لرنینگ را براساس شبکه های عصبی مصنوعی ، به جامعه یادگیری ماشین معرفی کرد.
اتخاذ یک رویکرد داده محور
تا دهه 1990، یادگیری ماشینی از رویکرد دانش محور به رویکرد مبتنی بر داده که امروزه با آن آشنا هستیم تغییر یافت. دانشمندان شروع به ایجاد برنامه های رایانه ای کردند که می توانند مقادیر زیادی از داده ها را تجزیه و تحلیل کرده و از نتایج یاد بگیرند. در این دوره بود که ماشینهایی با پشتیبانی وکتور و شبکه های عصبی از محبوبیت بالایی برخوردار شدند.
در دهه 2000 ، روشهای Kernal برای تجزیه و تحلیل و آنالیز الگوهای الگوریتمی ، مانند خوشه بندی و پشتیبانی از وکتور مطرح شد.
سخت افزار برای پردازش کارآمد
همانطور که امروز می دانیم رویداد مهم بعدی که برای ما امکان یادگیری ماشینی را فراهم کرده است ، پیشرفت های سخت افزاری میباشد که در اوایل دهه 2000 رخ داده است. واحدهای پردازش گرافیکی (GPU) ایجاد شده اند که نه تنها می توانند آموزش الگوریتم را بطور قابل ملاحظه ای از هفته ها تا چند روز سرعت بخشند بلکه در سیستم های جاسازی شده نیز قابل استفاده هستند.
در سال 2009 ، GPU های Nvidia توسط Google Brain معروف برای ایجاد شبکه های عصبی عمیق و توانا که می توانند یاد بگیرند که تصاویر گربه ها را از YouTube بدون برچسب گذاری تشخیص دهند ، استفاده شد.
از زمانی که یادگیری عمیق به وضوح امکان پذیر شد ،دوره ای جدید و امیدوار کننده برای هوش مصنوعی و یادگیری ماشین جهت ارائه خدمات و برنامه های نرم افزاری آغاز شد.
ماشین لرنینگ در حال حاضر
تقاضای زیاد برای GPU ها
امروزه تقاضا برای GPU همچنان افزایش می یابد زیرا شرکت هایی ازانواع صنایع به دنبال استفاده از داده های خود جهت بهره وری از مزایای هوش مصنوعی و یادگیری ماشین هستند.
برخی از نمونه های برنامه های کاربردی یادگیری ماشینی که امروزه می توانیم ببینیم تشخیص پزشکی ، پیش بینی زمان نگهداری دستگاه و همینطور تبلیغات هدفمند است. با این حال ، هنگامی که نوبت به به کارگیری مدل های یادگیری ماشین در دنیای واقعی می رسد ، یک مانع خاص وجود دارد که مانع پیشرفت است. و آن مانع را latency یا نهفتگی می نامند.
یادگیری ماشین در لبه (Edge machine learning)
امروزه بیشتر شرکت ها داده های خود را در cloud یا فضای ابری ذخیره می کنند. این بدان معنی است که داده ها برای مقایسه مدل ها قبل از اینکه مجدداً به دستگاه مبدا منتقل شود ، باید به یک پایگاه داده مرکزی (که اغلب هزاران مایل دورتر از آن قرار دارد) سفر کند.
در این حالت انعطاف پذیری کاهش یافته و اشراف شما به وضعیت محدود خواهد شد،در نتیجه اگر مشکل و خطایی در کد های برنامه نویسی شما وجود داشته باشد و یا مشکلی در سخت افزار شما موجود باشد شناخت آن برای شما دشوار خواهد بود.
مشکل تأخیر یا latency همان چیزی است که امروز بسیاری از شرکت ها را به حرکت از cloud به Edge سوق می دهد.
"اطلاعات در لبه " ،"Edge AI" یا "یادگیری ماشین Edge" بدان معنی است که ، به جای پردازش در الگوریتم های واقع در ابر ، داده ها بصورت محلی در الگوریتم های ذخیره شده در یک سخت افزار پردازش می شوند.
این کار نه تنها عملیات در زمان واقعی را امکان پذیر می کند بلکه به کاهش قابل توجهی در مصرف برق و آسیب پذیری امنیتی پردازش داده ها در ابر کمک می کند.
حل مشکلات محدودیت نیرو
همانطور که ما به سمت استفاده از هوش مصنوعی و یادگیری ماشین در لبه (edge) در دستگاه های کوچک و کوچکتر حرکت می کنیم ، محدودیت منابع اصلی یکی دیگر از مشکلات حال حاضرمیباشد. چگونه می توان برنامه های یادگیری ماشینی را بر روی دستگاه های بسیار ریز اجرا کرد بدون اینکه عملکرد و دقت آن را قربانی کرد؟
در حالی که حرکت ازcloud به edge یک گام اساسی در حل مسائل مربوط به محدودیت منابع است ، بسیاری از مدل های یادگیری ماشین هنوز هم از قدرت و حافظه زیادی استفاده می کنند تا بتوانند امروزه ریزپردازنده های کوچک را در بازار جای دهند.
بسیاری با ساخت نرم افزارهای کارامد ، الگوریتم ها و سخت افزارها به این چالش نزدیک می شوند. یا با ترکیب این مؤلفه ها و به روشی تخصصی تر عمل میکنند.
ماشین لرنینگ در آینده
یادگیری ماشین بدون نظارت
امروزه در اکثر پروژه های یادگیری هوش مصنوعی و ماشین سازی ، فرایند تکراری و خسته کننده مرتب سازی و برچسب زدن داده ها بخش عمده ای از زمان توسعه را به خود اختصاص می دهد.
در حقیقت ، شرکت تحلیلگر Cognilytica تخمین زد که در میانگین پروژه های هوش مصنوعی ، حدود 80٪ از زمان پروژه، به جمع آوری داده ها ، تمیز کردن ، برچسب زدن و تقویت آن ها اختصاص می یابد تا درمدل های یادگیری ماشین مورد استفاده قرارگیرند.
به همین دلیل است که چشم انداز یادگیری بدون نظارت بسیار هیجان انگیز است.
در آینده ، ماشین های بیشتر و بیشتری قادر خواهند بود به طور مستقل الگوهای قبلی ناشناخته را در یک مجموعه داده که برچسب گذاری یا طبقه بندی نشده است ، شناسایی کنند.
یادگیری بدون نظارت بخصوص برای کشف الگوهای ناشناخته قبلی در یک مجموعه داده،زمانی مفید است که شما نمی دانید نتیجه باید چه باشد.
این موضوع می تواند برای برنامه های کاربردی مانند تجزیه و تحلیل داده های مصرف کنندگان جهت تعیین بازار هدف برای یک محصول جدید و یا تشخیص ناهنجاری های داده مانند معاملات دارای کلاهبرداری یا نقص های سخت افزاری مفید باشد.
شتاب دهنده های سخت افزاری برای یادگیری یادگیری ماشین Edge
نسل جدیدی از شتابدهنده ها درحال ظهورهستند که تولید کنندگان تراشه و شرکت های نوپا برای سرعت بخشیدن و بهینه سازی مسائل کاری در برنامه های هوش مصنوعی و یادگیری ماشین از آموزش گرفته تا استنتاج، در حال کار برروی آنها میباشند.
این شتاب دهنده ها سریع تر ، ارزان تر ، با صرفه تر و مقیاس پذیری بالاتری داشته و تولیدکنندگان این شتابدهنده ها اطمینان میدهند که دستگاه های لبه را به سطح جدیدی از کارآیی سوق دهند.
یكی از راههای دستیابی به این هدف ، رهایی بخشهای اصلی پردازش دستگاههای Edge از کارهای پیچیده و سنگین ریاضی است كه در اجرای مدلهای یادگیری عمیق نقش دارند.
مقیاس کردن
در آینده ،اینترنت اشیاء در زندگی روزمره ما به طور فزاینده ای ملموس خواهد شد.
به خصوص هنگامی که هوش مصنوعی و فناوری یادگیری ماشین همچنان به طور فزاینده ای مقرون به صرفه می شوند.با این حال ، با افزایش تعداد دستگاه های هوش مصنوعی ، ما باید اطمینان حاصل کنیم که یک زیرساخت برای هماهنگی داریم.
طبق گفته درو هنری ، معاون ارشد رئیس برنامه ریزی و عملیات استراتژی در Arm در مقاله اخیرش : "پیش بینی می كنیم در جهان یك تریلیون دستگاه IOT (اینترنت اشیا ) تا سال 2035 عرضه شود که چالش های زیرساختی و معماری را در مقیاس جدید ارائه میدهند ...
این بدان معنی است که شرکت هایی نظیر Arm همچنان سرمایه گذاری زیادی را برای توسعه سخت افزار ، نرم افزار و ابزارها انجام خواهد داد تا بتواند در هر نقطه از زیرساخت ، تصمیم گیری هوشمندانه ای را داشته باشد.
وقتی به تاریخ تکامل یادگیری ماشینی نگاه می کنیم و اینکه امروز در کجای آن قرار داریم ، به نظر می رسد که تکامل یادگیری ماشین و به خصوص یادگیری ماشین لبه (Edge ) سریع و غیرقابل توقف است پس همچنانکه پیشرفت های آینده آشکار می شود ، برای تأثیرگذاری آماده شوید و اطمینان حاصل کنید که آماده استفاده از این فناوری هستید.
مطلبی دیگر از این انتشارات
مروری بر یادگیری ماشین (قسمت دوم)
مطلبی دیگر از این انتشارات
مروری بر یادگیری ماشین (قسمت اول)
مطلبی دیگر از این انتشارات
یادگیری ماشین!!!