نقش رایانش ابری در هوش مصنوعی

شکل ۱. هوش مصنوعی
شکل ۱. هوش مصنوعی
منتشر‌شده در: towardsdatascience به تاریخ ۱۳ آوریل ۲۰۲۱
لینک منبع: The Role of Cloud Computing in Artificial Intelligence

اصطلاح هوش مصنوعی (AI) برای اولین بار توسط جان مک‌کارتی در یک کارگاه در سال ۱۹۵۶در کالج دارتموث مورد استفاده قرار گرفت. اولین برنامه‌های کاربردی AI برای بازی شطرنج در سال ۱۹۵۱ توسعه داده شد. پس از دهه ۵۰، هوش مصنوعی در حال توسعه و سقوط تا سال ۲۰۱۰ بود. در طول سال‌ها، برخی سرمایه‌گذاری‌ها درAI توسط فروشندگان، دانشگاه‌ها، موسسات صورت گرفته است. گاهی امید زیاد و گاهی امید کم بود.

به آن زمستان هوش مصنوعی گفته می‌شود وقتی که علاقه کافی به هوش مصنوعی از طرف صنایع وجود نداشت. برای یک دوره ده‌ساله، هوش مصنوعی، به ویژه یادگیری عمیق (زیر‌مجموعه‌ای از هوش مصنوعی)، پس از دو رویداد موفق در حال افزایش بوده است: اول، IBM سیستم فوق‌العاده واتسون را اعلام کرد که چندین برنده وقت چندگانه جئوپاردی، یعنی برد روتر و کن جنینگز را در ۱۴-۱۵ فوریه شکست داد و الکسانت، نام یک شبکه عصبی کانولوشن (سی ان ان)، در چالش شناخت بصری مقیاس بزرگ ImageNet در ۳۰ سپتامبر ۲۰۱۲ به رقابت پرداخت و در این چالش به بالاترین حد خود رسید. بر اساس تحقیقات بازار مختلف، تقریبا تمام موسسات در صنایع مختلف شروع به سرمایه‌گذاری در AI کرده‌اند و آن‌ها سرمایه‌گذاری در AI را برای موارد استفاده مختلف در سال‌های آینده افزایش خواهند داد. مشاغل آینده مربوط به AI بیشتر بر اساس گزارش «آینده مشاغل» انجمن اقتصاد جهانی (اکتبر ۲۰۲۰) مورد نیاز خواهند بود.

ممکن است به مطالعه مقاله به هر چیزی نگویید هوش مصنوعی! علاقمند باشید.

علاوه بر این، طبق گفته شرکت استخدام آنلاین گلاسدر، دانشمند داده یکی از بهترین مشاغل در ایالات‌متحده آمریکا در ۳ سال گذشته بوده است. ارجاع به عبارت «رایانش ابری» در اوایل سال ۱۹۹۶ با اولین اشاره در سند داخلی Compaq ظاهر شد. اصطلاح ابر حتی قبل از سال ۱۹۹۳ معرفی شد. اما رایانش ابری مدرن توسط آمازون در سال ۲۰۰۶ با سرویس ابری محاسباتی الاستیک ایجاد و محبوب شد. اولین مدل تحویل ابر، زیرساخت به عنوان یک سرویس برای ارائه منابع IT از پیش بسته‌بندی شده برای کاربران بود. مدل‌های تحویل بعدی PaaS (پلتفرم به عنوان یک سرویس) و SaaS (نرم‌افزار به عنوان یک سرویس) معرفی شدند. تمام این مدل‌های تحویل برای بارهای کاری مختلف شامل بارهای کاری AI استفاده شدند. مدل‌های گسترش ابر وجود دارند که عمومی، خصوصی و ترکیبی نامیده می‌شوند. این مدل‌های استقرار همچنین برای تعیین محل بار کاری AI بر اساس الزامات و محدودیت‌های عملکردی و غیر‌کارکردی مهم هستند.

با توجه به گزارش انجمن اقتصاد جهانی «آینده شغل‌ها»، رایانش ابری بالاترین اولویت برای رهبران کسب‌وکار است و تا سال ۲۰۲۵، رایانش ابری بیش‌ترین استفاده را توسط شرکت‌ها خواهد داشت. اگرچه هوش مصنوعی بسیار زودتر از رایانش ابری آغاز شد، اما رایانش ابری و فناوری‌های آن، AI را بسیار بهبود بخشیده است. محاسبات ابری کاتالیزورهای تاثیرگذاری بوده‌اند.

شکل ۲. تصویر توسط Kvanc Uslu، با الهام از نیروهای پویای مبدا AI
شکل ۲. تصویر توسط Kvanc Uslu، با الهام از نیروهای پویای مبدا AI

ما می‌توانیم نیروهای پویایی را ببینیم که AI را شکل داده‌اند: داده‌ها / مجموعه داده‌ها، قابلیت پردازش از جمله GPU ها، مدل‌ها / الگوریتم‌ها، و استعدادها / مهارت‌ها. بیایید نگاهی به نحوه مشارکت رایانش ابری در پیشرفت و غنی‌سازی اجزایAI بیندازیم:

مدل‌های تحویل ابر

مدل o IaaS (زیرساخت به عنوان یک سرویس) به کارشناسانAI کمک کرد تا یک محیط زیرساخت-CPU، حافظه، دیسک، شبکه، O / S به راحتی داشته باشند به طوری که یک متخصص بدون انتظار برای یک تیم زیرساخت برای آماده‌سازی آن زمان را از دست ندهد. علاوه بر این، فراهم‌کنندگان ابر، بعدا شروع به فراهم کردن منابع GPU کردند.

مدل PaaS (پلتفرم به عنوان یک سرویس) به کارشناسان AI کمک کرد تا از AI و خدمات علوم داده از جمله دفترچه‌های Jupyter، خدمات کاتالوگ داده برای توسعه برنامه‌های کاربردی نسل جدید به راحتی استفاده کنند.

مدل SaaS (نرم‌افزار به عنوان یک سرویس) به کاربران کمک کرد تا سرویس‌هایAI را در یک برنامه یعنی CRM، برنامه‌های پرداخت برای ایجاد نتایج کارآمد مصرف کنند.

تکنولوژی‌های ابری

- کانتینرها: زمانی که کانتینرها شروع به جداسازی کاربردها از محیط‌های محاسباتی کردند، کانتینرها یک رابط و محیط مشابه را برای تمام دانشمندان داده فراهم کردند. علاوه بر این، تیم‌های دانشمند داده ممکن است کانتینرهای خود را بر روی ارائه‌دهندگان مختلف ابری حتی با قابلیت‌های GPU که ترجیح می‌دادند، اجرا کنند.

کوبرنیت Kubernetes: یک سیستم منبع باز برای خودکارسازی استقرار، مقیاس‌بندی، و مدیریت برنامه‌های شامل شده می‌باشد. از آنجا که دانشمندان داده می‌خواستند از پلتفرم‌های علم داده در یک روش مقیاس‌پذیر استفاده کنند، Kubernetes به آن‌ها کمک کرد. Kubernetes استفاده کارآمد از منابع محیط محاسباتی از جملهGPU را فراهم می‌کند. Kubernetes همچنین برنامه‌های کاربردی علم داده را فراهم می‌کند، پلتفرم‌های در حال اجرا در کانتینرها برای اجرا بر روی ارائه‌دهندگان مختلف ابری بدون نگرانی در مورد محاسبه محیط.

داده‌ها مصرف را تنظیم می‌کنند: داده‌ها مهم‌ترین جز سازنده AI هستند. شما باید مجموعه داده‌های غنی داشته باشید تا الگوریتم‌ها و مدل‌های خود را اجرا کنید. چه مجموعه داده‌ها از یک محیط ابری به اشتراک گذاشته شده باشند و چه نشده باشند، زمانی که متوجه شدید که می‌توانید آن‌ها را در محیط‌های ابری خصوصی یا عمومی ذخیره کنید تا به راحتی بر روی آن‌ها کار کنید.

مطالعه مقاله ۶ نکته برای تمرین برنامه‌نویسی توصیه می‌شود.

در دسترس بودن استعداد / مهارت

اگر چه دوره‌های کلاسیک AI، در دانشگاه‌ها به ویژه به عنوان بخشی از مهندسی کامپیوتر، علوم کامپیوتر، ریاضیات کاربردی بود، امروزه مقطع کارشناسی مهندسی AI مستقل و برنامه‌های کارشناسی‌ارشد علوم داده در دانشگاه‌های مختلف در دسترس هستند. علاوه بر این، دوره‌های تخصصی علم داده از دانشگاه‌های شناخته‌شده در دسترس هستند. علاوه بر این، Udemy دوره‌های بسیار موفقی را در مورد یادگیری عمیق، یادگیری ماشینی در فضای ابری فراهم می‌کند.

پلتفرم‌های رقابت مانند Kaggle, CrowdANALYTIX بر روی محیط ابری اجرا می‌شوند و جایی که متخصصان داده با یکدیگر همکاری می‌کنند، رقابت می‌کنند تا الگوریتم‌های بهینه‌سازی AI، ML، NLP و یادگیری عمیق را ایجاد کنند. این سکوها به روی همه باز هستند. برخی از مجموعه‌های داده در دسترس هستند. با این پلتفرم‌های جدید، استعدادهای جدیدی را می‌توان پرورش داد.

روش DevOps

در اصل DevOps مجموعه‌ای از روش‌هایی است که توسعه نرم‌افزار(Dev) و عملیات IT (Ops) را ترکیب می‌کند. این اصطلاح اولین بار در کنفرانسی با همین نام به کار رفت. اگرچه استفاده از رویکرد DevOps در هر محیط توسعه امکان‌پذیر است، به خصوص سبک معماری خدمات خرد نیازمند توسعه DevOps است. DevOps به چرخه عمر توسعه برنامه می‌پردازد، نه چرخه عمر علم داده. بنابراین مدل در سال ۲۰۱۸ توسط گارتنر ابداع شد. قبل از Ops مدل، MLOps (عملیات یادگیری ماشینی) به عنوان بسط و گسترش DevOps مورد استفاده قرار می‌گرفت.

تقریبا تمام ارائه‌دهندگان ابر(AWS، آژور، GCP، IBM، Oracle so) از قبل علم داده گسترده پیچیده و سیستم‌عامل یادگیری ماشین و خدمات API را فراهم می‌کنند (برای مثال، NLP، Vision، یادگیری ماشینی خودکار) در محیط ابری خود. علاوه بر این، شرکت‌های تحلیلی قوی (IBM، SAS، rapidMiner) علم داده و سیستم‌عامل یادگیری ماشین خود را در ارائه‌دهندگان مختلف ابر فراهم می‌کنند. بسیاری از پلتفرم‌های علم داده و سرویس‌های AI API نیز با محیط‌های ابری بومی (Kum netes) در دسترس هستند. به نظر می‌رسد که ارائه‌دهندگان ابر و شرکت‌های تحلیلی این خدمات را در آینده بر روی بستر ابر غنی خواهند کرد.

نتیجه‌گیری

تحلیلگران و شرکت‌های فن‌آوری مختلف کاربرد آتیAI را در صنایع مختلف با موارد کاربرد متفاوت پیش‌بینی می‌کنند. تحویل ابری و مدل‌های رایانش ابری کمک زیادی به شکل دادن به استفاده موثر از موارد استفاده از AI می‌کنند. علاوه بر این، محاسبات حاشیه‌ای که قابلیت‌های ابر را به فرض با تاخیر کم حتی قابلیت‌های آفلاین گسترش می‌دهد، موارد استفاده بیشتری را فراهم خواهد کرد (به عنوان مثال، تجزیه و تحلیل ویدئویی) به عنوان یک سازمان، حجم زیادی از داده‌ها را با قابلیت پردازش بر روی فرض خواهد داشت. و class="el jr" rel="noopener nofollow">quantum computing انتظار می‌رود که محاسبات کوانتومی به خصوص در یادگیری ماشین، AI را پیشرفت دهد.

این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.
مقالات لینک‌شده در این متن می‌توانند به صورت رایگان با استفاده از مقاله‌خوان ترجمیار به فارسی مطالعه شوند.