Brain Intelligence: Go beyond Artificial Intelligence
چکیده
هوش مصنوعی (AI) فناوری مهمی است که زندگی اجتماعی و فعالیتهای اقتصادی ما را پشتیبانی می کند و این باعث رشد پایدار اقتصادی و حل مشکلات اجتماعی ژاپن شده است. در سال های اخیر هوش مصنوعی به عنوان کلید رشد برای کشور های توسعه یافته مثل اروپا و آمریکا و کشور های در حال توسعه مانند چین و هند مورد توجه بوده است. این توجه به طور عمده بر توسعه هوش مصنوعی در زمینه های اطلاعات و ارتباطات (ICT) و فناوری ربات (RT) بوده است. با اینکه هوش مصنوعی های توسعه یافته اخیر در استخراج الگو های خاص عملکرد عالی دارند، محدودیت های بسیاری برای آنها وجود دارد. بیشتر مدل های ICTبسیار به داده های بزرگ (Big data) وابسته هستند و عملکرد self-idea ندارند و همچنین پیچیده هستند. هدف ما در این مقاله فقط توسعه نسل بعدی هوش مصنوعی نیست، هدف ما توسعه مفهوم جدیدی از فناوری شناختی (Cognitive technology) هوش عمومی است. در اصل ما قصد توسعه یک مدل یادگیری هوشمند به نام "هوش ذهنی(Brain Intelligence)" را داریم که ایده های جدید را بدون تجربه آن ها در زندگی مصنوعی(Artificial Life) با قابلیت تخیل ایجاد میکند. ما همچنین قصد نمایش توسعه مدل یادگیری هوش ذهنی در رانندگی اتوماتیک، مراقبت های پزشکی و ربات های صنعتی داریم.
کلمات کلیدی هوش ذهنی(Brain intelligence) . هوش مصنوعی(Artificial intelligence) . زندگی مصنوعی(Artificial life)
1 مقدمه
از SIRI[1] تا AlphaGo[2]، هوش مصنوعی به سرعت در حال توسعه است. در حالی که داستان های علمی-تخیلی معمولا هوش مصنوعی را به صورت ربات هایی دارای خصوصیات شبه انسانی ترسیم می کند، هوش مصنوعی می تواند هرچیزی را از الگوریتم های پیش بینی تجارت الکترونیکی گرفته تا ماشین های واتسون(Watson Machine) IBM [3]را شامل شود. اما هوش مصنوعی امروزه که هوش مصنوعی ضعیف شناخته می شود، فقط برای یک کار خاص طراحی شده به عنوان مثال فقط تشخیص صورت یا فقط جست و جو اینترنت. در حالی که هوش مصنوعی ضعیف می تواند در انجام یک کار خاص مانند بازی شطرنج یا حل معادلات از انسان بهتر عمل کند، هوش مصنوعی عمومی تقریبا در هر کار شناختی از انسان پیشی می گیرد.
در سال های اخیر، دولت ایالات متحده از تحقیقات هوش مصنوعی پشتیبانی کرده است که این تحقیقات متمرکز بر ربات ها و شناخت الگو بوده است. مایکروسافت فناوری های ربات های ترجمه همزمان و تصاویر ابتکاری را معرفی کرده است [4]، آمازون از هوش مصنوعی برای خودکار سازی سیستم تحویل استفاده کرده[5]، فیسبوک نیز فناوری تشخیص چهره مبتنی بر هوش مصنوعی به نام Deepface را توسعه داده است. روبات ها و هوش مصنوعی به طور فعال در موسسات دانشگاهی در ایالات متحده مورد مطالعه قرار می گیرند. فناوری های نوآورانه ای مانند همکاری شرکت ها و یادگیری عمیق به ظهور می رسند. اتومبیل رباتی که توسط آزمایشگاه هوش مصنوعی در دانشگاه استنفورد(Stanford) ساخته شده است ، زمان سریع تری را نسبت به یک راننده مسابقه اتومبیل رانی به ثبت رسانده است[7]. آزمایشگاه علوم کامپیوتر و هوش مصنوعی در موسسه فناوری ماساچوست(Massachusetts) یک ربات نظافتچی و ربات چهار پا تولید کرده است [8]. در همین حال ، هوش مصنوعی اصلی ترین فناوری است که انتظار می رود در آینده نزدیک فناوری نوآورانه و ربات ICTژاپن را بهبود بخشد. ICT در ژاپن طی سالهای اخیر به سرعت پیشرفت کرده است. دولت ژاپن برای اطمینان از جایگاه ژاپن به عنوان یک ابرقدرت تکنولوژیک کلاس B ، پروژه هایی مانند “برنامه بنیادی علم و فناوری” [9] و کنفرانس فناوری هوش مصنوعی [10] را تدوین کرده است. ژاپن انتظار دارد با استفاده از پیشرفته ترین هوش مصنوعی و روبات ها مشکلات مختلفی را حل کند. ما از طریق برخی تحقیقات ، متوجه شدیم که فناوری های اخیر هوش مصنوعی محدودیت های بسیاری دارند. در ادامه ، برخی از محدودیت های مهم را لیست کرده و تحلیل می کنیم. دلایلی که چرا هوش مصنوعی اخیر نمی تواند از این معایب ذاتی عبور کند.
1.1 محدودیت های هوش مصنوعی
در سالهای اخیر ، به دلیل بهبود ظرفیت پردازش رایانه ها و داده های بزرگ ، فناوری های هوش مصنوعی به طرز چشمگیری توسعه یافته اند. با این حال ، نتایج فناوری های فعلی هوش مصنوعی به حوزه های فکری خاص ، مانند تشخیص تصویر ، تشخیص گفتار و پاسخ گفتگو محدود می شود. یعنی در حال حاضر هوش مصنوعی عبارت است از نوعی هوش مصنوعی متخصص که به طور هوشمندانه در محدوده به اصطلاح مشخص و منحصر به فرد عمل می کند(شکل 1). به عنوان مثال می توان به تکنیک هایی مانند شبکه های عصبی پیچشی (CNN) یا ResNetبرای تشخیص بصری، شبکه عصبی بازگشتی(RNN) یا شبکه های عصبی عمیق (DNN) برای تشخیص گفتار و RL برای درک گفتگو. همه این ها بخشی از عملکرد فکری است که توسط بخشی از مغز انسان انجام می شود؛ آن ها فقط یک بدل هستند و نمی توانند همه عملکرد های مغز انسان را انجام دهند. به عبارت دیگر هوش مصنوعی قابلیت ایجاد همکاری با عملکرد های مغز مانند خود فهمی، خویشتنداری، خود آگاهی و خود انگیزشی را ندارد. ، نتیجه می گیریم
که محدودیت های فن آوری های اخیر هوش مصنوعی به شرح زیر است:
(1) مشکل چارچوب
با در نظر گرفتن همه اتفاقاتی که ممکن است در دنیای واقعی اتفاق بیافتد، از آنجا که آموزش با کلان داده زمان زیادی میگیرد هوش مصنوعی به یک چارچوب یا مشکل محدود می شود، به عنوان مثال، اگر الگوریتم را محدود به فقط شطرنج ، شوگی، تشخیص تصویر یا تشخیص گفتار کنید، فقط نتایج مشخصی انتظار می رود. با این حال ، هنگام تلاش برای کنار آمدن با هر پدیده ای در دنیای واقعی، تعداد بی شماری از احتمالات وجود دارد که باید پیش بینی کنیم ، بنابراین زمان استخراج به دلیل بارگذاری بیش از حد پایگاه داده، بی نهایت می شود.
(2) مشکل تابع انجمنی
یادگیری ماشین و هوش مصنوعی در الگویابی عالی عمل می کنند. با این وجود نتایج یادگیری ماشین به راحتی می تواند مورد استفاده اشتباه قرار گیرد. فناوری هوش مصنوعی فعلی به داده های مقیاس بزرگ بستگی دارد و می تواند فقط با استفاده از مقادیر عددی به نتیجه برسد ، اما مانند مغز انسان عملکرد ارتباطی ندارد. یعنی یک قسمت مغز نمی تواند به اندازه کل مغز هوشمند باشد.
(3) مشکل زمینه نماد
اتصال نماد ها با معانی آنها ضروری است، اما این وظیفه اغلب در هوش مصنوعی فعلی حل نشده. برای مثال، اگر شما معنای فردی کلمه "اسب" و کلمه "راه راه" را بدانید، وقتی به شما آموزش داده می شود که "گورخر = اسب + خط راه راه"، متوجه می شوید که "گورخر یک اسب با خط های راه راه " است، اما کامپیوتر نمی تواند بین این مفاهیم ارتباط بر قرار کند
(4) مشکل روحی و جسمی
چه رابطه بین ذهن و بدن وجود دارد؟ یعنی اگر ذهن به طور غیر مادی تصور می شود، چگونه بدن فیزیکی تحت تاثیر آن قرار می گیرد؟ اینکه این امکان وجود داد یا نه مشخص نشده است. در نتیجه می بینیم که مشکلات حل نشده بسیاری در هوش مصنوعی فعلی وجود دارد. در این مقاله ما ابتدا به بررسی جدید ترین الگوریتم های هوش مصنوعی ضعیف می پردازیم، سپس معماری هوشمند نسل بعدی، هوش ذهنی را معرفی می کنیم که یک هوش مصنوعی پیشرفته برای حل معایب الگوریتم های هوش مصنوعی ضعیف است
2 هوش مصنوعی
بازار و تجارت فناوری های هوش مصنوعی به سرعت درحال تغییر است. علاوه بر گمانه زنی ها و توجه روزافزون رسانه ها، بسیاری از شرکت های کسب و کار(استارت آپ ها) و غول های اینترنتی برای دستیابی به فناوری های هوش مصنوعی در عرصه سرمایه گزاری های تجاری با یکدیگر مسابقه می دهند. نظر سنجی ها علمی نشان داده است که 38% از شرکت ها در سال 2016 از هوش مصنوعی استفاده کرده اند و تعداد آنها در سال 2018 به 67% افزایش می یابد. تحقیقات فارستر پیش بینی می کند سرمایه گذاری هوش مصنوعی در سال 2017 بیش از 300% در مقایسه با سال 2016 افزایش داشته است. IDC تخمین میزند که بازار هوش مصنوعی از 8 میلیارد دلار در سال 2016، به 47 میلیارد دلار در سال 2020 می رسد [11]. هوش مصنوعی فعلی سامل انواع فناوری ها و ابزار ها است، برخی از آنها در مرور زمان آزمایش شده و برخی به تازگی عرضه شده است. فارسترتک برای کمک به فهم این مطلب که چه چیزی مهم و برجسته است و چه چیزی مهم نیست، گزارش (رادارتک) را در باب هوش مصنوعی(سازندگان و توسعه دهندگان اپ) منتشر کرد، و در آن 9 فناوری را توضیح داد که شرکت ها می بایست هنگام استفاده از هوش مصنوعی و تایید تصمیمات خودشان آنها را در نظر داشته باشند
2.1 خلق زبان طبیعی(Natural language generation)
خلق زبان طبیعی(NLG) برای ساخت متن از داده های رایانه ای با استفاده از هوش مصنوعی، به ویژه معماری یادگیری عمیق، برای تولید وظایف NLG استفاده می شود. شبکه های عصبی عمیق(DNN) بدون شک یکی از محبوب ترین حوزه های تحقیقاتی در زمینه NLG فعلی است. DNN به منظور یادگیری بازنمایی در افزایش لایه های انتزاع با اتخاذ روش گسترش عقب [12] ، پیشروی [13] ، مدل های log-bilinear [14] و شبکه های عصبی راجعه (RNN) [15] طراحی شده اند.
مزیت آنها نسبت به مدل های سنتی این است که مدل های DNN توالی های صوتی با طول های مختلف را نشان می دهند، بنابراین تاریخ های مشابه دارای نمایش های مرتبط هستند. آنها بر معایب مدلهای سنتی که پراکندگی داده ها و ضبط کننده برای به ثبت پارامترها دارند، غلبه می کنند.
اLong Short-term memory architecture (LSTM) [16] که بیشتر بر RNN توسعه یافته اند شامل سلول های حافظه و دروازه های ضربی است که دسترسی اطلاعات را کنترل می کند. می و همکارانش [17] برای اتخاب و تحقق محتوا، معماری مبتنی بر LSTM ارائه داده است که از چارچوب رمزگذار-رمزگشا استفاده میکند. لونگ و همکارانش [18] نشان داد که تجزیه مجموعه داده های مورد استفاده برای آموزش برای آموزش همزمان در رمزگذاری و رمزگشایی می تواند بازده ترجمه را بهبود ببخشد. در بیشتر این روش ها، ایجاد تعادل بین دستیابی به متن کافی و تولید متن به طور کار آمد و محکم دشوار است. LTSM در حال حاضر برای خدمات مشتری، تولید گزارش و خلاصه بینش هوش تجاری استفاده می شود. نمونه هایی از تأمین کنندگان شامل Attivio ، Automated Insights ، Cambridge Semantics ، Digital Reasoning ، Lucidworks ، Narrative Science ، SAS و Yseop هستند.
2.2 تشخیص گفتار(Speech recognition)
مدل های مخفی مارکوف(HMM) ابزار مفیدی برای تشخیص گفتار هستند. در سال های اخیر، شبکه های پیش خور عمیق (Deep feedforward network - DFN) برای حل مسائل شناسایی مورد توجه قرار گرفته اند. به نظر می رسد که ترکیب HMM با RNN به عنوان راه حل بهتری دارد. با این حال مدل HMM-RNN عملکردی به خوبی شبکه های عمیق را ندارد. هدف از تشخیص گفتار ترجمه زبان انسان و تبدیل آن به قالبی مفید برای برنامه های رایانه است. گریوز و همکارانش [20] یک LSTM RNN برای تشخیص گفتار ارائه داد. این مدل یک روش یادگیری پشت به پشت است که به طور مشترک دو RNN جداگانه را به عنوان مدل های صوتی و زبانی آموزش می دهد. این به طور گشترده ای در سیستم های پاسخ صوتی فعلی و برنامه های تلفن همراه استفاده می شود. نمونه هایی از تأمین کنندگان شامل NICE ، Nuance Communications ، OpenText و Verint Systems هستند.
2.3 واقعیت افزوده/مجازی
واقعیت مجازی از دستگاه های ساده و سیستم های پیشرفته استفاده می کند که می توانند با انسان شبکه شوند. واقعیت مجازی یک شبیه سازی کامپیوتری از یک محیط سه بعدی است که می توان به طور ظاهرا واقعی با آن تعامل داشت. هوش مصنوعی در واقعیت افزوده برای سلامت الکترونیک از راه دور در آینده استفاده خواهد شد [21, 22]. در حال حاظر از آن در خدمات و پشتیبانی مشتری و به عنوان مدیر خانه هوشمند استفاده می شود[23, 49-52] فروشندگان نمونه شامل Amazon ، Apple ، Artificial Solutions ، Assist AI ، Creative Virtual ، Google ، IBM ، IPsoft ، Microsoft و Satisfi هستند.
2.4 سخت افزار بهینه شده هوش مصنوعی
به دلیل رشد سریع داده ها در سال های اخیر، این امکان برای مهندسان وجود دارد که از مقادیر عظیم داده برای یادگیری الگو ها استفاده کنند. برای بیشتر مدل های هوش مصنوعی این نیاز ها باید فراهم باشد . این الگوها حجم گسترده ای از داده ها و نیز محاسبه قدرت و توان آموزش دادن را لازم دارد و محدود است به نیاز به یک شتاب دهنده سخت افزاری بهتر برای هماهنگی و همسان سازی و پیمایش داده های فعلی و اندازه الگوها. Graphics processing unit (GPU) [24] ، general purpose processors (GPGPU) [25] و field programmable gate arrays (FPGA) [26] ، برای اجرای کار آمد محاسبات مبنای هوش مصنوعی مورد نیاز هستند. پردازنده های گرافیکی دارای هسته های محاسباتی بیشتر از GPP سنتی هستند و به شما امکان انجام محاسبات موازی را می دهند. در آخر معمولا از GPGPU استفاده می شود. برخلاف GPU ، FPGA از پیکربندی سخت افزاری انعطاف پذیری برخوردار است و عملکرد بهتری را در هر وات نسبت به GPU ارائه می دهد. با این حال، برنامه ریزی دستگاه های FPGA به دلیل معماری خاص آنها دشوار است. فروشندگان نمونه شامل Alluviate ، Cray ، Google ، IBM ، Intel و Nvidia هستند.
2.5 مدیریت تصمیم گیری
تصمیم گیری نقش مهمی در دستیابی به توسعه پایدار در زمان های آشفته بازار های مالی دارد. با پیشرفت فناوری اطلاعات و ارتباطات(ICT)، تکنیک های بر مبنای هوش مصنوعی، مانند decision tree(DT)، support vector machine(SVM)، neural network(NN)، و یادگیری عمیق برای تصمیم گیری استفاده می شوند[27]. موتورهایی که قوانین و منطق را در سیستم های هوش مصنوعی وارد می کنند ، برای تنظیم/آموزش اولیه و نگهداری و تنظیم مداوم استفاده می شوند. یک فناوری بالغ که در طیف گسترده ای از برنامه های سازمانی ، کمک به تصمیم گیری خودکار یا انجام آن استفاده می شود. فروشندگان نمونه شامل Advanced Systems Concepts ، Informatica ، Maana ، Pegasystems و UiPath هستند.
2.6 پلتفرم های یادگیری عمیق
در حال حاضر ، تحقیقات مورد استفاده در شناسایی و طبقه بندی الگوها در درجه اول توسط مجموعه داده های بسیار بزرگ پشتیبانی می شود. تعداد کمی از روشها به دنبال ارائه راه حلی بهتر از پلتفرم های پردازش داده های بزرگ موجود هستند که معمولاً از یک خوشه پردازنده کالایی در مقیاس بزرگ استفاده می کنند. علاوه بر این ، GPU ها به نظر می رسند. بهترین پلتفرم برای آموزش شبکه های هوش مصنوعی [28]. با این حال، پلتفرم های اخیر در پردازش درک از مغز انسان بدتر هستند و به مقدار زیادی فضا و انرژی نیاز دارند. به همین منظور، راجات و همکارانش [29] با استفاده از کارت گرافیک Nvidia GTX280 با 240 هسته، یک مدل DBN با 100 میلیون پارامتر را آموزش داد. آدام و همکارانش [30] سیستم آموزش شبکه عصبی عمیق COTS HPC را پیشنهاد داد. گوگل DistBelief [31] را توسعه داده است، که از هزاران پردازنده برای آموزش شبکه عصبی عمیق استفاده می کند. شکل 2. مایکروسافت پروژه آدم را اجرا کرد که از ماشین های کمتری برای آموزش استفاده کند. سایر فروشندگان نمونه ، مانند پلتفرم[33] Qalcomm's Zeroth ، IBM’s Truenorth [34] ، و دانشگاه منچستر SpiNNaker [35] نیز در حال توسعه هستند. علاوه بر این ، برخی از پکیج های نرم افزاری نیز برای یادگیری عمیق وجود دارد. این بسته ها شامل Tensorflow ، Theano ، Torch / PyTorch ، MxNet ، Caffe و همچنین پکیج سطح بالا Keras است. همچنین خوب است هنگام ذکر پلتفرم های سخت افزاری، به TPU Google نیز اشاره کرد.
2.7 اتوماسیون فرآیند رباتیک
اتوماسیون فرآیند رباتیک (RPA) [36] از نرم افزار ها و الگوریتم ها استفاده میکند تا اعمال انسان برای پشتیبانی از فرآیندهای کارآمد تجاری را خودکار کند. برای تایپ کردن و کلیک کردن و حتی تجزیه و تحلیل داده ها در برنامه های مختلف، به جای انسان از یک ربات نرم افزاری استفاده می شود. در حال حاضر از RPA در مواردی استفاده می شود که انجام یک کار یا روند برای انسان بسیار گران یا ناکارآمد باشد. محققان تصویب RPA را در حوزه مالی ترویج می دهند. RPA همچنین در معاملات خزانه داری اعمال شده است و این امر بر کارکنان حسابداری درگیر در حوزه بانکی تأثیر می گذارد. هوش مصنوعی ، به عنوان یک راه حل برای داده های بزرگ ، امکان جدیدی برای پیش بینی دقیق RPA. فراهم می کند. فروشندگان نمونه شامل Advanced Systems Concepts ، Automation Anywhere ، Blue Prism ، UiPath و WorkFusion هستند.
3 هوش ذهنی(Brain Intelligence)
روشهای بسیاری [58–61] برای حل محدودیتهای AI اخیر ارائه شده است. با این حال ، این مدل ها به سادگی مدل های توسعه یافته هوش مصنوعی های فعلی است. این مقاله موارد زیر را برای توضیح مفهوم BI معرفی می کند ، که متفاوت از هوش مصنوعی است ، اما بر هوش مصنوعی فعلی گسترش می یابد. مدل یادگیری هوشمند BI مزایای زندگی مصنوعی (AL) و هوش مصنوعی را در هم می آمیزد. در حال حاضر، تحقیقات اصلی در مورد یادگیری عمیق روشی است برای یادگیری عبارات استخراج شده از اطلاعات اساسی داده های مشاهده ای توسط یک شبکه عصبی عمیق با تعداد زیادی لایه. با این حال ، تحقیقات در مورد یادگیری چند وظیفه ای که همزمان چندین کار را یاد می گیرد و مطالعات انتقالی که نتایج یادگیری را برای یک کار خاص به کارهای دیگر معطوف می کنند، هنوز کافی نیست. به همین دلیل ، مدل های هوش مصنوعی مبتنی بر یادگیری بدون نظارت و شبکه های عصبی کم عمق در آینده به روند تبدیل می شوند. در این مقاله، ما روش های مختلف AI منطقه ای را با استفاده از یک قانون خاص، به ویژه روش های یادگیری بدون نظارت، ترکیب خواهیم کرد. ایجاد یک مدل جدید یادگیری هوشمند با یک پایگاه داده کوچک و توانایی درک مفاهیم ضروری است. بنابراین، ما یک مدل Brain Intelligence با عملکرد حافظه و ایده را در شکل 3 پیشنهاد می دهیم. شبکه مدل BI ترکیبی از فناوری زندگی مصنوعی و فناوری هوش مصنوعی با عملکرد حافظه است.
تحقیقات در مورد هوش مصنوعی فعلی عمدتاً بر زمینه های فردی مانند درک گفتگو، تشخیص بصری، و تبعیض شنوایی و غیره متمرکز است. تحقیقات در مورد عملکردهای کل مغز هنوز کافی نیست. به عنوان مثال ، مطالعات کمی در مورد مدلهای درک ادراکی و مدلهای خودفکری وجود دارد. بنابراین، در این تحقیق، عملکرد و مکانیسم های کل مغز را روشن خواهیم کرد و تلاش خواهیم کرد تا آن را به عنوان هوش مصنوعی تحقق بخشیم. شبکه BI توسط بسیاری از شبکه های فرعی ساده تشکیل شده است. پارامترهای هر زیر شبکه با سیستم S [62] به روز می شود، که می تواند با تولید مثل، انتخاب و جهش، زیر شبکه ها را اصلاح کند.
متفاوت از NeuroEvolution of Augmenting Topologies (NEAT) [63 ، 64] ، شبکه پیشنهادی حالت BI فقط از ساختار شبکه عصبی و سازوکار بهینه سازی پارامتر استفاده نمی کند ، بلکه ساختار مدل های فعلی AI را با استفاده از سیستم S بهبود می بخشد. hyperNEAT [65] ، نوعی NN مبتنی بر زندگی مصنوعی، که از شبکه تولید الگوی ترکیبی (CPPN) برای تولید الگو استفاده می کند و برای بهینه سازی پارامترها از NEAT استفاده می کند. hyperNEAT نمی تواند بر اشکالات شبکه NEAT غلبه کند. سایر مدلهای مبتنی بر ژن مانند Gene Regulatory Network (GRN) [66] و Evolving Reaction Network (ERN) [67] نیز توسط برخی محققان مورد مطالعه قرار گرفته اند. این روش ها از ویژگی های بیولوژیکی الهام گرفته شده اند، که استفاده از تمام عملکردهای مغز را در نظر نمی گیرند. شبکه مدل BI از نظر مهندسی مورد بررسی قرار گرفته است، در آینده، ما یک مدل عملکرد مغز فوق العاده هوشمند را توسعه خواهیم داد که قصد دارد خود مشکلات را کشف کند و به طور مستقل توانایی های خود را افزایش دهد.
4 نتیجه گیری
در این مقاله، ما پیشرفته ترین ابزارهای هوش مصنوعی را برای زمینه های کاربرد فردی، مانند پردازش زبان طبیعی و تشخیص بصری، را ارائه دادیم. سهم اصلی این کار به شرح زیر است. اول ، این یک مرور کلی از روش های یادگیری عمیق فعلی است. ما نه برنامه کاربردی بالقوه را با جزئیات جمع بندی کرده ایم. دوم ، این مقاله همه مشکلات مدلهای اخیر هوش مصنوعی را گردآوری کرده است ، که این امر آینده کار محققان را به همراه خواهد داشت. سوم ، در این مقاله ، ما ابتدا مدل هوش مغزی را ارائه دادیم ، که مدلی است که باعث تلفیق هوش مصنوعی و زندگی مصنوعی می شود. مدل های AL ، مانند سیستم S ، دارای مزایای عملکرد تداعی هستند که متفاوت از مولد است. generative adversarial networks (GAN)، برای ایجاد داده های بزرگ در یک فرایند تکامل زندگی. قابل پیش بینی است که مدل BI می تواند مسائل مربوط به قاب ، مشکل عملکرد ارتباط ، مشکل زمین نماد و مشکل روحی / جسمی را حل کند.
فهرست مراجع
[1] Siri, https://en.wikipedia.org/wiki/Siri (Accessed on 2017/4/20).
[2] AlphaGo, https://deepmind.com/research/alphago/ (Accessed on 2017/4/20).
[3] IBM Watson, https://www.ibm.com/watson/ (Accessed on 2017/4/20).
[4] Microsoft Translator Speech API, https://www.microsoft.com/en-us/translator/speech.aspx (Accessed on 2017/4/20).
[5] Amazon Prime Air, https://www.amazon.com/Amazon-Prime-Air/b?node=8037720011 (Accessed on 2017/4/20).
[6] Y. Taigman, M. Yang, M. Ranzato, L. Wolf, “DeepFace: Closing the Gap to Human-Level
Performance in Face Verification,” IEEE International Conference on Computer Vision and Pattern Recognition (CVPR2014), pp.1-8, 2014.
[7] Stanford Artificial Intelligence Laboratory, http://ai.stanford.edu/ (Accessed on 2017/4/20).
[8] MIT BigDog, https://slice.mit.edu/big-dog/ (Accessed on 2017/4/20).
[9] The 4th Science and Technology Basic Plan of Japan, http://www8.cao.go.jp/cstp/english/basic/ (Accessed on 2017/4/20).
[10] AI EXPO, http://www.ai-expo.jp/en/ (Accessed on 2017/4/20).
[11]2017 Will Be the Year of AI, http://fortune.com/2016/12/30/the-year-of-artificial-intelligence/ (Accessed on 2017/4/20).
[12]Y. LeCun, Y. Bengio, G. Hinton, “Deep learning,” Nature, vol.521, no.7553, pp.436-444, 2015.
[13]Y. Bengio, R. Ducharme, P. Vincent, C. Janvin, “A neural probabilistic language model,” Journal of Machine Learning Research, vol.3, pp.1137-1155, 2003.
[14]A. Mnih, G. Hinton, “Three new graphical models for statistical language modelling,” In Proc of ICML07, pp.641-648, 2007.
[15]T. Mikolov, M. Karafiat, L. Burget, J. Cernocky, S. Khudanpur, “Recurrent neural network based language model,” In Proc of Interspeech10, pp.1045-1048, 2010.
[16]I. Sutskever, O. Vinyals, Q. Le, “Sequence to sequence learning with neural networks,” In Advances in Neural Information Processing Systems, pp.3104-3112, 2014.
[17]H. Mei, M. Bansal, M. Walter, “What to talk about and how? Selective generation using LSTMs with coarse-to-fine alignment,” In NAACL-HLT, pp.1-11, 2016.
[18]M. Luong, Q. Le, I. Sutskever, O. Vinyals, L. Kaiser, “Multitask sequence to sequence learning,” In Proc ICLR, pp.1-10, 2016.
[19]H. Bourlard, M. Morgan, “Connnectionist speech recognition: a hybrid approach,” Kluwer Academic Publishers, 1994.
[20]A. Graves, A. Mohamed, G. Hinton, “Speech recognition with deep recurrent neural networks,” in ICASSP2013, pp.1-5, 2013.
[21]B. Wiederhold, G. Riva, M. Wiederhold, “Virtual reality in healthcare: medical simulation and experiential interface,” Annual Review of Cyber Therapy and Telemedicine, vol.13, 239 pages, 2015.
[22]G. Bartsch, A. Mitra, S. Mitra, A. Almal, K. Steven, D. Skinner, D. Fry, P. Lenehan, W. Worzel,
R. Cote, “Use of artificial intelligence and machine learning algorithms with gene expression profiling to predict recurrent nonmuscle invasive urothelial carcinoma of the bladder,” The Journal of Urology, vol.195, pp.493-498, 2016.
[23]N. Labonnote, K. Hoyland, “Smart home technologies that support independent living: challenges and opportunities for the building industry – a systematic mapping study,” Intelligent Buildings International, vol.29, no.1, pp.40-63, 2017.
[24]S. Chetlur, C. Woolley, P. Vandermersch, J. Cohen, J. Tran, B. Catanzaro, E. Shelhamer, “Cudnn: efficient primitives for deep learning,” pp.1-10, arXiv:1410.0759, 2014.
[25] A. Coates, B. Huval, T. Wang, D. Wu, B. Catanzaro, N. Andrew, “Deep learning with cots hpc systems,” In Proc of the 30th International Conference on Machine Learning, pp.1337-1345, 2013.
[26] G. Lacey, G. Taylor, S. Areibi, “Deep learning on FPGAs: past, present, and future,” pp.1-8, arXiv: 1602.04283, 2016.
[27]W. Lin, S. Lin, T. Yang, “Integrated business prestige and artificial intelligence for corporate decision making in dynamic environments,” Cybernetics and Systems, DOI:10.1080/01969722.2017.1284533, pp.1-22, 2017.
[28]A. Ratnaparkhi, E. Pilli, R. Joshi, “Survey of scaling platforms for deep neural networks,” In Proc of International Conference on Emerging Trends in Communication Technologies, pp.1-6, 2016.
[29]R. Raina, A. Madhavan, A. Ng, “Large-scale deep unsupervised learning using graphics processors,” In Proc of 26th Annual International Conference on Machine Learning, pp.873-880, 2009.
[30]B. Catanzaro, “Deep learning with COTS HPC systems,” In Proc of the 30th International Conference on Machine Learning, pp.1337-1345, 2013.
[31]J. Dean, G. Corrado, R. Monga, K. Chen, M. Devin, Q. Le, M. Mao, M. Ranzato, A. Senior, P. Tucker, K. Yang, A. Ng, “Large scale distributed deep networks,” In Proc of Advances in Neural Information Processing Systems, pp.1223-1231, 2012.
[32]T. Chilimbi, Y. Suzue, J. Apacible, K. Kalyanaraman, “Project adam: Building an efficient and scalable deep learning training system,” In Proc of 11 th USENIX Symposium on Operating Systems Design and Implementation, pp.571-582, 2014.
[33]Qualcomm Zeroth, https://www.qualcomm.com/invention/cognitive-technologies/zeroth (Accessed on 2017/4/27).
[34]P. Merolla, J. Arthur, R. Alvarez-lcaza, A. Cassidy, J. Sawada, F. Akopyan, B. Jackson, N. Imam, C. Guo, Y. Nakamura, B. Brezzo, I. Vo, S. Esser, R. Appuswamy, B. Taba, A. Amir, M. Flickner, W. Risk, R. Manohar, D. Modha, “A million spiking-neuron integrated circuit with a scalable communication network and interface,” Science, vol.345, no.6197, pp.668-673, 2014.
[35]M. Khan, D. Lester, L. Plana, A. Rast, X. Jin, E. Painkras, S. Furber, “SpiiNNaker: Mapping neural networks onto a massively-parallel chip multiprocessor,” In Proc of IEEE International Joint Conference on Neural Networks, pp.2849-2856, 2008.
[36]M. Lacity, L. Willcocks, “A new approach to automating services,” MIT Sloan Management Review, vol.2016, pp.1-16, 2016.
[37]T Mikolov, M. Karafiat, L. Burget, J. Cernocky, S. Khudanpur, “Recurrent neural network based language model,” In Proc of Interspeech2010, pp.1045-1048, 2010.
[38]M. Schuster, K. Paliwal, “Bidirectional recurrent neural networks,” IEEE Transactions on Signal Processing, vol.45, no.11, pp.2673-2681, 1997.
[39]A. Graves, N. Jaitly, A. Mohamed, “Hybrid speech recognition with deep bidirectional LSTM,” In Proc of IEEE Workshop on Automatic Speech Recognition and Understanding, pp.1-4, 2013.
[40]A. Graves, J. Schmidhuber, “Framewise phoneme classification with bidirectional LSTM and other neural network architecutres,” Neural Networks, vol.18, no.5-6, pp.602-610, 2005.
[41]A. Mishra, V. Desai, “Drought forecasting using feed-forward recursive neural network,” Ecological Modelling, vol.198, no.1-2, pp.127-138, 2006.
[42]A. Karpathy, G. Toderici, S. Shetty, T. Leung, R. Sukthankar, and F. Li, “Large-scale video classification with convolutional neural networks,” In Proc of IEEE Conference on Computer Vision and Pattern Recognition, pp.1725-1732, 2014.
[43]Y. LeCun, B. Boser, J. Denker, D. Henderson, R. Howard, W. Hubbard, and L. Jackel, “Backpropagation applied to handwritten zip code recognition,” Neural Computation, vol.1, no.4, pp.541-551, 1989.
[44] R. Bell, and Y. Koren, “Lessons from the Netflix prize challenge,” ACM SIGKDD Explorations Newsletter, vol.9, no.2, pp.75-79, 2007.
[45]K. Simonyan, and A. Zisserman, “Very deep convolutional networks for large-scale image recognition,” In Proc of IEEE ICLR2015, pp.1-14, 2015.
[46]C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A. Rabinovich, “Going deeper with convolutions,” In Proc of IEEE Conference on Computer Vision and Pattern Recognition, pp.1-12, 2015.
[47]S. Arora, A. Bhaskara, R. Ge, and T. Ma, “Provable bounds for learning some deep representations,” arXiv:abs/1310.6343, 2013.
[48]K. He, X. Zhang, S. Ren, J. Sun, “Deep residual learning for image recognition,” In Proc. Of IEEE Conference on Computer Vision and Pattern Recognition, pp.1-12, 2016.
[49]M. Chen, Y. Ma, Y. Li, D. Wu, Y. Zhang, “Wearable 2.0: Enabling Human-Cloud Integration in Next Generation Healthcare Systems,” IEEE Communications Magazine, vol. 54, no. 12, pp. 3-9, 2017.
[50] J. Song, Y. Zhang, “TOLA: Topic-oriented learning assistance based on cyber-physical system and big data,” Future Generation Computer Systems, DOI:10.1016/j.future.2016.05.040, 2016.
[51]Y. Zhang, “Grorec: A group-centric intelligent recommender system integrating social, mobile and big data technologies,” IEEE Transactions on Services Computing, vol. 9, no. 5, pp. 786-795, 2016.
[52]Q. Liu, Y. Ma, M. Alhussein, Y. Zhang, L. Peng, “Green data center with IoT sensing and cloud-assisted smart temperature controlling system,” Computer Networks, Vol. 101, pp. 104-112, June 2016.
[53]D. Chen, C. Manning, “A fast and accurate dependency parser using neural networks,” In Proc of Empirical Methods in Natural Language Processing, pp.740-750, 2014.
[54]N. Kalchbrenner, E. Grefenstette, P. Blunsom, “A convolutional neural network for modelling sentences,” In Proc of Annual Meeting of the Association for Computational Linguistics, pp.655-665, 2014.
[55]D. Ciresan, U. Meier, J. Masci, J. Schmidhuber, “Multi-column deep neural network for traffic sign classification,” Neural Networks, vol.32, pp.333-338, 2012.
[56]C. Santos, B. Xiang, B. Zhou, “Classifying relations by ranking with convolutional neural networks,” In Proc of Annual Meeting of the Association for Computational Linguistics, pp.626-634,2015.
[57]B. Hu, Z. Tu, Z. Lu, Q. Chen, “Context-dependent translation selection using convolutional neural network,” In Proc of Annual Meeting of the Association for Computational Linguistics, pp.536 541, 2015.
[58]Y. Li, H. Lu, J. Li, X. Li, Y. Li, S. Serikawa, “Underwater image de-scattering and classification by deep neural network,” Computers & Electrical Engineering, vol.54, pp.68-77, 2016.
[59]H. Lu, B. Li, J. Zhu, Y. Li, Y. Li, X. Xu, L. He, X. Li, J. Li, S. Serikawa, “Wound intensity correction and segmentation with convolutional neural networks,” Concurrency and Computation: Practice and Experience, vol.29, no.6, pp.1-8, 2017.
[60]H. Lu, Y. Li, T. Uemura, Z. Ge, X. Xu, L. He, S. Serikawa, H. Kim, “FDCNet: filtering deep convolutional network for marine organism classification,” Multimedia Tools and Applications, pp.1-14, 2017.
[61]H. Lu, Y. Li, L. Zhang, S. Serikawa, “Contrast enhancement for images in turbid water,” Journal of the Optical Society of America, vol.32, no.5, pp.886-893, 2015.
[62]S. Serikawa, T. Shimomura, “Proposal of a system of function-discovery using a bug type of artificial life,” Transactions of IEE Japan, vol.118-C, no.2, pp.170-179, 1998.
[63]K. Stanley, R. Miikkulainen, “Evolving neural networks through augmenting topologies,” Evolutionary Computation, vol.10, no.2, pp.99-127, 2002.
[64]J. Schrum, R. Miikkulainen, “Evolving multimodal behavior with modular neural networks in Ms.Pac-Man,” in Proc of the Genetic and Evolutionary Computation Conference, pp.325-332, 2014.
[65]K. Stanley, D. Ambrosio, J. Gauci, “A hypercube-based encoding for evolving large-scale neural networks,” Artificial Life, vol.15, no.2, pp.185-212, 2009.
[66]F. Emmert-Streib, M. Dehmer, B. Haibe-Kains, “Gene regulatory networks and their applications: understanding biological and medical problems in terms of networks,” Frontiers in Cell and Developmental Biology, vol.2, no.38, pp.1-7, 2014.
[67]H. Dinh, M. Aubert, N. Noman, T. Fujii, Y. Rondelez, H. Iba, “An effective method for evolving reaction networks in synthetic biochemical systems,” IEEE Transactions on Evolutionary Computation, vol.19, no.3, pp.374-386, 2015.
[68]K. Hwang, M. Chen, “Big-Data analytics for cloud, IoT and cognitive computing,” Wiley Press, 432 pages, 2017.
منبع
https://link.springer.com/article/10.1007/s11036-017-0932-8
مطلبی دیگر از این انتشارات
مبانی یادگیری ماشین
مطلبی دیگر از این انتشارات
معرفی از 5 کتاب در حوزه هوش مصنوعی
مطلبی دیگر از این انتشارات
آیا با استفاده از تحلیل کلیدواژههای جستجوشده در گوگل میتوان روندهای تقاضا را پیشبینی کرد؟