مغز انسان در خود تعداد بسیار زیادی از نورونها را جای داده است تا اطلاعات مختلف را پردازش کرده و جهان اطراف را بشناسد. به صورت ساده، نورونها در مغز انسان اطلاعات را از نورونهای دیگر به وسیلهی دندرویدها میگیرند. این نورونها اطلاعات ورودی را با هم جمع کرده و اگر از یک حد آستانهای فراتر رود به اصلاح فعال(Fire) میشود و این سیگنال فعال شده از طریق آکسونها به نرونهای دیگر متصل میشود.
البته که این توضیح در علم پزشکی مفید است ولی در علوم کامپیوتر و هوشمصنوعی ما فقط از نورونهای مغز برای ساخت الگوریتمی به نام شبکهی عصبی مصنوعی بهره میگیریم.
توسط الگوریتم شبکههای عصبی، میتوان مدلهای مختلف و پیچیدهای را شناخت. برای مثال میتوان طبقهبندی هایی با دقت خوب انجام داده یا خوشهبندی هایی روی دادههای بزرگ انجام دهیم.
در این مقاله از کافه دیپ با شبکه عصبی بازگشتی، زیرشاخهی اصلاح شدهی آن یعنی LSTM و کاربردهای هر دو بیشتر آشنا خواهیم شد.
نحوهی فکر کردن انسان میتوان گفت به این صورت نیست که هر ثانیه اطلاعات بازیابی شده و روند فکر کردن از اول شروع شود. در همین لحظه که شما در حال خواندن این مقاله هستید، معنی هر کلمه را با توجه به دانشی که از قبل کسب کردهاید، متوجه میشوید. به عبارت دیگر، شما در هنگام خواندن یک متن، درک و فهمی را که در مورد آن متن با توجه به خواندن کلمات قبل کسب کردهاید را دور نمیریزید، بلکه به صورت پیوسته و با خواندن هر کلمهی جدید، نسبت به آن متنی که دارید میخوانید درک و فهم پیدا میکنید و به عبارتی، معنی آن متن را متوجه میشوید.
شبکههای عصبی متداولی که تاکنون متخصصان یادگیری ماشین از آنها استفاده میکردند، نمیتوانستند به این صورت شبیه به انسان عمل کنند و این یک نقصان بزرگ برای این شبکهها محسوب میشد. بهخصوص در مورد دادههایی که متوالی هستند، یعنی دادههایی که مقدار فعلی آنها به مقدار قبلی وابسته است. مانند فریمهای سیگنال گفتار، فریمهای متوالی ویدیو، وضعیت آب و هوا و سهام یک شرکت.
شبکههای عصبی بازگشتی یاRecurrent Neural Network برای برطرف کردن این مشکل طراحی شدهاند. در حقیقت، شبکههای عصبی بازگشتی در خود یک حلقهی بازگشتی دارند که باعث میشوند اطلاعاتی که از لحظات قبل بهدست آوردهایم، از بین نروند و در شبکه باقی بمانند.