همانطور که در پست "چگونه شبکه های عصبی می آموزند" خواندیم، شبکه های عصبی در طی دو مرحله Forward propagation و back propagation از روی داده موارد لازم را می آموزند. در این پست قصد داریم به بررسی مرحله forward propagation بپردازیم.
توصیه می شود قبل از خواندن این پست، مقاله "چگونه شبکه های عصبی می آموزند" را مطالعه فرمایید.
داده ها و ساختار شبکه های عصبی یا یادگیری ماشین در کنار ساختار مدل، دو معیار تعیین کننده در روند مدل سازی و تربیت مدل ها هستند. این داده های در فرایندی به نام forward propagation به داخل مدل انتشار ( feeding ) داده می شوند.
از مقاله "شبکه های عصبی" به یاد داریم کاری که هر نورون در شبکه عصبی انجام می دهد معادله Wx + b است. در این مدل متغیر x همان داده ها یا دیتا هایی است که از لایه قبلی وارد نورون می شوند. ( در لایه اول مقدار x همان داده های خام هستند، ولی در لایه های بعدی خروجی هر لایه به عنوان ورودی لایه بعدی است؛ به خروجی لایه اول و لایه های میانی که به عنوان ورودی وارد لایه بعدی می شود a هم گفته می شود.)
به این ترتیب خروجی هر لایه به عنوان ورودی به لایه بعد وارد میشود تا در نهایت مقدار نهایی و خروجی شبکه عصبی شکل بگیرد .
نکته ای که وجود دارد این است که در اکثر کار های یادگیری عمیق، مقدار x به صورت ماتریس ها هستند تا از قابلیت ضرب ماتریسی استفاده شود. ( ساختار ریاضی شبکه های عصبی به زودی شرح داده خواهد شد.)
در کلام خلاصه، داده های خام وارد نورون های لایه اول شبکه عصبی می شوند و خروجی نورون های هر لایه، به عنوان ورودی وارد نورون های لایه های میانی می شوند تا در نهایت، لایه انتهایی خروجی نهایی شبکه ( output ) را شکل دهد.