محمدمهدی آقاجانیدرoverfit.ir·۴ سال پیشداستان ترنسفورمرها (۶): داستان XLNetاگر علاقهمند هستید که درباره XLNet و علل برتریش بر BERT بیشتر بدونید، این پست رو از دست ندید.
محمدمهدی سمیعیدرoverfit.ir·۴ سال پیشداستان ترنسفورمرها (۵): سریع و سبک، گلابگیری از برت با دیستیلبرتدر این پست میخوایم تکنیک distillation رو که برای فشرده سازی مدل های عصبی بزرگ به کار میره رو بررسی کنیم و بعد هم با مدل distilbert آشنا بشی…
محمدمهدی سمیعیدرoverfit.ir·۴ سال پیشداستان ترنسفورمرها (۴): داستان برتاگر در کار پردازش زبان هستید قطعا اسم برت به گوشتون خورده. در این پست قصد داریم تا با شیوه نیکو و روان و جامعی داستان برت رو توضیح بدیم.
محمدمهدی سمیعیدرoverfit.ir·۵ سال پیشداستان ترنسفورمرها (۳): توجه و دیگر هیچ!در سومین پست از رشته پست «داستان ترنسفورمرها» سعی کردیم مدل ترنسفورمر رو به نحو نیکویی بررسی کنیم!
علی اکبر بدریدرoverfit.ir·۶ سال پیشداستان ترنسفورمرها (۲): attention برمیخیزد!در دومین پست از رشتهپست «داستان ترنسفورمرها» انواع مدلهای مکانیزم توجه و کاربردهایش را بررسی مختصری کردیم!
علی اکبر بدریدرoverfit.ir·۶ سال پیشداستان ترنسفورمرها (۱): ناکارآمدی بازگشتیهامکانیزم توجه انقلابی در هوش مصنوعی و پردازش زبان طبیعی ایجاد کرد و باعث شروع سلطهی ترنسفورمرها شد؛ در رشته پستی این معماری را توضیح دادیم.