ترجمه های ماشینی چگونه متولد شدند ؟

همه ما با ابزار ترجمه گوگل آشنایی داریم. ابزاری که قادر به ترجمه آنی بیش از صد زبان زنده دنیا به یکدیگر است و روزبه‌روز در حال بهبود می‌باشد. در اینجا نگاهی خواهیم داشت به تاریخچه ترجمه ماشینی و روش‌های استفاده‌شده در آن و همچنین روش‌های جدیدتر را بیشتر بررسی خواهیم کرد.

شروع ترجمه ماشینی

در ابتدای جنگ سرد بود که لزوم داشتن سیستم ترجمه ماشینی برای وزارت دفاع آمریکا محرز شد. برای انجام این کار محققان IBM شروع به تحقیق و پیاده‌سازی اولین سیستم ترجمه ماشینی خود بر روی کامپیوتر ۷۰۱ شرکت IBM کردند. این سیستم که توانایی ترجمه ۶۰ جمله از زبان روسی به زبان انگلیسی را داشت در سال ۱۹۵۴ معرفی شد.

ورودی‌ها در این سیستم روی کارت‌هایی پانچ شده و سپس به کامپیوتر مذکور وارد می‌شدند. یک نمونه از این کامپیوتر را می‌توانید در شکل زیر ببینید:


کارزار ترجمه ماشینی

به‌طورکلی می‌توان گفت که ترجمه ماشینی پیشرفت اولیه خود را مدیون جاسوسی کشورها از یکدیگر است! تلاش برای رسیدن به یک ترجمه ماشینی خوب از حدود چهل سال قبل آغاز شد، در سال ۱۹۶۶ یکی از مؤسسات مطرح تحقیقاتی امریکا اعلام کرد که ترجمه ماشینی، کاری گران و نامناسب است و بهتر است محققان به توسعه دیکشنری کلمات اهمیت بیشتری دهند تا ترجمه ماشینی. بنابراین تا یک دهه محققان امریکایی در این زمینه پیشرفتی نداشتند.

ترجمه بر پایه قوانین زبانی

در این نوع ترجمه درواقع بعد از استفاده از یک دیکشنری دو زبانه، و سپس با استفاده از انواع قوانین زبانی و دانش موجود در زبان مقصد، سعی در به‌دست آوردن بهترین ترجمه ماشینی می‌شد. در این نوع از ترجمه معمولاً تصحیح غلط‌های املایی، استفاده از لیست کلمات برای تشخیص جنسیت جمله و کلمات هم‌معنی به خروجی اضافه می‌گشت تا بهترین ترجمه را به‌دست آید.

ترجمه ماشینی مستقیم

در این نوع از ترجمه با استفاده از دیکشنری کلمات سعی بر این بود که با هر بار اضافه شدن یک کلمه جدید، بهترین ترجمه تا آن لحظه تولید شود، درواقع تفاوت این روش و روش پیشین در این بود که این روش به تعداد کلمات ورودی سعی در استخراج بهترین ترجمه می‌کرد، ولی روش قبل تنها در آخرین مرحله این کار را انجام می‌داد. هیچ‌کدام از دو روش فوق درنهایت ترجمه‌های مورد قبولی را ارائه نمی‌کردند.

ترجمه ماشینی بر پایه انتقال

این نوع از ترجمه درواقع بعد از توانایی بررسی جملات ازلحاظ ساختاری گسترش یافت، در اینجا ما به دنبال تفکیک جمله به گروهای معنایی هستیم و سپس با استفاده یک دیکشنری دو زبانه و قوانین مرتبط، ترجمه هرکدام از گروه‌ها را به‌صورت جداگانه به‌دست می‌آوریم و با توجه به ساختار زبان مقصد آن‌ها را کنار هم قرار می‌دهیم.

نتایج این ترجمه درواقع یک ترجمه ساده و تا حدی خسته‌کننده را به مخاطب ارائه می‌داد. چراکه برای هر گروه معنایی می‌توان معانی مختلفی را در جملات مختلف در نظر گرفت و همچنین با افزایش طول جملات، تفکیک جملات به گروه‌های معنایی با خطای بیشتری روبروست.

ترجمه میان زبانی

ایده استفاده از یک زبان میانی که بتوان همه زبان‌ها را به آن تبدیل کرد و بالعکس، از اوایل توسعه ترجمه ماشینی موردتوجه قرار گرفت. برای درک بهتر این ایده می‌توان شکل زیر را در نظر گرفت:‌


ایده ترجمه میان زبانی درواقع میلیون‌ها ساعت از وقت بشر را به خود اختصاص داد، ولی درنهایت این ایده هرگز تحقق نیافت، اما تحقیق در این مورد باعث ایجاد و گسترش تحلیل ساختاری، شد که گامی بزرگ در پردازش زبان طبیعی بود.

ترجمه ماشینی بر پایه نمونه

این نوع از ترجمه را محققین ژاپنی به دلیل دشوار بودن روش ترجمه بر پایه قوانین در زبان ژاپنی ارائه کردند. روند کار بدین شکل است که نزدیک‌ترین ترکیب ترجمه‌شده ازجمله مبدأ را در نظر می‌گیریم و سپس تنها به ترجمه قسمت‌هایی ازجمله می‌پردازیم که تغییر کرده‌اند.

برای مثال برای ترجمه جمله “علی به مدرسه رفت” با داشتن ترجمه “علی به دانشگاه رفت” تنها کافی است که جای ترجمه مدرسه را با ترجمه دانشگاه عوض کنیم. برای درک بهتر می‌توانید به شکل زیر توجه کنید:


این نوع از ترجمه بااینکه در اکثر جملات کاربرد نداشت، اما به‌نوبه خود ثابت کرد که می‌توان بدون دخالت قوانین بسیار زیاد زبانی و ... ترجمه ایده آلی را ارائه داد. و درواقع مقدمه‌ای بود بر شروع ترجمه آماری.

ترجمه آماری

در سال ۱۹۹۰ محققان IBM از سیستمی رونمایی کردند که بدون استفاده از هیچ‌گونه قانونی و صرفاً با استفاده از داشتن ترجمه‌های دو زبان، سعی در ترجمه داشت. اساس کار بر این بود که تعداد زیادی نمونه به ماشین داده می‌شد و سپس ماشین با استفاده از این نمونه‌ها سعی بر این داشت که بهترین ترجمه هر کلمه را بیابد. در واقعاً این احتمال ترجمه شدن یک کلمه به کلمات دیگر بود که ترجمه نهایی را تعیین می‌کرد.

نسخه بهبود یافته این نوع از ترجمه در عمل بهتر از ترجمه‌های قبلی که همگی به دنبال استفاده از قوانین زبانی بودند، عمل می‌کرد و هرچه داده‌های ما بیشتر می‌شد، دقت ترجمه نیز بهبود می‌یافت.

نکته‌ای که مدنظر باید قرار گیرد این است که در این نوع از ترجمه، اینکه دقیقاً کدام کلمه در جمله مقصد، ترجمه کدام کلمه در مبدأ است، برای ماشین مشخص نشده و خود سیستم با استفاده از اشتراک بین جملات به این اطلاعات می‌رسد.

ترجمه آماری بر پایه کلمه

اولین مدل ترجمه آماری که ارائه شد، جملات را به کلمات مجزا تقسیم می‌کرد و سپس ترجمه موردنظر را استخراج می‌کرد. در این مدل صرفاً ترجمه با استفاده از احتمالات استخراج می‌شد ولی پردازش دیگری صورت نمی‌گرفت. مشخص است که با این روش ترجمه‌های ما به‌هیچ‌وجه قابل‌قبول نبودند.


ترجمه آماری با استفاده از ترتیب کلمات

در این روش، علاوه بر احتمال کلمات، نحوه قرار گرفتن کلمات در کنار هم نیز ذخیره می‌شد و در هنگام بازسازی جمله اصلی به‌کار گرفته می‌شد. این روش بهتر از موارد پیشین عمل می‌کرد، اما هنوز قادر نبود تا جملات روانی را تولید کند.

ترجمه آماری با استفاده از کلمات درواقع تحولی عظیم در ترجمه ماشینی بود، چراکه توانست بدون استفاده از قواعد زبانی، نتایج بهتری را از روش‌های سنتی ارائه دهد. در طول سالیان بعد برای بهبود این روش کارهای دیگری نیز انجام شد ولی درنهایت این روش نیز مانند روش‌های دیگر کنار گذاشته شد.

ترجمه آماری بر پایه عبارت

این روش درواقع نسخه‌ای دیگر از ترجمه آماری بر پایه کلمات بود، منتهی در این روش بجای ذخیره کردن احتمال کلمات به ذخیره کردن احتمال n-gram ها می‌پرداختند. n-gram درواقع توالی از کلمات با طول مشخص است. در این مدل ابتدا عبارات به عبارات زبان مقصد ترجمه می‌شوند و سپس محتمل‌ترین حالت برای تشکیل جمله مدنظر قرار می‌گیرد.

از سال ۲۰۰۶ تا ۲۰۱۶ شرکت گوگل در مدل مترجم خود از این ایده استفاده می‌کرد. همه ما زمانی را به خاطر داریم که به ترجمه گوگل می خندیدم J . درواقع همه آن مزایا و معایب از ترجمه اماری بر پایه عبارت سرچشمه می‌گرفت.

ترجمه آماری بر مبنای تحلیل نحوی

درواقع این روش یکی از روش‌هایی بود که در ابتدا از آن به‌عنوان آینده ترجمه ماشینی یاد می‌شد، ولی بعد از ظهور شبکه‌های عصبی رو به افول نهاد. در این مدل ابتدا ما با استفاده از مدل‌های پارس، جملات در زبان مبدأ را پارس می‌کنیم و بعد از تشکیل درخت پارس، با استفاده از احتمالات سعی بر تشکیل بهترین درخت پارس در زبان مقصد می‌کنیم، و سپس دوباره با استفاده از احتمالات ترجمه کلمات را به‌دست می‌آوریم.

یک نمونه از این تبدیل را می‌توانید در شکل زیر ببینید:‌

یکی از مشکلاتی که این روش داشت این بود که باوجود ابهامات در زبان، درخت پارس نمی‌توانست ساختار درستی ازجمله را ارائه کند، بنابراین این روش هم مانند بقیه روش‌ها باگذشت زمان به‌دست فراموشی سپرده شد.

ترجمه ماشینی به کمک شبکه های عصبی

در سال ۲۰۱۶ گوگل اعلام کرد که ترجمه ماشینی خود را بر پایه شبکه‌های عصبی توسعه داده است. برای درک کاری که گوگل انجام داد نیاز داریم که به موارد زیر اشاره‌کنیم:

مهندسی ویژگی:

توسعه شبکه‌های عصبی همیشه درگیر مبحثی به‌عنوان مهندسی ویژگی بود، مهندسی ویژگی یا استخراج بهترین ویژگی‌ها از ورودی اصلی، جهت استفاده از آن‌ها برای ورودی شبکه عصبی قبل از ظهور یادگیری عمیق بسیار موردتوجه بود. با ظهور شبکه‌های یادگیری عمیق این وظیفه خطیر نیز به خود شبکه‌های عصبی سپرده شد و خود شبکه‌ها قادر به استخراج بهترین ویژگی‌ها از ورودی خام شدند.

رمزنگارها:

یکی دیگر از مفاهیمی که موجب توسعه کاربرد شبکه‌های عصبی شد، استفاده از encoder, decoder ها بود. بدین‌صورت که در ورودی ابتدا با استفاده از یک رمزنگار به ارایه‌ای از اعداد تبدیل می‌شود و سپس شبکه‌ای دیگر خروجی این شبکه که درواقع اطلاعات رمزگذاری شده است را به‌عنوان ورودی گرفته و خروجی موردنظر ما را تولید می‌کند. به شبکه دوم decoder یا رمزگشا گفته می‌شود.

شبکه های عصبی بازگشتی:

با گسترش کاربردهای شبکه‌های عصبی، استفاده از شبکه‌های عصبی بازگشتی نیز رونق یافت. شبکه‌های عصبی بازگشتی، شبکه‌هایی هستند که در هر مرحله علاوه بر ورودی فعلی، ورودی مراحل قبل را نیز مدنظر قرار داده‌اند. این شبکه‌ها در کاربردهایی که نیاز به خاطر سپاری ورودی می‌باشد بسیار بهتر از بقیه موارد مشابه عمل می‌کنند. یکی دیگر از پیشرفت‌های این حوزه، استفاده از شبکه‌های بازگشتی دو جهته است، درواقع این شبکه‌ها علاوه بر ورودی پیشین، ورودی‌های آینده را نیز موردتوجه قرار می‌دهند.

ترجمه ماشینی عصبی درواقع از موارد بالا استفاده کرده و دو شبکه رمزنگار و رمزگشا ارائه کرده است که خروجی شبکه اول، ورودی شبکه دوم می‌باشد و هرکدام از این شبکه‌ها خود یک شبکه عصبی بازگشتی می‌باشند. یک نمونه از این شبکه‌ها را می‌توانید در شکل زیر ببینید:

درواقع ایده اصلی این است که از متن ورودی و با استفاده از یک رمزنگار یک سری ویژگی استخراج ‌کنیم و سپس با شبکه دیگر این ویژگی‌ها را به متن مقصد تبدیل ‌کنیم. این ابتکار در ترجمه ماشینی باعث بهبودی باور نکردی در این بخش از پردازش زبان طبیعی شد. درواقع ترجمه ماشینی عصبی توانست ۵۰ درصد از خطاهای ترتیب کلمات و ۱۹ درصد از خطاهای گرامری را کاهش دهد و ترجمه ماشینی را در زبان‌هایی که داده‌های موردنیاز آموزش این شبکه‌ها را دارند، به‌طور اعجاب‌انگیزی بهبود ببخشد.

اگر بخواهیم از جهت دیگری به مسئله نگاه کنیم، ترجمه ماشینی به کمک شبکه‌های عصبی توانست آرزوی دیرین ما جهت استفاده از زبان میانی را تحقق ببخشد ولی به‌وسیله چیزی که هیچ‌کس به آن فکر نکرده بود، اعداد!

پیشرفت های اخیر

یکی از محدودیت‌هایی که ترجمه ماشینی به کمک شبکه‌های عصبی با آن روبروست، نبود داده‌های دو زبانه در بین بعضی جفت زبان‌هاست که این امر موجب کاهش دقت این رویکرد در این تبدیل‌ها شده است. در سال‌های اخیر سعی شده که بر این مشکلات با استفاده از یادگیری رقابتی و ... فائق آیند. برای مطالعه بیشتر در این مورد می‌توانید به این مطلب زیر مراجعه کنید:

https://virgool.io/@partdpai/dual-learning-nmt-esizslz9egq9

نویسنده : سعید بی باک