ویرگول
ورودثبت نام
حسین نصیری راد | Hossein Nasirirad
حسین نصیری راد | Hossein Nasirirad
خواندن ۱ دقیقه·۵ ماه پیش

Latency | Throughput

تعریف اولیه: به طور کلی مدت زمان پاسخگویی(Fetch کردن) از Server به Client رو Latency و به تعداد پاسخهایی که Server برمیگردونه نیز Throughput میگویند.

با توجه به عکس بالا دلیل استفاده از Server های خارج از سازمانها مثلا سروری به نام Asiatech و ... به این دلیل است که سایت هایی که حجم درخواست و پاسخ بالایی دارد، گنجایش حجم پاسخ دهی دیتاهای بالای چند میلیون ریکوئست رو در سیستم و سرورهای خودشون ندارند. به همین خاطر از سرور خارجی و بیرونی که وظیفه بالا بردن Throughput رو داره استفاده میکنند، همچنین حجم دیتایی مثل Cash برای مواردی خاص بسته به معماری نرم افزار در حافظه داخلی یعنی RAM و مابقی موارد در Hard انجام میگردد.
به تصویر زیر نگاه کنین، تقسیم کردن سرورها به سرورهای بیشتر به کمک Load Balancer (که در مقاله بعدی در موردش صحبت خواهیم کرد) توسط تیم Devops هر سازمان با زیرساخت Load Balancer ها نظیر همان سرور خارجی مانند AsiaTech انجام میگردد.

نکته: افزایش تعداد سرور جهت throughput بالاتر می باشد.
در تصویر بالا از بالا به پایین از سرعت پاسخگویی کاسته میشود
در تصویر بالا از بالا به پایین از سرعت پاسخگویی کاسته میشود

در زیر هم یک سری اطلاعات پایه ای پیرامون پروتکل ها مرتبط با موضوع آوردم که بهتره بدونیم :

به طور کلی تمامی موارد بالا چکیده ای از قسمت های مختلف در یک سیستم است که در سرعت زمان پاسخ‌ دهی نقش موثری دارند.

مهندسی نرم افزارمعماری نرم افزارload balancerbandwidthTCP
برنامه نویس و سنگنورد که این همه‌ی ماجرا نیست!
شاید از این پست‌ها خوشتان بیاید