احمد رفیعی
احمد رفیعی
خواندن ۱۲ دقیقه·۳ ماه پیش

در مسیر Observability، الک (قسمت دوم)

توی قسمت دوم مسیر Observability میریم سراغ استک ELK و بعد از معرفی‌ش چنتا از کامپوننت‌هاش رو هم بررسی می‌کنیم و احتمالا یه پست دیگه هم هفته بعد داریم ازش که بقیه کامپوننت‌هایی که میمونه رو بررسی کنیم.

ELK
ELK


خب یه مروری کنیم پست‌های قبلی رو:

توصیه می‌کنم که حتما این پست‌ها رو هم مطالعه کنید. بریم که ادامه بدیم.

ELK Stack
ELK Stack


استک ELK:

  • چیه و چرا لازمه

در واقع ELK سرنام سه تا ابزار Elasticsearch و Logstash و Kibana هست. که به ترتیب برای سرچ و آنالیز لاگ‌ها، جمع آوری دیتا از سورس های مختلف و پردازش اونها، و نهایتا نمایش دیتا به صورت چارت و گراف استفاده میشن که در ادامه هر کامپوننت این استک رو بیشتر بررسی می‌کنیم. مجموعه‌ی این ابزارها در کنار یه سری ابزار دیگه راه‌حلی رو برای Observability سیستم‌ها و سرویس‌ها حتی در ابعاد شرکت‌های خیلی بزرگ ارائه می‌دهد. این ابزارها بر پایه یک تکنولوژی هست و خیلی با هم به خوبی ادغام شدن. این استک به صورت کامل و جامع می‌تونه راه‌حلی به شما ارائه کنه که بتونید به خوبی تمام شهودی که نیاز دارید رو بدست بیارید. البته بگم خودم یوزرش نیستم و دلایل کافی هم برای این موضوع دارم. اما به شدت به سازمان‌های بزرگی که می‌خواهند یه راه حل جامع برای این کار داشته باشند توصیه می‌کنم. فقط دقت کنید که استک سنگین و گرونی هست برای همین باید توان تامین موارد مورد نیاز آن را داشته باشید.

کامپوننت‌های استک زیبا و بزرگ ELK:

Elasticsearch:

الستیک‌سرچ یک موتور جستجو و آنالیز قدرتمند برای انواع دیتای متنی، عددی، جغرافیایی و … به صورت توزیع شده هست و متن باز توسعه یافته. دیتای الستیک هم میتونه به صورت ساختارمند باشه و هم می‌تونه اصطلاحا بدون استراکچر باشه. الستیک بر پایه Apache Lucene ساخته شده و اولین بار سال ۲۰۱۰ منتشر شد. الستیک ابزار مرکزی استک ELK هست و به داشتن ویژگی‌هایی مثل REST API ساده، ذات دیستریبیوتد، سرعت بالا و قابلیت اسکیل پذیری بالا، معروف هست. به زبون دیگه قلب این استک است. امکان سرچ به صورت real-time و یا پیدا کردن الگوها و ترند و پترن‌ها از کنار هم قراردادن دیتا یا حتی استفاده از هوش مصنوعی برای این کار، از قابلیت‌های دیگه‌ی الستیک هست. این ابزار به صورت کلی هرجایی که نیاز باشه سرچ کنیم، توصیه می‌شه! یعنی بهترین گزینه‌ی ما برای پوشش نیاز سرچ می‌تونیم بگیم هست و واقعا تو این کار کامل هست.

Elasticsearch
Elasticsearch


همان‌طور که گفتیم به خوبی می‌تونیم این دیتابیس رو توزیع کنیم و براش راهکار وجود داره و نودهای الستیک می‌تونند هرکدوم یک role مشخص داشته باشند که در ادامه انواع اونها رو بررسی می‌کنیم:

Master Nodes:

معمولا توی الستیک همه‌ی نودها master-eligible هستن به صورت دیفالت. در هر لحظه فقط یک نود مستر باید توی کلاستر باشه که طی یک فرآیند اجماع و رای گیری که بین نودهای master-eligible انجام میشه، انتخاب میشه. نود مستر وظایفی مثل ساخت و حذف ایندکس‌ها، ترک کردن نودها و اختصاص دادن شاردها به اونها رو بر عهده داره. در ادامه مسیرمون با مفهوم ایندکس و شارد آشنا میشیم.

Data Nodes:

نودهای دیتا مسئول نگهداری دیتا و انجام عملیات مرتبط با دیتا هستن. مواردی مثل:

  • CRUD operations
  • Indexing
  • Search
  • aggregations

همه‌ی نودها به صورت دیفالت نقش دیتا نود رو دارند و برای کم کردن لود این نودها میتونید اونها رو کانفیگ کنید که فقط سرچ و اگریگیشن رو انجام بدن.

Coordinating Nodes:

این نودها در واقع کار لود بالانس رو به صورت هوشمند انجام میدن و درخواست‌ها رو به صورت مستقیم سمت نودهای دیتا و مستر میفرستن. این نودها کمک میکنن تا لود روی نود مستر یا یکی از نودهای دیتا بالا نره که نقش بسیار مهمی هست توی کلاستر های بزرگ. به نودهای کوردینیت بعضا client node هم میگن و به صورت دیفالت همه‌ی نودها این نقش رو هم دارند.

Ingest Nodes:

این نودها کمک میکنن تا پیش پردازش روی دیتا انجام بشه. داکیومنت‌ها قبل از اینکه تبدیل به ایندکس بشن نیاز به یک پردازشی دارند که کار نودهای ingest هست به همین دلیل به اونها نود transform هم میگن چون دیتا توی اونها از داکیومنت تبدیل میشه به ایندکس. بعضی سازمان ها از نودهای ingest به جای Logstash برای پایپ کردن و پردازش دیتا استفاده می‌کنن. به صورت دیفالت همه ی نود ها نقش ingest رو هم دارن.


Hot data Node:

نمیتونیم همه دیتای لاگ و … رو برای همیشه و با اهمیت یکسان بخواهیم نگه داریم کارمون خیلی سخت می‌شه. اینجا سر و کله مفهوم Tiering پیدا میشه، میاییم یه سری مرحله برای دیتامون تعریف می‌کنیم که به مرور با گذشت زمان دیتاهایی که دیگه ازشون زیاد استفاده نمی‌کنیم یا کمتر مورد استفاده هستند رو به سمت این ببریم که حذفشون کنیم یا روی نودهایی ذخیره کنیم که ارزون‌تر هستند، مشابه این مفهوم رو توی آبجکت استورج‌ها هم داریم. حالا هات دیتا نودها در واقع نودهایی هستن که دیتای ما رو که اخیرا ایجاد شده و بیشترین سرچ رو اون هست رو نگهداری می‌کنه. این نودها نیاز دارند که سرعت خواندن و نوشتن بالایی داشته باشند به همین علت استفاده از دیسک های SSD توی اونها متداول هست. معمولا نودهای هات ما نودهای گرون‌تری هستند که ظرفیت کمی دارند اما سرعت خیلی بالایی به ما می‌دهند.

Warm data Node:

توی Tier بعدی دیتا به نود warm منتقل میشه. دیتایی که توی نودهای هات ایندکس شده رو و معمولا مرتبط با هفته‌های اخیر هست، وارد نود وارم میشه و اینجا هم امکان آپدیت دیتا هست اما معمولا به دفعات کمتری نسبت به زمانی که در نود هات بود. یه جورایی دیتاهایی که کمتر از دیتاهای هات دیده می‌شند اینجا منتقل می‌شوند و نگهداری می‌شن. نودهای این tier ارزونتر از نودهای هات هستند و معمولا هاردهایی که دارند ارزون‌تر است و مثلا هاردهای SAS دارند. ظرفیتی بالاتر در عین حال سرعت کمتری که نسبت به ssdها دارند.

Cold data Node:

توی Tier بعدی که cold هست معمولا دیتایی قرار می‌گیره که دیگه به شکل معمول نیاز نداریم روی اون سرچ بزنیم، گرچه همچنان امکان اینکه سرچ رو انجام بدیم داریم. توی نودهای کولد معمولا از دیسک های با هزینه کمتر و ظرفیت بیشتر استفاده میشه. مثلا اینجا می‌ریم سراغ دیسک‌های HDD که ظرفیت‌های خیلی بالایی در اختیار ما قرار می‌دهند ولی سرعتشون زیاد مطلوب نیست ماهم داریم دیتایی روی آنها قرار می‌دیم که انتظار داریم نسبت‌ به دیتاهای دیگه کمتر سرچ بشه و سراغشون بریم.

Frozen data Node:

و نهایتا توی Tier بعدی که frozen هست دیگه بقیه طول عمر خودش رو سپری میکنه. معمولا دیتای توی این نودها به ندرت کوئری در موردشون هست.

این مدل ذخیره‌سازی و چرخه‌ی Tiering که براتون گفتم برای مواقعی هست که ما باید دیتاها رو برای مدت زیادی نگه داریم و عملا هیچ وقت قرار نیست اونها رو پاک کنیم و عمرشون همیشگی هست. این چرخه آنقدر کارا و خوبه که می‌تواند در انتهای عمر خود به سمت Tapeها برسه که ظرفیت‌های خیلی خیلی زیادی رو با سرعت کمی داریم و مثلا طول عمر دیتا روی آنها به بیش از ۳۰ سال ممکنه برسه. می‌بینید برای همه‌ی این مسیر راهکار وجود داره و به خوبی می‌تونیم با الستیک سرچ کامل آن را پوشش بدیم. الله اکبر

دوتا کانسپت اولیه هم توی الستیک داریم که خوبه باهاش آشنا باشید:

Index:

ایندکس‌های الستیک دسته بندی های لاجیکی از داکیومنت‌ها هستن که می‌تونیم اونها رو معادل table دیتابیس‌ها توی دنیای دیتابیس‌های رابطه‌ای بدونیم.

Documents:

داکیومنت‌ها توی الستیک سرچ آبجکت‌ها به فرمت JSON هستن که توی ایندکس‌های الستیک ذخیره میشن و میتونیم اونها رو واحد پایه‌ای استورج بدونیم. داکیومنت‌ها رو میشه معادل یک ردیف از جدول توی دنیای دیتابیس های رابطه ای دونست.

Logstash:

لاگ استش کامپوننتی هست که نقش صف رو توی کلاستر بازی میکنه و ورودی‌ها از سورس‌های مختلف اول سمت لاگ استش میان اونجا از یه سری فیلتر رد میشن و نهایتا خروجی لاگ استش به پلاگین‌های خروجی فرستاده میشه برای قرارگیری در کلاستر الستیک سرچ. خب حالا که فهمیدیم دیتا قرار هست توی لاگ استش parsing براش اتفاق بیافته، با دوتا فیلتر مرسوم هم آشنا بشیم: اولی dissect هست که دیتا رو بر اساس یه سری جداکننده یا دلیمیتر فیلتر میکنه و دومی هم grok هست که بر پایه regular expression ها کار میکند. به طور کلی گروک ابزار قدرتمند‌تری هست و میتونه دیتا متنوع‌تری رو هندل کنه اما به تبع آن ریسورس بیشتری رو هم استفاده می‌کنه و میتونه کندتر باشه مخصوصا اگه به خوبی کانفیگ و آپتیمایز نشه.

موقع ساخت یک کانفیگ گروک یه تعداد پترن استاندارد مشخص وجود داره که معمولا استفاده میشن در ادامه یه لیستی از اونها رو براتون میارم:

  • WORD - pattern matching a single word
  • NUMBER - pattern matching a positive or negative integer or floating point number
  • POSINT - pattern matching a positive integer
  • IP - pattern matching an IPv4 or IPv6 IP address
  • NOTSPACE - pattern matching anything that is not a space
  • SPACE - pattern matching any number of consecutive spaces
  • DATA - pattern matching a limited amount of any kind of data
  • GREEDYDATA - pattern matching all remaining data

یه نمونه Grok پترن رو در ادامه قرار می‌دم که بتونیم باهاش ارتباط بهتری برقرار کنیم.

در ادامه یک خط از لاگ سرویس traefik رو می‌بینیم که می‌خواهیم اون رو با استفاده از grok بررسی و پارسش کنیم.

192.168.100.2 - - [16/Aug/2024:15:16:46 +0000] "GET /service/rest/v1/user-telemetry/events/rte/v2/kc?s=AP-YFGMCGUNNIFB-2-1723821391781-23826591&p=AP-YFGMCGUNNIFB-2 HTTP/1.0" 200 0 "-" "-" 7750 "repo@docker" "http://172.18.0.3:8081" 289ms

پترن استاندارد برای فیلتر آن به صورت زیر می‌شه.

%{IPV4:client_ip} - - \[%{HTTPDATE:timestamp}\] "%{WORD:method} %{URIPATHPARAM:request} HTTP/%{NUMBER:http_version}" %{NUMBER:status_code} %{NUMBER:bytes} "-" "-" %{NUMBER:request_time:int} "%{DATA:backend_name}" "%{URI:backend_url}" %{NUMBER:request_duration:int}ms

توضیح هر کدوم از قسمت‌های پترن مورد استفاده شده رو در ادامه می‌تونیم ببینیم.

  • %{IPV4:client_ip}: Matches the client IP address (192.168.100.2).
  • -: Matches the hyphen (-) for both the ident and user fields, which are placeholders.
  • %{HTTPDATE:timestamp}: Matches the timestamp ([16/Aug/2024:15:16:46 +0000]).
  • %{WORD:method}: Matches the HTTP method (GET).
  • %{URIPATHPARAM:request}: Matches the request path and query parameters (/service/rest/v1/user-telemetry/events/rte/v2/kc?s=AP-YFGMCGUNNIFB-2-1723821391781-23826591&p=AP-YFGMCGUNNIFB-2).
  • %{NUMBER:http_version}: Matches the HTTP version (1.0).
  • %{NUMBER:status_code}: Matches the HTTP status code (200).
  • %{NUMBER:bytes}: Matches the size of the response in bytes (0).
  • "-": Matches the referer and user-agent, which are placeholders.
  • %{NUMBER:request_time:int}: Matches the request time in milliseconds (7750).
  • %{DATA:backend_name}: Matches the backend name (repo@docker).
  • %{URI:backend_url}: Matches the backend URL (http://172.18.0.3:8081).
  • %{NUMBER:request_duration:int}ms: Matches the request duration in milliseconds (289ms).

و در انتها هم کانفیگ لاگ‌استش ما برای تحلیل این لاگ به صورت زیر خواهد بود.

filter {

grok {

match => { "message" => "%{IPV4:client_ip} - - \[%{HTTPDATE:timestamp}\] \"%{WORD:method} %{URIPATHPARAM:request} HTTP/%{NUMBER:http_version}\" %{NUMBER:status_code} %{NUMBER:bytes} \"-\" \"-\" %{NUMBER:request_time:int} \"%{DATA:backend_name}\" \"%{URI:backend_url}\" %{NUMBER:request_duration:int}ms" }

}

}


همان طور که در مراحل بالا دیدید لاگی که می‌تونیست برای ما نامفهوم باشه و به صورت raw لاگ داخل الستیک سرچ ذخیره بشه الان به صورت کامل پارس شده و می‌تونیم روی هر کدوم از قسمت‌های آن سرچ کنیم. مثلا اون کلاینت‌هایی که استتوس کد ۳۰۰ یا ۴۰۰ دارن رو جدا کنیم و پیداشون کنیم.



این میشه یه آشنایی اولیه با استک ELK توی پست بعدی سعی می‌کنیم بقیه کامپوننت ها رو هم تکمیل کنیم و مسیر Observability رو ادامه بدیم و کنار هم یاد بگیریم.


مراقب خودتون باشید. 🌹🐳🌹



خوبه که داکرمی رو تو جاهای مختلف فالو کنید. پذیرای نظرات شما هستیم.

🫀 Follow DockerMe 🫀

🔔 Follow YouTube 🔔

📣 Follow Instagram 📣

🖇 Follow LinkedIn DockerMe🖇

🔎 Follow Linkedin Ahmad Rafiee 🔎

🕊 Follow Twitter 🕊


monitoringobservabilityelasticsearchlogstashelk
مشاور زیرساخت. موسس سایت آموزشی DockerMe.ir
شاید از این پست‌ها خوشتان بیاید