علیرضا یارمحمدی
علیرضا یارمحمدی
خواندن ۱۳ دقیقه·۱ سال پیش

تحلیل داده برای تیم جذب و استخدام - قسمت اول (کشف داده‌ها)

چطور دانش تحلیل داده رو برای اتومات کردن و بهبود فرآیندها و گزارش‌های تیم جذب و استخدام به کار گرفتم؟
Image source: AIHR
Image source: AIHR

توی این مقاله و مقاله‌های بعدی قصد دارم توضیح بدم که چطور با کمک دانش تحلیل داده تونستم گزارش‌ها و داشبوردهای بهینه‌ای برای تیم جذب و استخدام درست کنم و با کمکش زمان خیلی زیادی رو از تیم ذخیره کنم، فرایندها رو اتومات کنم و تحلیل های عمیقی بتونم از این مورد به دست بیارم.

تحلیل داده فرآیند جمع آوری، تجزیه و تحلیل و تفسیر داده‌ها برای پشتیبانی از تصمیم‌گیری و حل مساله در حوزه‌های مختلف هست. توی سال‌های اخیر، با دیجیتالی شدن بیشتر فرایندها و پروسه‌ها، تحلیل داده برای همه‌ی تیم‌های منابع انسانی از جمله جذب و استخدام اهمیت زیادی پیدا کرده؛ چرا که می‌تونه به بهبود کارایی و اثربخشی در جذب و استخدامِ بهترین استعدادها برای سازمان کمک کنه. با این وجود، تجزیه و تحلیل داده چالش هایی ایجاد می‌کنه و به مهارت‌ها و ابزارهایی نیاز داره که یا همیشه برای متخصصین جذب استعداد در دسترس نیستن و یا کار باهاشون راحت نیست.

توی این مقاله، من تجربه‌ی شخصی خودم رو از استفاده از دانش تحلیل داده برای اتوماتیک سازی و بهبود فرایندها و گزارش‌های تیم جذب و استخدام با شما اشتراک می‌ذارم.

مشکل اصلی‌ای که همیشه باهاش مواجه بودم داشتن داده‌های بیش از حد از منابع مختلف بود ولی دانش کافی در مورد نحوه‌ی استفاده از این داده‌ها برای بهینه‌سازی استراتژی و عملکرد تیم جذب و استخدام نداشتم. تصمیم گرفتم از دانش تحلیل داده و با استفاده از فرایندی که ETL (Extract, Transform and Load) نام‌گذاری می‌شه برای ایجاد گزارش‌ها و داشبوردهای بهینه برای تیم جذب و استخدام استفاده کنم.

تجزیه و تحلیل داده می تونه یه ابزار قدرتمند برای تیم جذب و استخدام باشه، در صورتی که بدونیم چطوری از اون درست و موثر استفاده کنیم. با استفاده از مراحل زیر در ادامه توضیح می‌دم که چطور از دانش تجزیه تحلیل داده برای حل کردن مشکلاتم استفاده کردم:

  • کشف داده‌ها (Discovery of data): من داده‌ها رو با توجه به مورد استفاده‌ی خودم در جذب و استخدام بررسی کردم و یک طرح برای ساختاربندی و سازماندهی و مَپ کردن داده‌ها ایجاد کردم.
  • دگرگونی داده‌ها (Transformation of data): من داده‌ها رو با استفاده از تکنیک‌ها و ابزارهای مختلف ساختاربندی، نرمال‌سازی و تمیز کردم.
  • بارگذاری داده‌ها (Loading of data): من داده‌های تمیز، ساختاریافته و نرمال شده رو در یک دیتابیس بارگذاری کردم.
  • بصری‌سازی داده‌ها (Visualization of data): من گزارش‌ها و داشبوردهایی برای نشون دادن شاخص‌های کلیدی عملکرد در فعالیت‌های جذب و استخدام ایجاد کردم.

توضیح مشکل

خوب، همه میدونیم که استفاده از دیتا برای همه‌ی تیم ها می‌تونه به بهبود عملکرد و پیشرفتشون کمک کنه. اکثر گزارش ها نیاز به داده دارن. برای پیش‌بینی نیاز به داده و رویکرد داده محور داریم. برای استفاده بهینه از ظرفیت تیم، نیاز داریم که از داده استفاده کنیم.

توی تجربه های کاریم توی تیم‌های مختلف منابع انسانی شرکت های مختلف، برای استفاده از داده به مشکلات مختلفی برخورد می‌کردم که باعث می‌شد اونطوری که انتظار دارم کار پیش نره. بعضی از مواردی که بهشون برخورد کردم رو اینجا لیست می کنم:

  1. محل ذخیره‌‌ی داده‌ها، محل‌های متفاوتی بود که دسترسی بهش رو دشوار می‌کرد
  2. داده‌ها به نظر یکپارچگی نداشت و هر شخصی با سلیقه‌ی خودش جداول رو می‌ساخت و اطلاعات رو وارد می‌کرد
  3. امکان کار گروهی روی جداولی مثل اکسل به صورت همزمان وجود نداشت و به همین دلیل، فرایند یکپارچه‌سازی اطلاعات کار دشواری می‌شد
  4. کارِ دستی و تکراری برای وارد کردن اطلاعات بسیار زیاد بود. برای مثال برای وارد کردن اطلاعات مصاحبه با یک کاندید هر بار نیاز بود ایمیل، شماره تلفن، اطلاعات شغلِ مورد مصاحبه و … برای اون کاندید وارد بشه
  5. اگر موردی از داده‌ها نیاز به تغییر داشت، نیاز بود توی تک تک ردیف‌های جدول این مورد اصلاح بشه. (برای مثلا یک عدد در شماره تلفن یک کاندید اشتباه وارد شده و نیاز بود تک تک ستون‌های قبلی پیدا بشه و این مورد اصلاح بشه و یا موارد مشابه)
  6. به خاطر اینکه داده‌ها یک شکل وارد نمی‌شد، گزارش‌گیری هم درست انجام نمی‌شد و نیاز به اصلاحات خیلی زیادی داشت که خیلی موقع‌ها مواردی جا می‌موند و گزارش صحیح انجام نمی‌شد (برای مثال یک موقعیت شغلی در یک محل Sale Specialist و در محل دیگه Sales Specialist و در محل دیگه sale specialist ثبت می‌شد. همه برای ما یک معنی دارن ولی برای گزارش‌گیری این 3 متفاوت هستن)
  7. جدول‌ها طوری تهیه نشده بود که گزارش‌های خوبی بتونیم ازشون بگیریم و برای گزارش‌گیریِ متریک‌هایی که نیاز داشتیم نیاز بود به صورت دستی گزارش‌های دیگه‌ای محاسبه بشه
  8. با توجه به اینکه تیم جذب و استخدام به گزارش‌های دوره‌ای نیاز داره، فرایند گزارش‌گیری ماهیانه، هفتگی و یا بعضا روزانه، وقت زیادی از تیم می‌گرفت و یک مورد فرسایشی و بعضا با اشتباه برای تیم بود (هربار از دیتا باید پیوت تیبل گرفته می‌شد و چک می‌شد آیا مورد اشتباهی وجود نداره و اشتباه اصلاح می‌شد و بررسی می‌شد که آیا اون متریکی که می‌خوایم رو به ما می‌تونه بده یا خیر و بعد خروجی گرفته بشه و پاورپوینت درست بشه و گزارش ارائه بشه)
  9. برای استفاده از داده‌ی یک جدول در جدول دیگه اون داده باید به صورت کامل دوباره وارد می‌شد که این کار انرژی بسیاری از ما می‌گرفت و بعضا با خطا همراه می‌شد و باز هم در صورت تغییر در یک جدول باید در تمامی جداول دیگه این تغییر اعمال می‌شد که بعضا یکی از جداول جا می افتاد و دیتا، دیتای اشتباهی می‌شد. (برای مثال در جدول مصاحبه می‌فهمیم که ارزیابی از گرید یک فرد اشتباه انجام شده و این گرید در یک جدول دیگه هم وارد شده، گرید رو در جدول مصاحبه تغییر میدیم ولی یادمون میره که در جدول ثبت اطلاعات پرسنلی هم این گرید تغییر کنه و باعث میشه یک شخص در یک زمان با 2 گرید متفاوت در جدول‌های مختلف داشته باشیم)
  10. برای استفاده از دیتاهای پرسشنامه‌ها (مثل پرس‌لاین، فرمالو و گوگل شیت) باید دوباره جداولی تهیه می‌شد و این دیتا آنالیز و یکپارچه‌سازی انجام می‌شد که فرایند طاقت فرسایی بود.
  11. ای تی اس ها (سیستم های آنلاین مدیریت فرآیند های جذب و استخدام)، گزارش های پیش‌فرضی داشتن و به خاطر خیلی مسائل مثل تنوع سورس‌ها، اشتباه استفاده کردن از ای تی اس، محدودیت مدل گزارش‌ها، عدم امکان سفارشی سازی گزارش و خیلی موارد دیگه سیستم گزارش ساز ای تی اس همه ی نیاز ما رو براورده نمی‌کرد.
یه مطلب هست که می گه اگه میخوای کاری انجام نشه، انجام اون کار رو سخت کن و به مرور اون کار انجام نمیشه

تمامی مطالب بالا، باعث سختی و اصطلاحا اصطکاک در کار می‌شد و این اصطکاک به مرور باعث می‌شد اون کار یا انجام نشه یا درست انجام نشه و در صورت انجام شدن هم انرژی ذهنی و زمانی زیادی از فرد بگیره و در مجموع فرد بهینه کار نکنه و عملکردش پایین بیاد. برخورد کردن به تمامی موارد بالا باعث شد که برم دنبال پیدا کردن جواب برای این موارد و با دانش تحلیل دیتا بیشتر آشنا بشم.

تحلیل دیتا و تحلیل‌گر دیتا (Data Analysis and Data Analyst)

نقش یک تحلیل‌گر داده شامل موارد زیره:

  • به دست آوردن داده‌هایی که به بهترین وجه به موارد استفاده ازش کمک می‌کنه
  • آماده‌سازی و تجزیه و تحلیل داده‌ها برای درک اینکه چه چیزی نشون میدن
  • تفسیر و انتقال موثر پیام به ذینفعانی که باید بر اساس یافته‌ها عمل کنن
  • اطمینان از مستند بودن فرایند برای مراجعات بعدی و تکرارپذیری

اکوسیستم تحلیل داده شامل زیرساخت ها، نرم افزارها، ابزارها، چارچوب ها و فرایندهایی هست که برای جمع آوری، پاکسازی، تجزیه و تحلیل، استخراج و تصویرسازی داده ها استفاده می‌شه

ای‌تی‌ال، یک فرآیند خودکار است که داده‌های خام رو به داده‌های آماده‌ی تجزیه و تحلیل تبدیل می‌کنه:

  • Extracting data from source locations.
  • Transforming raw data by cleaning, enriching, standardizing, and validating it.
  • Loading the processed data into a destination system or data repository.
جایگاه ETL در تحلیل داده - Source: IBM Data Analytics Course
جایگاه ETL در تحلیل داده - Source: IBM Data Analytics Course

کشف داده‌ها (Discovery of data)

- مرحله اول: تعیین اطلاعاتی که باید جمع آوری شوند

1. اطلاعات خاصی که نیاز داریم

برای مثال در فرآیند جذب و استخدام، مراحلی اتفاق می افته که توی هر مرحله اطلاعاتی وجود داره که از اون اطلاعات برای شاخص‌های جذب و استخدام استفاده می‌شه. بعضی از اون شاخص‌ها:

  • تعداد مصاحبه‌ها (Interview count)
  • تعداد کاندید‌ها (Individual Candidates Count)
  • تعداد مصاحبه‌های فنی/منابع انسانی (Technical/HR Interview)
  • تعداد مصاحبه‌های هر دپارتمان (Interview per Department)
  • تعداد افراد اپلای کرده برای هر پوزیشن (Leads Number per Position)
  • نرخ تبدیل هر مرحله از پروسه به مرحله بعدی (Conversion Rate)
  • شاخص رضایت کاندیدها در هر مصاحبه (Candidate Experience/NPS)
  • تعداد پوزیشن‌های باز فعلی (Open Position)
  • نرخ تایید آفر (Offer Acceptance Rate)
  • منابع اصلی اپلای/جذب (Source of Apply/Hire)
  • زمان جذب (Time to Hire)
  • زمان استخدام (Time to fill)
  • تعداد مصاحبه توسط هر فرد (Interview count per Hiring Manager)

2. منابع احتمالی این اطلاعات
برای دریافت شاخص‌های بالا به منابعی نیاز هست، برخی از این منابع عبارت است از:

  • اطلاعات موجود در ATS
  • اطلاعات وارد شده توسط ریکروتر
  • اطلاعات پر شده توسط کاندید در فرم رضایت کاندید
  • اطلاعات گرفته شده توسط مدیر جذب

- مرحله دوم: تعیین یک برنامه برای جمع آوری داده‌ها

1. تعیین یک مقطع زمانی برای جمع آوری داده‌ها

  • بعضی داده‌ها نیاز به جمع آوری لحظه‌ای و روزانه دارن و بعضی داده ها نیاز به جمع آوری در مقاطع زمانی مختلف (برای مثال تعداد مصاحبه‌های روزانه نیاز به جمع آوری روزانه و لحظه‌ای داده ها دارن ولی زمان جذب هر پوزیشن بسته به زمان انتهای جذب هر پوزیشن زمان جمع آوری داده متفاوت می‌شود)

2. تعیین مقدار داده‌ی مورد نیاز برای آنالیز معتبر

  • برای هر کاندید با چه جزییاتی نیاز هست اطلاعات جمع آوری شوند
  • جزییات زمانی هر مصاحبه با چه دقتی نیاز به ثبت دارد
  • جزییات نتیجه مصاحبه با چه جزییاتی نیاز به ثبت دارد
  • در فرم رضایت مصاحبه شونده چه سوالاتی باید پرسیده شود
  • در هر مصاحبه چه جزییاتی نیاز به ثبت دارد

2. تعیین وابستگی ها و ریسک‌ها

  • برای اجرا، بعضی از عوامل فوق به هم وابسته هستند و یا اجرای دشواری دارند. در این قسمت این موارد بررسی می شوند

- مرحله سوم: تعیین متد جمع آوری داده

تعیین متد جمع آوری داده به چند فاکتور بستگی داره:

1. منبع داده

  • بیشتر داده‌های ما داده‌هایی بود که به صورت دستی وارد می‌شد. بهترین ابزار برای این کار که هم فاکتور آنلاین بودن رو داشته باشه هم کالبریتیو باشه، گوگل شیت بود. پس اینجا برای وارد کردن داده‌های دستی از گوگل شیت استفاده کردیم.
  • یکی دیگه از منابعمون پرسش‌نامه ها بود که بیشتر برای شاخص رضایت‌مندی مصاحبه ازش استفاده می‌کنیم. ما هم از پرس لاین هم از فرمالو و هم از گوگل فرم (بنا به مدل فرمی که می‌خواستیم استفاده کنیم استفاده کردیم). امکان جدیدی که فرم های ایرانی اضافه کردن اتصال به گوگل شیت بود که کار ما رو چند مرحله ساده‌تر و روون تر می‌کرد؛ به این صورت که فرم ها رو به گوگل شیت کانکت می کردیم و هر پاسخ به صورت اتومات داخل گوگل شیت میومد و ما دیگه از اون دیتا برای آنالیز استفاده می کردیم و نیاز به دانلود جداگانه‌ی جواب ها و آپلود مجددشون برای بررسی روی گوگل شیت نبود. این فرم‌ها هر کدوم معایب و مزایای خودشون رو دارن که اصلی‌ترین هاش رو میگم:

- گوگل فرم رایگان هست و چون متعلق به خود گوگل هست سینک شدنش با گوگل شیت به راحت‌ترین شکل ممکن و بهترین مدل انجام میشه ولی محدودیتاش نسبت به فرم های دیگه قابلیت های سفارشی‌سازی کمتر فرم و ولیدیشن‌ها و نبودن شرطی سازی‌هاست

Google Forms panel
Google Forms panel


- فرمالو به نظرم از همه بهتر بود، تا چند ماه پیش که با محدودیت‌هایی که روی اینترنت گذاشته شد دیگه مثل قبل کار نمی‌کرد و ساپورت ایرانشون رو کم و الان که دارم این مطلب رو می‌نویسم ساپورت ایران رو محدود کردن و فقط رو دامنه‌ی انگلیسی ساپورت کامل رو دارن. قیمت پایین و امکانات متعدد از مزیت‌های این فرم ساز بود

Formaloo panel
Formaloo panel


- پرس‌لاین از قدیمی‌ترین فرم سازهاست که با توجه به اینکه خیلی سازمان‌ها ازش استفاده می‌کنن جایگاه خوبی توی بازار داره و روی زیرساختاشون خوب کار کردن و قابلیت اطمینان بالایی برای کار داره و یه محدودیت اصلیش به نظرم (که البته یکی از اصول پرس لاین هست) تک مرحله‌ای بودن سوالاش هست که درسته که خوب هست ولی بعضی فرم ها نیاز هست که به جای اینکه فقط یک سوال در یک صفحه پرسیده بشه، چند سوال به صورت همزمان در یک صفحه پرسیده بشه. و البته قیمتش هم نسبت به سایر فرم‌سازهای ایرانی از همه بالاتر هست و اخیرا امکان اتصال به گوگل شیت هم به قابلیتاش اضافه کردن

Porsline panel
Porsline panel


2. تایپ داده
بنا به مدل داده‌هایی که داریم می‌شه از ابزارهای مختلف استفاده کرد. با توجه به مدل دیتابیس ما که تقریبا همه ش متنی و ساختاریافته هست از گوگل شیت به عنوان ابزار استفاده کردیم و تایپ های مختلفی از جمله تاریخ، عدد، متن، بولین و … برای داده‌ها استفاده کردیم

3. مقطع زمانی که به داده نیاز داریم

4. حجم داده

  • حجم داده‌های ما در حدی هست که گوگل شیت برای این کار جواب می‌ده ولی اگر تیمی داده‌هاش تعدادش خیلی بالاست (بالاتر از 5میلیون ردیف) باید از ابزار دیگه‌ای استفاده کنه چون گوگل شیت بیشتر از این تعداد رو ساپورت نمی‌کنه و توی تعدادهای خیلی بالا کند می‌شه

کشیدن فلوچارت ارتباط داده‌ها

برای این مرحله کمی نیاز بود تا با مفاهیم اولیه دیتابیس و ERD آشنا بشم که به صورت خیلی خلاصه اینجا می‌نویسمش:

نمودار موجودیت-رابطه (Entity Relationship Diagram) نوعی فلوچارته که نحوه‌ی ارتباط موجودیت‌هایی (Entity) مانند افراد، اشیاء یا مفاهیم رو با همدیگه در یک سیستم نشون می‌ده. نمودارهای ER اغلب برای طراحی یا اشکال زدایی پایگاه داده‌های رابطه‌ای (Relational Database) استفاده می‌شن.

نمودارهای ER بر اساس سه مفهوم اساسی ایجاد می شوند: موجودیت‌ها (Entities) ، ویژگی‌ها (Attributes) و روابط (Relationships). موجودیت‌ها، اشیا یا مفاهیمی هستند که برای سیستمِ در حال مدل‌سازی مهم هستند. ویژگی ها، ویژگی های یک موجودیت هستند که به توصیف اون کمک می کنند. روابط، توصیف می‌کنند که چگونه موجودیت‌ها با یکدیگر تعامل دارند.

خوب، برای اینکه بتونیم یک ER Diagram برای مدیریت دیتابیس پروسه‌ی جذب و استخدام رسم کنیم، نیاز هست تا مراحل اون رو درک کنیم و ببینیم به چه داده‌ها و "موجودیت‌ها"یی نیاز داریم و هر موجودیت چه "ویژگی"هایی داره و این موجودیت‌ها به چه نحوه‌ای به هم "ارتباط" دارن.

  • اتفاق‌هایی که توی پروسه جذب و استخدام می افته به صورت خیلی خلاصه به شرح زیر هست:
یک کاندید وارد پروسه‌ی جذب و استخدام می‌شه؛ یک یا چند مصاحبه رو در تاریخ‌های مختلف برای یک جایگاه شغلی انجام می‌ده و در صورت موفقیت آمیز بودن این پروسه بهش یک آفر داده میشه.

بیاید موجودیت‌ها (Entity) هایی که اینجا داریم رو مشخص کنیم:

کاندید/مصاحبه/جایگاه شغلی/آفر/تاریخ

این موجودیت‌ها هر کدوم یک سری ویژگی‌ها (Attribute) دارن. بیاین ویژگی‌های هر موجودیت رو بنویسیم:

- کاندید

نام و نام خانوادگی/ایمیل/تلفن/منبع اپلای

- مصاحبه

تاریخ مصاحبه/مصاحبه کننده/کاندید/مرحله مصاحبه/نتیجه مصاحبه/نام جایگاه شغلی

- جایگاه شغلی

نام جایگاه شغلی/دپارتمان/مدیر جذب/تاریخ باز شدن جایگاه/ریکروتر/کاندید مورد قبول/وضعیت جایگاه

- آفر

کاندید/جایگاه شغلی/تاریخ آفر/وضعیت آفر

- تاریخ

میلادی/شمسی/فصلی/نیم سال/هفتگی

حالا بیاین ارتباط‌هایی (Relationship) که هر موجودیت با موجودیت دیگه داره رو بنویسیم:

  • هر کاندید در یک یا چند مصاحبه شرکت می‌کنه
  • هر کاندید می‌تونه 0 یا 1 آفر بگیره
  • هر آفر شامل یک کاندید هست
  • هر آفر شامل یک جایگاه شغلی هست
  • هر مصاحبه یک کاندید داره
  • هر مصاحبه مربوط به یک جایگاه شغلی هست
  • هر پوزیشن می‌تونه یک یا چند آفر داشته باشه
  • هر پوزیشن میتونه چند مصاحبه داشته باشه

با توجه به اطلاعات بالا میتونیم یک ER Diagram برای فرایند جذب و استخدام بکشیم:

Recruitment ER Diagram Sample
Recruitment ER Diagram Sample

حالا ما یک دید کلی از موجودیت‌ها به همراه ویژگی‌هاشون و نحوه‌ی ارتباط اون‌ها با همدیگه داریم و می‌تونیم مرحله‌ی بعد رو انجام بدیم.

برای اینکه بیشتر از نمودارهای ER بدونید می‌تونید به این لینک مراجعه کنید.

در مقاله‌ی بعدی به تکنیک‌های دگرگونی داده‌ها (Transformation of data) می‌پردازم و از تجربیاتم در این زمینه توی تیم جذب و استخدام می‌گم.

منابع انسانیتحلیل دادهجذب و استخدامساخت داشبورد
شاید از این پست‌ها خوشتان بیاید