کلینیک دکتر کمالی
کلینیک دکتر کمالی
خواندن ۱۸ دقیقه·۳ سال پیش

اعتبار سنجی (Cross-Validation) در یادگیری ماشینی: چگونه آن را به درستی انجام دهیم

اعتبار سنجی
اعتبار سنجی

سامانه های قاعده پایه در یادگیری ماشین (Machine Learning) اصولا به توانایی های یک الگوریتم جهت اثر بخشی در ورودی های مختلف اشاره دارد. در واقع در یادگیری ماشین با کاهش عملکرد در ورودی های جدید می توانیم از نمونه های تحت آموزش استفاده کنیم.

یک راهکار مناسب برای انسان ها فراگیر کردن است. در این دسته از پروژه ها امکان دسته بندی وجود دارد. به عنوان مثال : شناسای یک سگ برای انسان حتی اگر آن نژاد را قبلا ندیده باشد، بسیار راحت است. اما همین کار برای یک مدل در ML چالش برانگیز است. به همین خاطر بررسی در توانایی الگوریتم برای فراگیری و تعمیم مهم است که جهت ساخت مدل به آن نیاز داریم.

برای این کار از Cross-Validation (CV) استفاده می کنیم.

در این مقاله به موارد زیر خواهیم پرداخت:

اعتبار متقابل چیست؟ (تعریف، هدف استفاده و تکنیک ها)

تکنیک‌های مختلف CV:

• نگه‌داشتن، k-folds

• Leave-one-out

• Leave-p-out

• k-fold طبقه‌بندی شده

• k-fold مکرر

• k-folds تودرتو

• CV کامل

نحوه استفاده از این تکنیک ها: sklearn

اعتبار سنجی متقابل در یادگیری ماشینی: sklearn، CatBoost

اعتبار سنجی متقابل در یادگیری عمیق: Keras، PyTorch، MxNet

بهترین شیوه ها و نکات: سری های زمانی، داده های پزشکی و مالی، تصاویر

Cross-Validation (اعتبار سنجی متقابل) چیست؟

اعتبار سنجی متقابل یک روش برای ارزیابی یک مدل در ماشین لرنینگ و همچنین آزمایش نحوه عملکرد آن است. از CV اصولا در فعالیت های کاربردی یادگیری ماشین استفاده می شود. این کار درمقایسه و انتخاب یک مدل مناسب برای مسئله مدل‌سازی پیش‌بینی‌کننده خاص کمک می‌کند.

درک و پیاده سازی CV ساده است، همچنین تعصب کمتری نسبت به سایر روش‌های مورد استفاده برای شمارش امتیازهای کارایی مدل دارد. همه موارد ذکر شده اعتبارسنجی متقابل را به ابزاری قدرتمند جهت انتخاب بهترین مدل برای کار خاص تبدیل می کند.

روش های مختلفی وجود دارد که ممکن است برای اعتبارسنجی متقابل در یک مدل استفاده شود. با این حال، همه آنها یک الگوریتم مشابه دارند:

مجموعه داده را به دو بخش تقسیم کنید: 1- برای آموزش، 2- برای آزمایش

مدل را برروی مجموعه آموزشی آموزش دهید.

اعتبار مدل را در مجموعه آزمایشی تأیید کنید.

1-3 مرحله را چندین بار تکرار کنید. تعداد تکرار کار به روشی که استفاده می کنید بستگی دارد.

همانطور که می دانید، تکنیک های CV بسیاری وجود دارد. برخی از تکنیک ها اصولا مورد استفاد قرار می گیرد. برخی دیگر فقط در تئوری کار می کنند. در ادامه روش‌های اعتبارسنجی متقاطع را که در این مقاله پوشش داده خواهد شد، نمایش داده می شود:

• Hold-out

• K-folds

• Leave-one-out

• Leave-p-out

• Stratified K-folds

• Repeated K-folds

• Nested K-folds

• Complete

Hold-out

اعتبار سنجی متقابل Hold-out ساده ترین و رایج ترین روش مورد استفاده است. شاید اطلاع نداشته باشید که این روش نگهدارنده است اما مطمئناً هر روز از آن استفاده می کنید.

الگوریتم تکنیک Hold-out:

مجموعه داده را به دو بخش تقسیم کنید: مجموعه آموزشی و مجموعه تست. معمولاً 80 درصد مجموعه داده به مجموعه آموزشی و 20 درصد به مجموعه آزمایشی اطلاق می گردد، اما شما می‌توانید هر تقسیم‌بندی را انتخاب کنید که در مدل شما مناسب و کاربردی تر باشد.

1- مدل را روی مجموعه آموزشی آموزش دهید.

2- در مجموعه آزمایشی اعتبار سنجی کنید.

3- نتیجه اعتبارسنجی را ذخیره کنید.

خودشه.

ما معمولاً از روش نگهدارنده در مجموعه داده‌های بزرگ استفاده می‌کنیم، چون این روش ها فقط یک بار نیاز به آموزش مدل دارد.

اجرای نگهدارنده واقعاً آسان است. برای مثال، می‌توانید این کار را با استفاده از sklearn.model_selection.train_test_split انجام دهید.

import numpy as np

from sklearn.model_selection import train_test_split


X, y = np.arange(10).reshape((5, 2)), range(5)

X_train, X_test, y_train, y_test = train_test_split(X, y,

test_size=0.2,

با این حال، Hold-out یک نقطه ضعف بزرگ دارد.

به عنوان مثال، مجموعه داده ای که از نظر توزیع کاملاً یکنواخت نیست. اگر چنین است، ممکن است پس از تقسیم در یک نقطه ناهموار قرار بگیریم. به عنوان مثال، مجموعه آموزشی مجموعه تست را نشان نخواهد داد. هر دو مجموعه تمرین و تست ممکن است بسیار متفاوت باشند، یکی از آنها ممکن است آسان تر یا سخت تر باشد.

علاوه بر این، این واقعیت که ما مدل خود را فقط یک بار آزمایش می کنیم ممکن است یک گلوگاه برای این روش باشد. با توجه به دلایل ذکر شده در بالا، ممکن است نتیجه به دست آمده با تکنیک Hold-out نادرست در نظر گرفته شود.

k-fold

K-Fold CV روشی است که معایب روش نگهدارنده را به بسیار کاهش می د هد و به حداقل می ر ساند. k-Fold روش جدیدی برای تقسیم مجموعه داده معرفی می کند که به غلبه بر test only once bottleneck”" کمک می کند.

الگوریتم تکنیک k-Fold:

1. تعدادی folds را انتخاب کنید k. معمولاً 5 تا 10 K است، اما می‌توانید هر عددی را انتخاب کنید که کمتر از طول مجموعه داده باشد.

2. مجموعه داده را به k قسمت مساوی (در صورت امکان) تقسیم کنید (به آنها folds گفته می شود)

3. k – 1 folds را انتخاب کنید که مجموعه آموزشی خواهد بود. تای باقیمانده مجموعه آزمایشی خواهد بود

4. مدل را روی مجموعه آموزشی آموزش دهید. در هر تکرار اعتبارسنجی متقاطع، باید یک مدل جدید مستقل از مدل آموزش داده شده در تکرار قبلی آموزش دهید.

5. در مجموعه آزمایشی اعتبار سنجی کنید

6. نتیجه اعتبارسنجی را ذخیره کنید

7. مراحل را 3 تا 6 هزار بار تکرار کنید. هر بار از چین باقی مانده به عنوان مجموعه تست استفاده کنید. در پایان، شما باید مدل را روی هر فولد که دارید اعتبارسنجی کرده باشید.

8. برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 6 به دست آوردید.

اعتبار سنجی متقاطع k-Fold

برای انجام اعتبارسنجی متقاطع k-Fold می توانید از sklearn.model_selection.KFold استفاده کنید.

import numpy as np

from sklearn.model_selection import KFold


X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])

y = np.array([1, 2, 3, 4])

kf = KFold(n_splits=2)


for train_index, test_index in kf.split(X):

print("TRAIN:", train_index, "TEST:", test_index)

X_train, X_test = X[train_index], X[test_index]

y_train, y_test = y[train_index], y[test_index]

به طور کلی همیشه بهتر است به جای Hold-out از تکنیک k-Fold استفاده کنید. از آنجایی که آموزش و آزمایش بر روی چندین بخش مختلف از مجموعه داده صورت می گیرد، به طور مو به مو، مقایسه k-Fold نتیجه پایدارتر و قابل اعتمادتری به دست می دهد. ما می توانیم تعداد امتیاز کلی را قوی‌تر کنیم، اگر تعداد folds را افزایش دهیم تا مدل را روی بسیاری از زیر مجموعه‌های گوناگون آزمایش کنیم.

با این حال، روش k-Fold یک نقطه ضعف دارد. افزایش k منجر به آموزش مدل های بیشتر می شود و فرآیند آموزش ممکن است واقعاً گران و زمان بر باشد.

Leave-one-out

اعتبار سنجی متقابل (LOOCV) یک مورد شدید از K-Fold CV است. تصور کنید که k برابر با n باشد که n تعداد نمونه های مجموعه داده است. چنین مورد k-Fold معادل تکنیک Leave-one-out است.

الگوریتم تکنیک LOOCV:

1. یک نمونه از مجموعه داده را انتخاب کنید که مجموعه آزمایشی خواهد بود

2. n – 1 نمونه باقیمانده مجموعه آموزشی خواهد بود

3. مدل را روی مجموعه آموزشی آموزش دهید. در هر تکرار، یک مدل جدید باید آموزش داده شود

4. در مجموعه آزمایشی اعتبار سنجی کنید

5. نتیجه اعتبارسنجی را ذخیره کنید

6. مراحل 1 تا 5 n بار تکرار کنید، همانطور که برای n نمونه، n مجموعه آموزشی و تست متفاوت داریم.

7. برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 5 به دست آوردید.

ض

اعتبار سنجی متقابل

برای LOOCV sklearn همچنین دارای یک روش داخلی است. می توان آن را در کتابخانه model_selection - sklearn.model_selection.LeaveOneOut پیدا کرد.

import numpy as np

from sklearn.model_selection import LeaveOneOut


X = np.array([[1, 2], [3, 4]])

y = np.array([1, 2])

loo = LeaveOneOut()


for train_index, test_index in loo.split(X):

print("TRAIN:", train_index, "TEST:", test_index)

X_train, X_test = X[train_index], X[test_index]

y_train, y_test = y[train_index], y[test_index]

بزرگترین مزیت این روش نسبت به Leave-one-out این است که داده های زیادی را هدر نمی دهد. ما فقط از یک نمونه از کل مجموعه داده به عنوان یک مجموعه آزمایشی استفاده می کنیم، در حالی که بقیه مجموعه آموزشی است. اما وقتی با k-Fold CV مقایسه می‌شود، LOOCV نیاز به ساخت n مدل به جای k مدل دارد، وقتی می‌دانیم که n که مخفف تعداد نمونه‌های مجموعه داده است بسیار بیشتر از k است. این بدان معناست که LOOCV از نظر محاسباتی گرانتر از روش k-Fold است، ممکن است زمان زیادی طول بکشد تا اعتبار متقابل مدل با استفاده از LOOCV.

بنابراین، جامعه علوم داده یک قاعده کلی بر اساس شواهد تجربی و تحقیقات مختلف دارد که نشان می‌دهد اعتبارسنجی متقاطع 5 یا 10 برابر باید بر LOOCV ترجیح داده شود.

Leave-p-out

اعتبار سنجی متقاطع Leave-p-out شبیه به ترک یک خروجی CV است زیرا تمام مجموعه های آموزشی و آزمایشی ممکن را با استفاده از نمونه های p به عنوان مجموعه آزمایشی ایجاد می کند. تمام موارد ذکر شده در مورد LOOCV و برای LpOC درست است.

با این حال، شایان ذکر است که بر خلاف LOOCV و مجموعه‌های تست k-Fold برای LpOC اگر p بالاتر از 1 باشد، همپوشانی دارند.

الگوریتم تکنیک LpOC:

1. نمونه های p را از مجموعه داده انتخاب کنید که مجموعه آزمایشی خواهد بود

2. n - p نمونه باقیمانده مجموعه آموزشی خواهد بود.

3. مدل را روی مجموعه آموزش دهید. در هر تکرار، یک مدل جدید باید آموزش داده شود.

4. در مجموعه آزمایشی اعتبار سنجی کنید.

5. نتیجه اعتبارسنجی را ذخیره کنید.

6. مراحل 2 تا 5 Cpn را تکرار کنید.

7. میانگین نتایجی که در مرحله 5 به دست آوردید برای به دست آوردن امتیاز نهایی استفاده کنید.

می‌توانید Leave-p-out CV را با استفاده از sklearn – sklearn.model_selection.LeavePOut انجام دهید.

import numpy as np

from sklearn.model_selection import LeavePOut


X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])

y = np.array([1, 2, 3, 4])

lpo = LeavePOut(2)


for train_index, test_index in lpo.split(X):

print("TRAIN:", train_index, "TEST:", test_index)

X_train, X_test = X[train_index], X[test_index]

y_train, y_test = y[train_index], y[test_index]

LpOC تمام معایب LOOCV را دارد، اما، با این وجود، به اندازه LOOCV قوی است.

Stratified k-Fold

در برخی مواقع ممکن است با عدم تعادل زیادی در مقدار هدف در مجموعه داده مواجه شویم. به عنوان مثال، در مجموعه داده‌های مربوط به قیمت ساعت‌های مچی، ممکن است تعداد بیشتری از ساعت‌های مچی قیمت بالایی داشته باشند. در مورد طبقه‌بندی، در مجموعه داده‌های گربه‌ها و سگ‌ها ممکن است تغییر زیادی به سمت طبقه (نژاد) سگ وجود داشته باشد.

K-Fold طبقه بندی شده نوعی از تکنیک استاندارد K-Fold CV است که به گونه ای طراحی شده است که در چنین مواردی از عدم تعادل هدف موثر باشد.

به صورت زیر عمل می کند. Stratified k-Fold مجموعه داده را بر روی k folds تقسیم می کند به طوری که هر folds تقریباً دارای درصد مشابه ی از نمونه های هر کلاس هدف به عنوان مجموعه کامل است. در مورد رگرسیون، Stratified k-Fold اطمینان حاصل می کند که میانگین مقدار هدف تقریباً در همه چین ها برابر است.

الگوریتم Stratified k-Fold :

1. تعدادی folds-k را انتخاب کنید .

2. مجموعه داده را به k برابر تقسیم کنید. هر folds باید تقریباً دارای درصد مشابهی از نمونه‌های هر کلاس هدف در مجموعه کامل باشد.

3. k – 1 folds را انتخاب کنید که مجموعه آموزشی خواهد بود. folds باقیمانده مجموعه آزمایشی خواهد بود.

4. مدل را روی مجموعه آموزش دهید. در هر تکرار یک مدل جدید باید آموزش داده شود.

5. در مجموعه آزمایشی اعتبار سنجی کنید.

6. نتیجه اعتبارسنجی را ذخیره کنید.

7. مراحل را 3 تا 6 هزار بار تکرار کنید. هر بار از folds باقی مانده به عنوان مجموعه تست استفاده کنید. در پایان، شما باید مدل را روی هر folds که دارید اعتبارسنجی کرده باشید..

8. برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 6 به دست آوردید را استفاده کنید.

همانطور که ممکن است متوجه شده باشید، الگوریتم تکنیک Stratified k-Fold مشابه K-Folds استاندارد است. شما نیازی به کدنویسی اضافی ندارید زیرا این روش همه کارهای لازم را برای شما انجام می دهد.

Stratified k-Fold همچنین یک روش داخلی در sklearn دارد – sklearn.model_selection.StratifiedKFold.

import numpy as np

from sklearn.model_selection import StratifiedKFold


X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])

y = np.array([0, 0, 1, 1])

skf = StratifiedKFold(n_splits=2)


for train_index, test_index in skf.split(X, y):

print("TRAIN:", train_index, "TEST:", test_index)

X_train, X_test = X[train_index], X[test_index]

y_train, y_test = y[train_index], y[test_index]

تمام موارد ذکر شده در بالا در مورد K-Fold CV برای تکنیک Stratified k-Fold صادق است. هنگام انتخاب بین روش های مختلف CV، مطمئن شوید که از روش مناسب استفاده می کنید. به عنوان مثال، ممکن است فکر کنید که مدل شما عملکرد بدی دارد، صرفاً به این دلیل که از K-Fold CV برای اعتبارسنجی مدلی استفاده می‌کنید که بر روی مجموعه داده با عدم تعادل کلاس آموزش داده شده است. برای جلوگیری از آن، همیشه باید یک تجزیه و تحلیل داده های اکتشافی مناسب روی داده های خود انجام دهید.

Repeated k-Fold

اعتبارسنجی متقابل k-Fold مکرر یا CV نمونه‌برداری‌های تصادفی مکرر احتمالاً قئی تر و بهتر از تکنیک‌های CV در این مقاله است. این یک تغییر از k-Fold است اما در مورد K-Folds تکراری k تعداد folds نیست. تعداد دفعاتی است که ما مدل را آموزش خواهیم داد.

ایده کلی این است که در هر تکرار، نمونه‌هایی را به‌طور تصادفی از سرتاسر مجموعه داده به عنوان مجموعه آزمایشی انتخاب می‌کنیم. به عنوان مثال، اگر تصمیم بگیریم که 20٪ از مجموعه داده ها مجموعه آزمایشی ما باشد، 20٪ نمونه به طور تصادفی انتخاب می شوند و 80٪ بقیه به مجموعه آموزشی تبدیل می شوند.

الگوریتم تکنیک Repeated k-Fold:

1. k را انتخاب کنید - چند بار مدل آموزش داده می شود

2. تعدادی نمونه را انتخاب کنید که مجموعه آزمایشی خواهد بود

3. مجموعه داده را تقسیم کنید

4. روی مجموعه آموزشی تمرین کنید. در هر تکرار اعتبارسنجی متقاطع، یک مدل جدید باید آموزش داده شود

5. در مجموعه آزمایشی اعتبار سنجی کنید

6. نتیجه اعتبارسنجی را ذخیره کنید

7. مراحل را 3-6 هزار بار تکرار کنید

8. برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 6 به دست آوردید.

K-Fold مکرر مزایای واضحی نسبت به استاندارد k-Fold CV دارد.

اولا نسبت تقسیم قطار/آزمایش به تعداد تکرارها بستگی ندارد. ثانیا، ما حتی می توانیم نسبت های منحصر به فردی را برای هر تکرار تنظیم کنیم.

ثالثاً، انتخاب تصادفی نمونه‌ها از مجموعه داده‌ها، Repeated k-Fold را برای انتخاب قوی‌تر می‌کند.

با این حال، برخی از معایب وجود دارد. k-Fold CV تضمین می‌کند که مدل روی همه نمونه‌ها آزمایش می‌شود، در حالی که K-Fold تکراری بر اساس تصادفی‌سازی است که به این معنی است که برخی از نمونه‌ها ممکن است هرگز برای قرار گرفتن در مجموعه آزمایش انتخاب نشوند. در همان زمان، برخی از نمونه ها ممکن است چندین بار انتخاب شوند.


Sklearn به شما در پیاده سازی Repeated k-Fold CV کمک می کند. فقط از sklearn.model_selection.RepeatedKFold استفاده کنید. در اجرای sklearn این تکنیک باید تعداد folds که می خواهید داشته باشید (n_splits) و تعداد دفعاتی که تقسیم انجام می شود (n_repeats) را تنظیم کنید. این تضمین می کند که در هر تکرار چین های مختلفی خواهید داشت.

import numpy as np

from sklearn.model_selection import RepeatedKFold


X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])

y = np.array([0, 0, 1, 1])

rkf = RepeatedKFold(n_splits=2, n_repeats=2, random_state=42)


for train_index, test_index in rkf.split(X):

print("TRAIN:", train_index, "TEST:", test_index)

X_train, X_test = X[train_index], X[test_index]

y_train, y_test = y[train_index], y[test_index]

Nested k-Fold

برخلاف سایر تکنیک‌های CV که برای ارزیابی کیفیت یک الگوریتم طراحی شده‌اند، Nested k-Fold CV محبوب‌ترین راه برای تنظیم پارامترهای یک الگوریتم است.

تصور کنید که ما یک پارامتر p داریم که معمولاً به الگوریتم پایه ای که ما در حال تایید متقابل آن هستیم بستگی دارد. به عنوان مثال، برای Logistic Regression، ممکن است پارامتر جریمه باشد که برای تعیین هنجار مورد استفاده در جریمه استفاده می شود.

الگوریتم تکنیک Nested k-Fold:

1. k را انتخاب کنید - تعدادی folds، به عنوان مثال، 10 - فرض کنیم این عدد را انتخاب کرده ایم

2. یک پارامتر p را انتخاب کنید. فرض کنید الگوریتم ما Logistic Regression است و p پارامتر جریمه p = {'l1', 'l2', 'elasticnet', 'none'} است.

3. مجموعه داده را به 10 folds تقسیم کنید و یکی از آنها را برای آزمایش رزرو کنید.

4. یکی از folds آموزشی را برای اعتبار سنجی رزرو کنید.

5. برای هر مقدار p روی 8 فولد آموزشی باقیمانده آموزش دهید و روی فولد اعتبارسنجی ارزیابی کنید. اکنون 4 اندازه گیری دارید.

6. مراحل 4-5 را 9 بار تکرار کنید. بچرخانید که کدام فولد آموزشی، فولد اعتبارسنجی است. اکنون اندازه گیری 9 * 4 دارید.

7. p را انتخاب کنید که میانگین خطای تمرین را بیش از 9 برابر به حداقل برساند. از آن p برای ارزیابی روی مجموعه تست استفاده کنید.

8. از مرحله 2 باید 10 بار تکرار کنید و از هر fold به نوبت به عنوان folds تست استفاده کنید.

9. میانگین و انحراف معیار اندازه گیری ارزیابی را در 10 برابر تست ذخیره کنید.

10. الگوریتمی که بهترین عملکرد را داشت، الگوریتمی بود که بهترین میانگین عملکرد خارج از نمونه را در 10 لایه آزمایشی داشت.

این تکنیک از نظر محاسباتی گران است زیرا در طول مراحل 1 تا 10 تعداد زیادی مدل باید آموزش و ارزیابی شوند. با این حال، Nested k-Fold CV معمولا استفاده می شود و ممکن است در چندین کار ML واقعاً مؤثر باشد.

متأسفانه، هیچ روش داخلی در sklearn وجود ندارد که بتواند CV Nested k-Fold را برای شما انجام دهد. این لحظه ای است که شما باید یا گوگل کنید و پیاده سازی شخصی را پیدا کنید یا خودتان آن را کدنویسی کنید.

Complete Cross-Validation

CV کامل کم استفاده ترین تکنیک CV است. ایده کلی این است که ما یک عدد k - طول مجموعه آموزشی را انتخاب می کنیم و روی هر تقسیم ممکن شامل k نمونه در مجموعه آموزشی اعتبار سنجی می کنیم.

مقدار آن تقسیم‌ها را می‌توان به صورت Сnk محاسبه کرد که n طول مجموعه داده است. اگر k بالاتر از 2 باشد، باید مدل خود را چندین بار آموزش دهیم که همانطور که قبلاً متوجه شدیم یک زمان فرآیند گران قیمت و از نظر محاسباتی است.

به همین دلیل است که از CV کامل یا در تحقیقات نظری استفاده می شود و یا در صورت وجود فرمول مؤثری که به حداقل رساندن محاسبات کمک می کند.

الگوریتم اعتبار سنجی متقاطع کامل:

1. یک عدد k را انتخاب کنید - طول مجموعه آموزشی

2. مجموعه داده را تقسیم کنید.

3. روی مجموعه آموزشی تمرین کنید.

4. در مجموعه آزمایشی اعتبار سنجی کنید.

5. نتیجه اعتبارسنجی را ذخیره کنید.

6. مراحل 2 تا 5 Сnk را تکرار کنید.

7. برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 5 به دست آوردید.

Cross-Validation in Machine Learning

بیشتر تکنیک های اعتبار سنجی متقابل ذکر شده در بالا به طور گسترده در ML استفاده می شود. مهم است که به خاطر داشته باشید که استفاده از تکنیک CV مناسب ممکن است در زمان شما صرفه جویی کند و به انتخاب بهترین مدل برای کار کمک کند.


این بدان معناست که اولاً، بهتر است همیشه مدل را تأیید متقابل کنید و ثانیاً باید یک روش CV مربوطه را انتخاب کنید. بنابراین، دانستن مزایا و معایب تکنیک‌های اعتبارسنجی متقابل حیاتی است.

شایان ذکر است که اگر می‌خواهید مدل را اعتبارسنجی متقاطع کنید، همیشه باید دفترچه راهنمای مدل را بررسی کنید زیرا برخی از الگوریتم‌های ML، برای مثال CatBoost روش‌های CV داخلی خود را دارند. ممکن است آنها را مربوط به وظیفه ML خود بیابید و به جای روش های داخلی sklearn از آنها استفاده کنید.

به طور کلی، همانطور که ممکن است متوجه شده باشید، بسیاری از تکنیک‌های CV دارای روش‌های داخلی sklearn هستند. من به شدت توصیه می کنم از آنها استفاده کنید زیرا این روش ها در زمان زیادی برای کارهای پیچیده تر صرفه جویی می کنند.

Cross-Validation in Deep Learning

Cross-validation در یادگیری عمیق (DL) ممکن است کمی مشکل باشد زیرا اکثر تکنیک‌های CV به آموزش مدل حداقل چند بار نیاز دارند.

در یادگیری عمیق، معمولاً به دلیل هزینه‌های مرتبط با آموزش مدل‌های مختلف، از CV اجتناب می‌کنید. به جای انجام k-Fold یا سایر تکنیک‌های CV، ممکن است از زیرمجموعه‌ای تصادفی از داده‌های آموزشی خود به عنوان نگهدارنده برای اهداف اعتبارسنجی استفاده کنید.

به عنوان مثال، کتابخانه یادگیری عمیق Keras به شما امکان می دهد یکی از دو پارامتر را برای تابع fit که آموزش را انجام می دهد، ارسال کنید.

validation_split: درصدی از داده هایی که باید برای اعتبار سنجی نگهداری شوند.

validation_data: چند عدد از (X, y) که باید برای اعتبارسنجی استفاده شود. این پارامتر پارامتر validation_split را نادیده می گیرد، به این معنی که شما می توانید تنها یکی از این پارامترها را در یک زمان استفاده کنید.

همین رویکرد در آموزش های رسمی سایر فریمورک های DL مانند PyTorch و MxNet استفاده می شود. آنها همچنین پیشنهاد می کنند مجموعه داده را به سه بخش تقسیم کنید: آموزش، اعتبار سنجی و آزمایش.

آموزش : بخشی از مجموعه داده برای آموزش

اعتبار سنجی : بخشی از مجموعه داده برای اعتبارسنجی در حین آموزش

تست : بخشی از مجموعه داده برای اعتبار سنجی نهایی مدل

با این حال، اگر مجموعه داده کوچک است (شامل صدها نمونه) می توانید از اعتبارسنجی متقابل در وظایف یادگیری عمیق استفاده کنید. در این مورد، یادگیری یک مدل پیچیده ممکن است یک کار بی ربط باشد، بنابراین مطمئن شوید که کار را بیشتر پیچیده نکنید.

Best practices and tips

شایان ذکر است که گاهی اوقات انجام اعتبارسنجی متقابل ممکن است کمی مشکل باشد.

به عنوان مثال، اشتباه منطقی هنگام تقسیم مجموعه داده بسیار آسان است که ممکن است منجر به یک CV غیرقابل اعتماد شود.

ممکن است نکاتی را بیابید که باید هنگام تایید متقابل یک مدل در زیر مد نظر داشته باشید:

1. هنگام تقسیم داده ها منطقی باشید (آیا روش تقسیم منطقی است)

2. از روش CV مناسب استفاده کنید (آیا این روش برای مورد استفاده من قابل اجرا است)

3. هنگام کار با سری های زمانی، گذشته را تأیید نکنید (به اولین نکته مراجعه کنید)

4. هنگام کار با داده های پزشکی یا مالی، به یاد داشته باشید که به صورت شخصی تقسیم کنید. از داشتن داده برای یک نفر هم در آموزش و هم در مجموعه تست خودداری کنید زیرا ممکن است به عنوان نشت داده در نظر گرفته شود

5. هنگام برش تکه‌ها از تصاویر بزرگ‌تر، به یاد داشته باشید که با شناسه تصویر بزرگ تقسیم کنید

البته، نکات از کار به کار متفاوت است و پوشش همه آنها تقریبا غیرممکن است. به همین دلیل است که انجام یک تجزیه و تحلیل داده های اکتشافی جامد قبل از شروع اعتبارسنجی متقابل یک مدل همیشه بهترین روش است.

Final thoughts

اعتبار سنجی متقابل ابزار قدرتمندی است. هر دانشمند داده باید با آن آشنا باشد. در زندگی واقعی، شما نمی توانید پروژه را بدون تایید متقابل یک مدل به پایان برسانید.

به نظر من بهترین تکنیک های CV Nested k-Fold و استاندارد k-Fold هستند. من شخصاً از آنها در وظیفه تشخیص تقلب استفاده کردم. K-Fold تودرتو و همچنین GridSeachCV به من کمک کرد تا پارامترهای مدل خود را تنظیم کنم. از طرف دیگر، k-Fold برای ارزیابی عملکرد مدل من استفاده شد.

در این مقاله، ما متوجه شدیم که اعتبارسنجی متقابل چیست، چه تکنیک‌های CV در طبیعت وجود دارد و چگونه آنها را پیاده‌سازی کنیم. در آینده الگوریتم های ML قطعاً حتی بهتر از امروز عمل خواهند کرد. با این حال، اعتبار سنجی متقابل همیشه برای پشتیبان گیری از نتایج شما مورد نیاز است.

امیدواریم با این اطلاعات، مشکلی در تنظیم CV برای پروژه بعدی یادگیری ماشینی خود نخواهید داشت!

منابع

1. https://www.geeksforgeeks.org/cross-validation-machine-learning/

2. https://machinelearningmastery.com/k-fold-cross-validation/

3. https://towardsdatascience.com/cross-validation-in-machine-learning-72924a69872f

4. https://towardsdatascience.com/why-and-how-to-do-cross-validation-for-machine-learning-d5bd7e60c189

5. https://scikit-learn.org/stable/modules/cross_validation.html

معصومه شریفییادگیری ماشیندکتر کیوان رادcross validationاعتبارسنجی
Artificial Intelligence Engineer ✔ It & Software Engineer ✔SEO Specialist ✔Graphic Artist ✔Web Designer ✔Programmer ✔M U T ✔August 1997✔
شاید از این پست‌ها خوشتان بیاید