ترجمه:
اعتبار سنجی متقابل در یادگیری ماشینی
در مدل یادگیری ماشین تعمیم اهمیت بسیار بالایی دارد. یعنی ما میخواهیم بدانیم مدل آموزش دیده ما چقدر آماده است تا در دنیای واقعی استفاده شود و در صنعت استفاده کنیم پس نیاز است قبل از نسخه نهایی بازار بدانیم با چه دقت واقعی مدل ما کار میکند. برای انسان تعمیم طبیعی ترین حالت ممکن است. به عنوان مثال، ما قطعاً یک سگ را می شناسیم حتی اگر قبلاً این نژاد را ندیده باشیم. با این وجود، ممکن است برای یک مدل ML کاملاً یک چالش باشد. به همین دلیل است که بررسی توانایی الگوریتم برای تعمیم یک کار مهم است که در ساخت مدل نیاز به توجه زیادی دارد.
برای ارزیابی مدل از روش اعتبار سنجی متقابل استفاد میکنیم :
در ادامه به بررسی موارد زیر می پردازیم:
1. تعاریف اولیه، اهداف استفاده وتکنیک ها
2. روش های hold-out, k-folds, Leave-one-out, Leave-p-out, Stratified k-folds, Repeated k-folds, Nested k-folds, Complete CV
3. نحوه استفاده از این تکنیک ها
4. اعتبار سنجی متقابل در یادگیری عمیق: Keras، PyTorch، MxNet
5. بهترین شیوه ها و نکات: سری های زمانی، داده های پزشکی و مالی، تصاویر
Cross-Validation چیست؟
اعتبار سنجی متقابل تکنیکی برای ارزیابی یک مدل یادگیری ماشین و آزمایش عملکرد آن است. CV[1] معمولاً در کارهای کاربردی یادگیری ماشین استفاده می شود. این روش به مقایسه و انتخاب یک مدل مناسب برای مسئله مدلسازی پیشبینیکننده خاص کمک میکند.درک و پیاده سازی این روش آسان است و نسبت به سایر روشهای مورد استفاده برای شمارش امتیازهای کارایی مدل، خطای کمتری دارد. همه اینها اعتبارسنجی متقابل را به ابزاری قدرتمند برای انتخاب بهترین مدل برای هدف خاص تبدیل می کند. تکنیک های مختلفی وجود دارد که ممکن است برای اعتبارسنجی متقابل یک مدل استفاده شود. با این حال، همه آنها یک الگوریتم مشابه دارند:
1. مجموعه داده را به دو بخش تقسیم کنید: یکی برای آموزش، دیگری برای تست
2. مدل را روی داده آموزشی آموزش دهید
3. دقت مدل را در مجموعه داده تست بررسی کنید
4. مرحله 1-3 را چند بار تکرار کنید. این عدد به روشی که استفاده می کنید بستگی دارد.
همانطور که می دانید، تکنیک های CV زیادی وجود دارد. برخی از آنها معمولا استفاده می شوند، برخی دیگر فقط در تئوری کار می کنند. بیایید روشهای اعتبارسنجی متقابل را که در این مقاله پوشش داده خواهد شد، ببینیم...
روش hold -out: این روش ساده ترین و رایج ترین تکنیک است.
الگوریتم تکنیک Hold-out:
مجموعه داده را به دو بخش تقسیم کنید: مجموعه آموزشی و مجموعه تست. معمولاً 80 درصد مجموعه داده به مجموعه آموزشی و 20 درصد به مجموعه آزمایشی میرود، اما میتوانید هر تقسیمبندی را انتخاب کنید که مناسبتر باشد.
· مدل را روی مجموعه آموزشی آموزش دهید
· در مجموعه آزمایشی اعتبار سنجی کنید
· نتیجه اعتبارسنجی را ذخیره کنید
ما معمولاً از این روش در مجموعه دادههای بزرگ استفاده میکنیم، زیرا فقط یک بار نیاز به آموزش مدل دارد. اجرای آن واقعاً آسان است. برای مثال، میتوانید این کار را با استفاده از sklearn.model_selection.train_test_split انجام دهید.
import numpy asnp
fromsklearn.model_selection import train_test_split
X, y = np.arange(10).reshape((5, 2)), range(5)
X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2,random_state=111)
با این حال،این روش یک نقطه ضعف بزرگ دارد به عنوان مثال، مجموعه داده ای که از نظر توزیع کاملاً یکنواخت نیست، ممکن است پس از تقسیم در یک نقطه ناهموار قرار بگیریم. به عنوان مثال، مجموعه آموزشی مجموعه تست را نشان نخواهد داد. هر دو مجموعه آموزش و تست ممکن است بسیار متفاوت باشند، یکی از آنها ممکن است آسان تر یا سخت تر باشد.علاوه بر این، این واقعیت که ما مدل خود را فقط یک بار آزمایش می کنیم ممکن است یک گلوگاه برای این روش باشد. با توجه به دلایل ذکر شده در شاید نتایج درست و یا دقیق نباشد.
K-Fold CV تکنیکی است که معایب روش بالا را به حداقل می رساند. k-Fold روش جدیدی برای تقسیم مجموعه داده معرفی می کند که به غلبه بر " فقط یک بار تست" کمک می کند.
الگوریتم تکنیک k-Fold:
تعدادی بخش را انتخاب کنید - k. معمولاً 5 یا 10 است، میتوانید هر عددی را انتخاب کنید که کمتر از طول مجموعه داده باشد.
مجموعه داده را به k قسمت مساوی (در صورت امکان) تقسیم کنید (به آنها folds گفته می شود)
k – 1 folds را انتخاب کنید که مجموعه آموزشی خواهد بود. باقیمانده داده،مجموعه تست خواهد بود.مدل را روی مجموعه آموزشی آموزش دهید. در هر تکرار از اعتبارسنجی متقابل، باید یک مدل جدید مستقل از مدل آموزش داده شده در تکرار قبلی آموزش دهید.در مجموعه آزمایشی اعتبار سنجی کنید. نتیجه اعتبارسنجی را ذخیره کنید
مراحل را 3 تا 6 هزار بار تکرار کنید. هر بار از دیتا باقی مانده به عنوان مجموعه تست استفاده کنید. در پایان، شما باید مدل را روی هر فولد که دارید اعتبارسنجی کرده باشید.برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 6 به دست آوردید.
برای انجام اعتبارسنجی متقاطع k-Fold می توانید از sklearn.model_selection.KFold استفاده کنید.
import numpy asnp
fromsklearn.model_selection import KFold
X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])
y = np.array([1, 2, 3, 4])
kf = KFold(n_splits=2)
fortrain_index, test_index in kf.split(X):
print("TRAIN:", train_index, "TEST:", test_index)
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
به طور کلی همیشه بهتر است به جای Hold-out از تکنیک k-Fold استفاده کنید. از آنجایی که آموزش و آزمایش بر روی چندین بخش مختلف مجموعه داده انجام می شود، مقایسه k-Fold نتیجه پایدارتر و قابل اعتمادتری به دست می دهد. اگر تعداد تاها را افزایش دهیم تا مدل را روی بسیاری از زیر مجموعههای مختلف آزمایش کنیم، میتوانیم امتیاز کلی را قویتر کنیم. با این حال، روش k-Fold یک نقطه ضعف دارد. افزایش k منجر به آموزش مدل های بیشتر می شود و فرآیند آموزش ممکن است واقعاً گران و زمان بر باشد.
روش leave one out :
اعتبار سنجی متقابل (LOOCV) یک مورد شدید از K-Fold CVاست. تصور کنید که k برابر با n باشد که n تعداد نمونه های مجموعه داده است. چنین مورد k-Fold معادل تکنیک Leave-one-out است.
یک نمونه از مجموعه داده را انتخاب کنید که مجموعه آزمایشی خواهد بود
n – 1نمونه باقیمانده مجموعه آموزشی خواهد بود. مدل را روی مجموعه آموزشی آموزش دهید. در هر تکرار، یک مدل جدید باید آموزش داده شود. در مجموعه آزمایشی اعتبار سنجی کنید. نتیجه اعتبارسنجی را ذخیره کنید. مراحل 1 تا 5 را n بار تکرار کنید، همانطور که برای n نمونه، n مجموعه آموزشی و تست متفاوت داریم.
برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 5 به دست آوردید.
import numpy as np
fromsklearn.model_selection import LeaveOneOut
X = np.array([[1, 2], [3, 4]])
y = np.array([1, 2])
loo = LeaveOneOut()
fortrain_index, test_index in loo.split(X):
print("TRAIN:", train_index, "TEST:", test_index)
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
بزرگترین مزیت این روش( Leave-one-out) این است که داده های زیادی را هدر نمی دهد. ما فقط از یک نمونه از کل مجموعه داده به عنوان یک مجموعه آزمایشی استفاده می کنیم، در حالی که بقیه مجموعه آموزشی است. اما وقتی با k-Fold CVمقایسه میشود، LOOCV نیاز به ساخت nمدل به جای kمدل دارد، میدانیم که n که مخفف تعداد نمونههای مجموعه داده است و بسیار بیشتر از k است. این بدان معناست که LOOCV از نظر محاسباتی گرانتر از k-Fold است، ممکن است زمان زیادی طول بکشد تا اعتبار متقابل مدل با استفاده از LOOCV بدست آید. بنابراین، جامعه علوم داده یک قاعده کلی بر اساس شواهد تجربی و تحقیقات مختلف دارد که نشان میدهد اعتبارسنجی متقابل 5 یا 10 برابر باید بر LOOCV ترجیح داده شود.
روش leave p out :
این روش شبیه Leave-one-out است. شبیه Leave-one-out CV است زیرا تمام مجموعه های آموزشی و تست ممکن را با استفاده از نمونه های p به عنوان مجموعه تست ایجاد می کند. تمام موارد ذکر شده در مورد LOOCV و برای LpOC درست است.با این حال، شایان ذکر است که بر خلاف LOOCV و مجموعههای تست k-Fold برای LpOC اگر p بالاتر از 1 باشد، همپوشانی دارند.
الگوریتم تکنیک LpOC:
1. نمونه های p را از مجموعه داده انتخاب کنید که مجموعه تست خواهد بود
2. n - p نمونه باقیمانده مجموعه آموزشی خواهد بود
3. مدل را روی مجموعه آموزشی آموزش دهید. در هر تکرار، یک مدل جدید باید آموزش داده شود
4. در مجموعه آزمایشی اعتبار سنجی کنید.نتیجه اعتبارسنجی را ذخیره کنید.
5. مراحل 2 تا 5 Cpn را تکرار کنید
برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 5 به دست آوردید
میتوانید Leave-p-out CV را با استفاده از sklearn – sklearn.model_selection.LeavePOut انجام دهید.
import numpy asnp
fromsklearn.model_selection import LeavePOut
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([1, 2, 3, 4])
lpo = LeavePOut(2)
fortrain_index, test_index in lpo.split(X):
print("TRAIN:", train_index, "TEST:", test_index)
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
LpOC تمام معایب LOOCV را دارد، اما، با این وجود، به اندازه LOOCV قوی است.
طبقه بندی k-fold:
گاهی اوقات ممکن است با عدم تعادل زیادی در مقدار هدف در مجموعه داده مواجه شویم. به عنوان مثال، در مجموعه دادههای مربوط به قیمت ساعتهای مچی، ممکن است تعداد بیشتری از ساعتهای مچی قیمت بالایی داشته باشند. در مورد طبقهبندی، در مجموعه دادههای گربهها و سگها ممکن است تغییر زیادی به سمت طبقه سگ وجود داشته باشد. K-Fold طبقه بندی شده نوعی از تکنیک استاندارد K-Fold CV است که به گونه ای طراحی شده است که در چنین مواردی از عدم تعادل هدف موثر باشد و به صورت زیر عمل می کند:
K-Fold طبقه بندی شده مجموعه داده را بر روی k تاها تقسیم می کند به طوری که هر فولد تقریباً دارای درصد مشابهی از نمونه های هر کلاس هدف به عنوان مجموعه کامل است. در مورد رگرسیون، Stratified k-Fold اطمینان حاصل می کند که میانگین مقدار هدف تقریباً در همه چین ها برابر است.
الگوریتم تکنیک طبقه بندی k-fold:
1. تعدادی k را انتخاب کنید
2. مجموعه داده را به k برابر تقسیم کنید.
3. هر فولد باید تقریباً دارای درصد مشابهی از نمونههای هر کلاس هدف در مجموعه کامل باشد
4. k – 1 folds را انتخاب کنید که مجموعه آموزشی خواهد بود. باقیمانده مجموعه آزمایشی خواهد بود
5. مدل را روی مجموعه آموزشی آموزش دهید. در هر تکرار یک مدل جدید باید آموزش داده شود
6. در مجموعه آزمایشی اعتبار سنجی کنید
7. نتیجه اعتبارسنجی را ذخیره کنید
8. مراحل را 3 تا 6 هزار بار تکرار کنید. هر بار از باقی مانده دیتا را به عنوان مجموعه تست استفاده کنید. در پایان، شما باید مدل را روی هر فولد که دارید اعتبارسنجی کرده باشید.
برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 6 به دست آوردید.
همانطور که ممکن است متوجه شده باشید، الگوریتم تکنیک Stratified k-Fold مشابه K-Folds استاندارد است. شما نیازی به کدنویسی اضافی ندارید زیرا این روش همه کارهای لازم را برای شما انجام می دهد.
import numpy asnp
fromsklearn.model_selection import StratifiedKFold
X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])
y = np.array([0, 0, 1, 1])
skf = StratifiedKFold(n_splits=2)
fortrain_index, test_index in skf.split(X, y):
print("TRAIN:", train_index, "TEST:", test_index)
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
تمام موارد ذکر شده در بالا در مورد K-Fold CV برای تکنیک Stratified k-Fold صادق است. هنگام انتخاب بین روش های مختلف CV، مطمئن شوید که از روش مناسب استفاده می کنید. به عنوان مثال، ممکن است فکر کنید که مدل شما عملکرد بدی دارد، فقط به این دلیل که از K-Fold CV برای اعتبارسنجی مدلی استفاده میکنید که روی مجموعه داده با عدم تعادل کلاس آموزش داده شده است. برای جلوگیری از آن، همیشه باید یک تجزیه و تحلیل داده های اکتشافی مناسب روی داده های خود انجام دهید.
Repeated k-Fold
اعتبارسنجی متقابل k-Fold مکرر یا CV نمونهبرداریهای تصادفی مکرر احتمالاً قویترین تکنیکهای CV در این مقاله است. این یک تغییر از k-Fold است اما در مورد Repeated K-Folds ،k تعداد فولد ها نیست. تعداد دفعاتی است که ما مدل را آموزش خواهیم داد.ایده کلی این است که در هر تکرار، نمونههایی را بهطور تصادفی از سرتاسر مجموعه داده به عنوان مجموعه آزمایشی انتخاب میکنیم. به عنوان مثال، اگر تصمیم بگیریم که 20٪ از مجموعه داده ها مجموعه آزمایشی ما باشد، 20٪ نمونه به طور تصادفی انتخاب می شوند و 80٪ بقیه به مجموعه آموزشی تبدیل می شوند.
الگوریتم تکنیک Repeated k-Fold:
1. k را انتخاب کنید - چند بار مدل آموزش داده می شود
2. تعدادی نمونه را انتخاب کنید که مجموعه آزمایشی خواهد بود
3. مجموعه داده را تقسیم کنید
4. روی مجموعه آموزشی تمرین کنید.هر تکرار برابر یک مدل است
5. در مجموعه تست اعتبار سنجی کنید
6. نتیجه اعتبارسنجی را ذخیره کنید
7. مراحل را 3-6 k بار تکرار کنید
برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 6 به دست آوردید.
K-Foldمکرر مزایای واضحی نسبت به استاندارد k-Fold CV دارد. اولا، نسبت تقسیم داده آموزش/آزمایش به تعداد تکرارها بستگی ندارد. ثانیا، ما حتی می توانیم نسبت های منحصر به فردی را برای هر تکرار تنظیم کنیم. ثالثاً، انتخاب تصادفی نمونهها از مجموعه دادهها، Repeated k-Fold را برای سوگیری انتخاب قویتر میکند.
با این حال، برخی از معایب وجود دارد. k-Fold CV تضمین میکند که مدل روی همه نمونهها آزمایش میشود، در حالی که K-Fold تکراری بر اساس تصادفیسازی است که به این معنی است که برخی از نمونهها ممکن است هرگز برای قرار گرفتن در مجموعه آزمایش انتخاب نشوند. در همان زمان، برخی از نمونه ها ممکن است چندین بار انتخاب شوند.
Sklearn به شما در پیاده سازی Repeated k-Fold CV کمک می کند. فقط از sklearn.model_selection.RepeatedKFold استفاده کنید. در اجرای sklearn این تکنیک باید تعداد فولدهایی که می خواهید داشته باشید (n_splits) و تعداد دفعاتی که تقسیم انجام می شود (n_repeats) را تنظیم کنید.
import numpy asnp
fromsklearn.model_selection import RepeatedKFold
X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])
y = np.array([0, 0, 1, 1])
rkf = RepeatedKFold(n_splits=2, n_repeats=2, random_state=42)
fortrain_index, test_index in rkf.split(X):
print("TRAIN:", train_index, "TEST:", test_index)
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
K-Fold تو در تو
سایر تکنیکهای CV که برای ارزیابی کیفیت یک الگوریتم طراحی شده، Nested k-Fold CV محبوبترین راه برای تنظیم یک الگوریتم است.
الگوریتم تکنیک Nested k-Fold:
1. k را انتخاب کنید - به عنوان مثال، 10 - این عدد را انتخاب کرده ایم
2. یک مرکز را انتخاب کنید. فرض کنید الگوریتم ما رگرسیون لجستیک است و p خطیمه p = {'l1', 'l2', 'elasticnet', 'none'} است.
3. مجموعه داده را به 10 تا تقسیم کنید و یکی از آنها را برای آزمایش کنید
4. یکی از بخش آموزشی را برای اعتبارسنجی رزرو کنید
5. برای هر مقدار p روی 8 فولد آموزشی باقیمانده آموزش دهید و روی فولد اعتبارسنجی ارزیابی کنید. اکنون 4 اندازه گیری مراحل 4-5 را 9 بار تکرار کنید. بچرخانید که کدام فولد آموزشی، فولد اعتبارسنجی است. اکنون اندازه گیری 9 * 4 دارید
6. p را انتخاب کنید که خطای تمرین را از 9 برابر به کمترین مقدار انجام دهید. از آن p برای ارزیابی روی مجموعه تست استفاده کنید
7. از مرحله 2، 10 بار تکرار کنید و از هر تا به نوبت به عنوان تای استفاده کنید
8. اندازه و انحراف اندازه گیری ارزیابی را در 10 برابر تست ذخیره کنید
9. الگوریتمی که بهترین عملکرد را داشت، الگوریتمی بود که بهترین عملکرد خارج از نمونه را در 10 لایه آزمایشی داشت.
این تکنیک از نظر محاسباتی گران است زیرا در طول مراحل 1 تا 10 تعداد زیادی مدل باید آموزش و ارزیابی شوند. با این حال، Nested k-Fold CV معمولاً استفاده می شود.متأسف، هیچ روش داخلی در klearn وجود ندارد که دارای CV Nested kFold را برای شما انجام دهد. این لحظه است که شما باید یا گوگل کنید و پیاده سازی شخصی را پیدا کنید یا خودتان آن را کدنویسی کنید.
Complete Cross-Validation
این روش کم استفاده ترین تکنیک CV است. ایده کلی این است که ما یک عدد k - طول مجموعه آموزشی را انتخاب می کنیم و روی هر تقسیم ممکن شامل k نمونه در مجموعه آموزشی اعتبار سنجی می کنیم.مقدار آن تقسیمها را میتوان به صورت Сnkمحاسبه کرد که nطول مجموعه داده است. اگر k بالاتر از 2 باشد، باید مدل خود را چندین بار آموزش دهیم که همانطور که قبلاً متوجه شدیم زمان فرآیند گران قیمت و از نظر محاسباتی است.به همین دلیل در تحقیقات نظری استفاده می شود و یا در صورت وجود فرمول مؤثری که به حداقل رساندن محاسبات کمک می کند.
الگوریتم :
1. یک عدد k را انتخاب کنید - طول مجموعه آموزشی
2. مجموعه داده را تقسیم کنید
3. روی مجموعه آموزشی تمرین کنید
4. در مجموعه آزمایشی اعتبار سنجی کنید
5. نتیجه اعتبارسنجی را ذخیره کنید
6. مراحل 2 تا 5 را Сnk تکرار کنید
7. برای به دست آوردن امتیاز نهایی، میانگین نتایجی که در مرحله 5 به دست آوردید
اعتبار سنجی متقابل در یادگیری ماشینی:
بیشتر تکنیک های اعتبار سنجی متقابل ذکر شده در بالا به طور گسترده در ML استفاده می شود. مهم است که به خاطر داشته باشید که استفاده از تکنیک CV مناسب ممکن است در زمان شما صرفه جویی کند و به انتخاب بهترین مدل برای کار کمک کند.این بدان معناست که اولاً، بهتر است همیشه مدل را تأیید متقابل کنید و ثانیاً باید یک روش CV مربوطه را انتخاب کنید. بنابراین، دانستن مزایا و معایب تکنیکهای اعتبارسنجی متقابل حیاتی است. شایان ذکر است که اگر میخواهید مدل را اعتبار متقابل کنید، همیشه باید ساختار مدل را بررسی کنید زیرا برخی از الگوریتمهای ML، به عنوان مثال، CatBoost روشهای CV داخلی خود را دارند. به طور کلی، همانطور که ممکن است متوجه شده باشید، بسیاری از تکنیکهای CV دارای روشهای داخلی sklearn هستند. من به شدت توصیه می کنم از آنها استفاده کنید زیرا این روش ها در زمان زیادی برای کارهای پیچیده تر صرفه جویی می کنند.
اعتبار متقابل در یادگیری عمیق: اعتبار سنجی متقابل در یادگیری عمیق (DL) ممکن است کمی مشکل باشد زیرا اکثر تکنیک های CV حداقل چند بار نیاز به آموزش مدل دارند.در یادگیری عمیق، معمولاً به دلیل هزینههای مرتبط با آموزش مدلهای مختلف، از CV اجتناب میکنید. به جای انجام k-Fold یا سایر تکنیک های CV، ممکن است از یک زیرمجموعه تصادفی از داده های آموزشی خود به عنوان نگهدارنده برای اهداف اعتبار سنجی استفاده کنید.به عنوان مثال، کتابخانه یادگیری عمیق Keras به شما امکان می دهد یکی از دو پارامتر را برای تابع fit که آموزش را انجام می دهد، ارسال کنید.
validation_split: درصدی از داده هایی که باید برای اعتبار سنجی نگهداری شوند
validation_data: چند عدد از (X, y) که باید برای اعتبارسنجی استفاده شود. این پارامتر پارامتر validation_split را نادیده می گیرد، به این معنی که شما می توانید تنها یکی از این پارامترها را در یک زمان استفاده کنید.همین رویکرد در آموزش های رسمی سایر فریمورک های DL مانند PyTorch و MxNet استفاده می شود. آنها همچنین پیشنهاد می کنند مجموعه داده را به سه بخش تقسیم کنید: آموزش، اعتبار سنجی و آزمایش .
آموزش – بخشی از مجموعه داده برای آموزش
اعتبار سنجی - بخشی از مجموعه داده برای اعتبارسنجی در حین آموزش
تست - بخشی از مجموعه داده برای اعتبار سنجی نهایی مدل
با این حال، اگر مجموعه داده کوچک است (شامل صدها نمونه) می توانید از اعتبارسنجی متقابل در وظایف DL استفاده کنید. در این مورد، یادگیری یک مدل پیچیده ممکن است یک کار بی ربط باشد، بنابراین مطمئن شوید که کار را بیشتر پیچیده نکنید.
بهترین روش ها و نکات
شایان ذکر است که گاهی اوقات انجام اعتبارسنجی متقابل ممکن است کمی مشکل باشد. به عنوان مثال، اشتباه منطقی هنگام تقسیم مجموعه داده بسیار آسان است که ممکن است منجر به یک CV غیرقابل اعتماد شود.ممکن است نکاتی را بیابید که باید هنگام تایید متقابل یک مدل در زیر مد نظر داشته باشید:
هنگام تقسیم داده ها منطقی باشید (آیا روش تقسیم منطقی است)
از روش CV مناسب استفاده کنید (آیا این روش برای مورد استفاده من قابل اجرا است)
هنگام کار با سری های زمانی، گذشته را تأیید نکنید (به اولین نکته مراجعه کنید)
هنگام کار با داده های پزشکی یا مالی، به یاد داشته باشید که آن را بر اساس شخص تقسیم کنید. از داشتن داده برای یک نفر هم در آموزش و هم در مجموعه تست خودداری کنید زیرا ممکن است به عنوان نشت داده در نظر گرفته شود.
هنگام برش تکهها از تصاویر بزرگتر، به یاد داشته باشید که با شناسه تصویر بزرگ تقسیم کنید.
البته، نکات از کار به کار متفاوت است و پوشش همه آنها تقریبا غیرممکن است. به همین دلیل است که انجام یک تجزیه و تحلیل داده های اکتشافی قبل از شروع اعتبارسنجی متقابل یک مدل همیشه بهترین روش است.
افکار نهایی
اعتبار سنجی متقابل ابزار قدرتمندی است. هر دانشمند داده باید با آن آشنا باشد. در زندگی واقعی، شما نمی توانید پروژه را بدون تایید متقابل یک مدل به پایان برسانید.به نظر من بهترین تکنیک های CV Nested k-Fold و استاندارد k-Fold هستند. من شخصاً از آنها در وظیفه تشخیص تقلب استفاده کردم. K-Fold تودرتو و همچنین GridSeachCV به من کمک کرد تا پارامترهای مدل خود را تنظیم کنم. از طرف دیگر، k-Fold برای ارزیابی عملکرد مدل من استفاده شد.در این مقاله، ما متوجه شدیم که اعتبارسنجی متقابل چیست، چه تکنیکهای CV در طبیعت وجود دارد و چگونه آنها را پیادهسازی کنیم. در آینده الگوریتم های ML قطعاً حتی بهتر از امروز عمل خواهند کرد. با این حال، اعتبار سنجی متقابل همیشه برای پشتیبان گیری از نتایج شما مورد نیاز است.
امیدواریم با این اطلاعات، مشکلی در تنظیم CV برای پروژه بعدی یادگیری ماشینی خود نخواهید داشت!
منبع :
https://neptune.ai/blog/cross-validation-in-machine-learning-how-to-do-it-right
Cross validation[1]