<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
    <channel>
        <title>نوشته های محمدرضا زندی</title>
        <link>https://virgool.io/feed/@zandi2015</link>
        <description></description>
        <language>fa</language>
        <pubDate>2026-04-15 06:15:31</pubDate>
        <image>
            <url>https://files.virgool.io/upload/users/64223/avatar/5UFUEV.png?height=120&amp;width=120</url>
            <title>محمدرضا زندی</title>
            <link>https://virgool.io/@zandi2015</link>
        </image>

                    <item>
                <title>طبقه بندی الگوریتم های یادگیری ماشین</title>
                <link>https://virgool.io/hooshteam/%D8%B7%D8%A8%D9%82%D9%87-%D8%A8%D9%86%D8%AF%DB%8C-%D8%A7%D9%84%DA%AF%D9%88%D8%B1%DB%8C%D8%AA%D9%85-%D9%87%D8%A7%DB%8C-%DB%8C%D8%A7%D8%AF%DA%AF%DB%8C%D8%B1%DB%8C-%D9%85%D8%A7%D8%B4%DB%8C%D9%86-ahtnhm8sp85e</link>
                <description>الگوریتم های بسیاری در مباحث یادگیری ماشین وجود دارد که یادگیری و درک همه آنها فرایند زمانبری است. (شایدم غیر ممکن) در این مقاله تعدادی از الگوریتم های مطرح را همراه با معرفی دسته بندی کلی هر کدام نام میبریم و در آینده بر مرور و به ترتیب مهم ترین الگوریتم سعی در بررسی جزیی تر آنها خواهیم داشت.۱- رگرسیون (regression) Ordinary Least Squares Regression (OLSR)
Linear Regression
Logistic Regression
Stepwise Regression
Multivariate Adaptive Regression Splines (MARS) 
Locally Estimated Scatterplot Smoothing (LOESS)
Jackknife Regression ۲- یادگیری منظم (regularization) Ridge Regression
Least Absolute Shrinkage and Selection Operator (LASSO)
Elastic Net 
Least-Angle Regression (LARS)۳-مبتنی بر مثال (instance based)k-Nearest Neighbour (kNN)
Learning Vector Quantization (LVQ)
Self-Organizing Map (SOM)
Locally Weighted Learning (LWL) ۴- کاهش ابعاد (dimesionality reduction) Principal Component Analysis (PCA)
Principal Component Regression (PCR) 
Partial Least Squares Regression (PLSR) 
Sammon Mapping
Multidimensional Scaling (MDS)
Projection Pursuit
Mixture Discriminant Analysis (MDA)
Quadratic Discriminant Analysis (QDA)
Regularized Discriminant Analysis (RDA) 
Flexible Discriminant Analysis (FDA) 
Linear Discriminant Analysis (LDA) ۵- یادگیری عمیق (deep learning) Deep Boltzmann Machine (DBM)
Deep Belief Networks (DBN)
Convolutional Neural Network (CNN) 
Stacked Auto-Encoders ۶- یادگیری گروه (ensemble) Logit Boost (Boosting) 
Bootstrapped Aggregation (Bagging) 
AdaBoost 
Stacked Generalization (blending) 
Gradient Boosting Machines (GBM) 
Gradient Boosted Regression Trees (GBRT) 
Random Forest ۷- بیزین (bayesian) Naive Bayes 
Gaussian Naive Bayes 
Multinomial Naive Bayes 
Averaged One-Dependence Estimators (AODE)
Bayesian Belief Network (BBN) 
Bayesian Network (BN) 
Hidden Markov Models 
Conditional random fields (CRFs) ۸- درخت تصمیم (decision tree) Classification and Regression Tree (CART) 
Iterative Dichotomises 3 (ID3) 
C4.5 and C5.0 (different versions of a powerful approach) 
Chi-squared Automatic Interaction Detection (CHAID)
Decision Stump 
M5 
Random Forests 
Conditional Decision Trees ۹- خوشه بندی (clustering) Single-linkage clustering 
k-Means 
k-Medians 
Expectation Maximisation (EM) 
Hierarchical Clustering 
Fuzzy clustering 
DBSCAN 
OPTICS algorithm 
Non Negative Matrix Factorization 
Latent Dirichlet allocation (LDA) ۱۰- شبکه عصبی (neural networks) Self Organizing Map 
Perceptron
Back-Propagation 
Hopfield Network 
Radial Basis Function Network (RBFN)
Autoencoders 
Boltzmann machines 
Restricted Boltzmann Machines 
Spiking Neural Networks 
Learning Vector quantization (LVQ) ۱۱- مبتنی بر قوانین انجمنی (associated rule)Apriori 
Eclat 
FP-Growth
Cubist
One Rule (OneR)
Zero Rule (ZerR)
Repeated Incremental Pruning to Produce Error Reductron (RIPPER) ۱۲- سایرEvolutionary Algorithms 
Inductive Logic Programming (ILP) 
Reinforcement Learning 
(Q-Learning, Temporal Difference, State-Action-Reward-State-Action (SARSA)) 
ANOVA 
Information Fuzzy Network (IFN) 
Page Rank 
Conditional Random Fields (CRF) موارد نام برده شده صرفا به منظور رفرنس کلی الگوریتم ها قابل استفاده است که در آینده هر الگوریتم به صفحه جزییات لینک خواهد شد.</description>
                <category>محمدرضا زندی</category>
                <author>محمدرضا زندی</author>
                <pubDate>Sun, 22 Sep 2019 17:20:11 +0330</pubDate>
            </item>
                    <item>
                <title>۱۰ دقیقه برای شروع یادگیری ماشین</title>
                <link>https://virgool.io/snappmarket/%DB%B1%DB%B0-%D8%AF%D9%82%DB%8C%D9%82%D9%87-%D8%A8%D8%B1%D8%A7%DB%8C-%D8%B4%D8%B1%D9%88%D8%B9-%DB%8C%D8%A7%D8%AF%DA%AF%DB%8C%D8%B1%DB%8C-%D9%85%D8%A7%D8%B4%DB%8C%D9%86-yhbms92soslk</link>
                <description> مقدمهدر این مقاله سعی میکنیم مسیر یک پروژه یادگیری ماشین رو با هم مرور کنیم . این موارد شامل کلیه مراحل پروژه های یادگیر ماشین از ابتدا تا انتهاست. همچنین مراحلی مثل پیش پردازش و مرتب کردن داده ها، اکتشاف و مهندسی ویژگی ها و تاثیر همه ی این موارد بر عملکرد و کارایی مدل نهایی را بررسی خواهیم کرد. احتمالا برای پیاده سازی با پایتون به کتابخانه های زیر نیاز خواهیم داشت:NumpyPandasSci-kit LearnMatplotliنحوه یادگیری ماشین در یک نگاهمرور مراحل یادگیری ماشین مراحل زیر ۵ گام اصلی برای یادگیری ماشین می باشد:جمع آوری داده مورد نیازپیش پردازش داده هاپیداکردن مناسب ترین مدل (به نسبت داده اولیه)آموزش و تست مدلارزیابی نهاییدر اینجا بهتره به اصول اولیه یادگیری ماشین بپردازیم.مدل در یادگیری ماشین چیست؟در حقیقت مدل هیچ چیز خاصی جز یک قطعه کد نیست که مهندسی مثل شما آن را با آموزش، به مرور هوشمند و هوشمند تر کرده است. واضح است که اگر آموزش غلط بدهیم یا با داده غلط آموزش بدهیم نتیجه دلخواه به دست نخواهد آمد. درست مثل یک دانش آموزش دبستانی که اگر جمع یا تفریق را به درستی به او یاد ندهیم نباید منتظر پاسخ گویی صحیح او باشیم.۱- جمع آوری دادهروند جمع آوری داده بسیار به نوع پروژه ای که میخواهیم انجام دهیم وابسته است. اگر بخواهیم یک پروژه یادگیری ماشین real-time (یا به عبارت دیگر در لحظه پاسخ دهنده :) داشته باشیم باید از یک سیستم IOT یا همان اینترنت اشیا که از تعدادی سنسور برای درک محیط اطراف استفاده میکند، بهره بگیریم. و اگر نه میتوانیم از  تصاویر ، پایگاه های داده و یا هر مدل داده ورودی دیگری استفاده کنیم. اما نکته مهم این است که نمیتوانیم هر داده ای را مستقیم برای یادگیری مدل خود استفاده کنید. چرا؟ دلیل این موضوع نسبتا واضح است چون ممکن است داده ی اولیه شامل مقادیر زیادی نویز، داده های از دست رفته و مقادیر بسیار بزرگ تر از حد پیشبینی شده و ... باشد که برای این کار نیاز به آماده سازی داده داریم.ما همچنین می توانیم از برخی مجموعه داده های رایگان که در اینترنت موجود هستند استفاده کنیم. مخزن یادگیری Kaggle و UCI  مخازنی هستند که بیشترین استفاده را برای ساخت مدلهای یادگیری ماشینی دارند. Kaggle یکی از پر بازدید ترین وب سایت هایی است که برای تمرین الگوریتم های یادگیری ماشین استفاده می شود.۲- پیش پردازش داده هاپیش پردازش داده ها یکی از مهم ترین مرحله ها برای یادگیری ماشین می باشد. دلیل این اهمیت اثرگذاری بسیار زیاد این مرحله بر دقت ساخت مدل مورد نیاز است. در یادگیری ماشین قانون ۸۰-۲۰ حکم فرماست به این نحو که ما باید ۸۰ درصد زمان خود را صرف پیش پردازش  و فقط ۲۰ درصد زمان را صرف تجزیه و تحلیل داده کنیم.پیش پردازش داده چیست؟پیش پردازش داده ها مرحله ای برای مرتب کردن داده های خام است.  به عبارت دیگر ، هر زمان که داده ها از منابع مختلفی جمع آوری شوند ، به صورت خام جمع آوری می شوند و این داده ها برای تجزیه و تحلیل مناسب نیست.بنابراین ، مراحل خاصی برای تبدیل داده ها به مجموعه داده های منظم و نرمال انجام میدهیم که به مرحله پیش پردازش داده ها گفته می شود.چه مواردی را باید انجام دهیم؟همانطور که میدونیم پیش پردازش داده ها داده های خام را به داده های مرتب تبدیل میکند حالا از این داده ها باید برای آموزش مدل خود استفاده کنیم. چیزی که باید بدونیم اینه که برای رسیدن به یک مدل یادگیری ماشین یا یادگیری عمیق خوب ما حتما به پیش پردازش داده ها نیاز خواهیم داشت.اغلب داده های دنیای واقعی مرتب نیست. بعضی از موارد نامرتب بودن داده ها را با هم مرور کنیم:۱- داده های ناقص : این داده ها زمانی به وجود میایند که سیستم به طور منظم داده را ذخیره نکرده باشد و یا به واسطه برخی مشکلات تکنیکی و نرم افزاری۲- داده های نویز : این نوع داده که  outliners نیز نامیده می‌شود، می‌تواند ناشی از اشتباهات انسانی (جمع‌آوری دستی داده‌ها) یا برخی از مشکلات فنی دستگاه در زمان جمع‌آوری داده‌ها باشد.۳- داده‌های Inconsistent یا ناهمخوان : این نوع از داده‌ها ممکن است به دلیل اشتباهات انسانی (اشتباه در نامگذاری یا مقدار دهی) یا داده های تکراری ایجاد شود.سه نوع اصلی داده ها ۱- عددی (Numeric) به عنوان مثال درآمد ، سن۲- طبقه ای (Categorical) به عنوان مثال جنسیت ، ملیت۳- معمولی (Ordinal) به عنوان مثال کم متوسط زیادچگونه پیش پردازش داده را انجام دهیم؟برخی از تکنیک‌های اولیه پیش‌پردازش داده که می‌توانیم برای تبدیل داده‌های خام استفاده کنیم:۱- تبدیل داده ها: از آنجا که می دانیم که مدل های یادگیری ماشین فقط می توانند ویژگی های عددی را استفاده کنند ، بنابراین سایر داده ها باید به نوعی به ویژگی های عددی تبدیل شوند.۲- نادیده گرفتن مقادیر ناقص: هر زمان که در مجموعه داده ها با داده های ناقص مواجه می شویم ، می توانیم بسته به نیاز خود ، ردیف یا ستون داده ها را حذف کنیم. این روش کارآمد است اما اگر مقادیر زیادی داده های ناقص در مجموعه وجود داشته باشد ، نباید انجام شود.۳- پر کردن مقادیر ناقص: هر زمان که در مجموعه داده ها با داده های ناقص مواجه می شویم ، می توانیم داده های ناقص را به صورت دستی پر کنیم ، معمولاً از میانگین ، متوسط ​​یا بالاترین مقدار فرکانس استفاده می شود.۴- یادگیری ماشین: اگر برخی از اطلاعات ناقص را داشته باشیم ، می توانیم با استفاده از داده های موجود ، پیش بینی کنیم که چه داده هایی باید در جای خالی قرار بگیرند.۵- شناسایی Outliers: در برخی از داده های مقادیر از حد تصور و بازه قطعی بسیار بیشتر یا کمتر است به نحوی که خطا بود آن کاملا واضح است در این موارد میتوانیم این داده ها را در صورت داشتن راه حل اصلاح نماییم. [مثال: وزن انسان = ۸۰۰ کیلوگرم؛ به دلیل ۰ اضافه]۳- پیداکردن متناسب ترین مدل برای نوع داده هاهدف اصلی ما یافتن بهترین مدل ممکن با استفاده از داده های از پیش پردازش شده است.  یادگیری با نظارت:در یادگیری نظارت شده ، سیستم هوش مصنوعی با داده هایی مدل می شود که دارای برچسب هستند ، به این معنی که هر داده دارای برچسب صحیح است.یادگیری نظارت شده شامل دو دسته &quot;Classification&quot; و &quot;Regression&quot; می باشد.- طبقه بندی یا Classification:طبقه بندی زمانی مورد نیاز است که داده ها دارای دسته بندی مشخص باشند به نحوی که داده جدید را بتوان در دسته A یا B قرار داد. مانند &quot;قرمز&quot; یا &quot;آبی&quot; ، &quot;بیماری&quot; یا &quot;عدم بیماری&quot; یا &quot;اسپم&quot; یا &quot;عدم اسپم&quot; .طبقه بندی | GIF: www.cs.toronto.eduهمانطور که در شکل فوق نشان داده شده است ، ما 2 کلاس داریم که بر روی نمودار رسم شده اند یعنی قرمز و آبی که می توانند به عنوان &quot;گل setosa&quot; و &quot;گل versicolor&quot; نمایش داده شوند ، محور X برای عرض کاسبرگ و و محور Y برای طول کاسبرگ در نظر گرفته شده است.حالا ما سعی می کنیم بهترین خط  برای جدا کردن دو نوع گل را پیدا کنیم. بدیهی است برای دسته بندی داده های جدید این خط خط معیار ما می باشد.برخی از رایج ترین الگوریتم های دسته بندی عبارت است از : K-Nearest NeighborNaive BayesDecision Trees/Random ForestSupport Vector MachineLogistic Regression- رگرسیون : مدل سازی بر پایه رگرسیون زمانی استفاده میشود که متغیر ها پیوسته باشند:رگرسیون | GIF: techburst.ioهمانطور که در شکل فوق نشان داده شده است ،  محور X نمودار &quot;نمرات آزمون&quot; است و محور Y نشان دهنده &quot;IQ&quot; است. بنابراین ما سعی می کنیم در نمودار مورد نظر بهترین خط را ایجاد کنیم تا بتوانیم از آن خط برای پیش بینی نمره تقریبی هر ضریب هوشی که در داده ها وجود ندارد استفاده کنیم.برخی از رایج ترین الگوریتم های رگرسیون عبارت است از : Linear RegressionSupport Vector RegressionDecision Tress/Random ForestGaussian Progresses RegressionEnsemble Methodsیادگیری بدون نظارت:در یادگیری بدون نظارت یک سیستم هوش مصنوعی باید با داده بدون برچسب و طبقه بندی نشده مدل شود و الگوریتم ها بدون آموزش قبلی روی داده ها عمل می کنند. یادگیری بدون نظارت شده شامل دو دسته &quot;Clustering&quot; و &quot;Association&quot; می باشد.خوشه بندی یا Clusteringدر این روش داده ها به گروه هایی تقسیم می شوند. برخلاف طبقه بندی ، گروه ها از قبل مشخص نیستند ، و این کار معمولاً یک کار غیرقابل نظارت است.برخی از رایج ترین الگوریتم های خوشه بندی عبارت است از : Gaussian mixturesK-Means ClusteringBoostingHierarchical ClusteringK-Means ClusteringSpectral Clusteringنمایی از مدل های گفته شده۴- آموزش و تست مدلبرای آموزش یک مدل ، ابتدا داده ها را به ۳ بخش تقسیم می کنیم که عبارتند از &quot;داده های آموزشی&quot; ، &quot;داده های اعتبارسنجی&quot; و &quot;داده های آزمایش یا تست&quot;.ما مدل سازی را با استفاده از &quot;مجموعه داده های آموزشی&quot; آموزش می دهیم ، پارامترها را با استفاده از &quot;مجموعه اعتبارسنجی&quot; تنظیم می کنید و سپس عملکرد مدل خود را بر روی &quot;مجموعه داده های آزمون&quot; آزمایش می کنید. نکته مهمی که باید به آن توجه داشته باشید این است که در حین آموزش طبقه بندی کننده فقط مجموعه آموزش و یا اعتبار سنجی در دسترس است. از مجموعه داده های آزمون نباید هنگام آموزش طبقه بندی استفاده شود. مجموعه تست فقط هنگام تست طبقه بندی در دسترس خواهد بود.مجموعه آموزشی: مجموعه داده ای که برای یادگیری مدل مورد نیازاعتبار سنجی: مجموعه داده ای دیده نشده برای اعتبار سنجی و تنظیم بهتر پارامترهای مدل.مجموعه تست: مجموعه‌ای از داده‌های دیده نشده برای ارزیابی عملکرد نهایی مدلپس از تقسیم داده ها به 3 بخش می توانیم فرایند آموزش را شروع کنیم.معمولا پس از حذف دیتای تست از دیتای آموزش  چندین مرحله برای ساخت مدل استفاده میکنیم. به این نحو که در هر مرحله دیتای باقی مانده را به دوقسمت آموزش و اعتبار سنجی تفکیک میکنیم و کار آمورش را در اندازه کوچک تر انجام میدهیم. تا مدل نهایی ساخته شود. پس از آموزش مدل می توانیم از همان مدل آموزش دیده استفاده کنیم تا با استفاده از داده های تست یعنی داده های دیده نشده پیش بینی نهایی انجام شود. هنگامی که این کار انجام شد می توانیم یک ماتریس پراکندگی ایجاد کنیم ، این به ما می گوید که مدل ما چقدر خوب آموزش داده شده است. یک ماتریس پراکندگی دارای 4 پارامتر است که عبارتند از &quot;مثبت صحیح&quot; ، &quot;منفی صحیح&quot; ، &quot;مثبت غلط&quot; و &quot;منفی غلط&quot;. ما ترجیح می دهیم که منفی و مثبت های صحیح بیشتری را کسب کنیم تا یک الگوی دقیق تر دریافت کنیم.مثبت های صحیح:  مواردی است که ما  آن را TRUE پیش بینی کردیم و  پیش بینی ما صحیح است.منفی های صحیح: ما FALSE  پیش بینی کردیم و  پیش بینی ما صحیح است.مثبت های غلط: ما TRUE پیش بینی کردیم ، اما خروجی واقعی FALSE است.منفی های غلط: ما FALSE را پیش بینی کردیم ، اما خروجی واقعی  TRUE است.در نهایت ما می توان با استفاده از ماتریس پراکندگی دقت مدل را خود را بفهمیم.Accuracy = (True Positives +True Negatives) / (Total number of classes)برای مثال بالا:Accuracy = (100 + 50) / 165 = 0.9090 (90.9% accuracy)۵- ارزیابیارزیابی مدل بخشی جدایی‌ناپذیر از فرآیند توسعه مدل است.که به پیدا کردن بهترین مدل کمک می‌کند و نحوه کارکرد آینده مدل را مشخص خواهد کرد.برای بهبود مدل ممکن است پارامترهای بالا  را  بار ها و بار ها تغییر دهیم و سعی در بهبود دقت مدل داشته باشیم و همچنین  با محاسبه به ماتریس پراکندگی  تعداد مثبت‌های صحیح و منفی‌های صحیح را افزایش دهیم.۶- نتیجه گیریدر این مقاله فقط دورنمایی از نحوه یک پروژه یادگیری ماشین را با هم مرور کردیم که در هر قسمت نیاز به عمق و یادگیری بیشتری داریم. به طور مثال هر کدام از الگوریتم هایی که در این مقاله نام بردیم نیاز به بررسی جزییات ، نحوه عمکرد و ... دارد که در آینده بررسی خواهیم کرد. اکثر مطالب این مقاله از این لینک برداشت شد به جز مواردی که نیاز به کمی توضیح بیشتر و یا حتی ساده تر بیان کردن موضوعات داشت که در این موارد تغییرات اندکی داشتیم. در ضمن پروژه سمپلی با موارد یاد شده در این مقاله در این لینک گیت هاب قرارداده شده که قابل دسترس شما میباشد.</description>
                <category>محمدرضا زندی</category>
                <author>محمدرضا زندی</author>
                <pubDate>Sun, 11 Aug 2019 15:30:32 +0430</pubDate>
            </item>
            </channel>
</rss>