در حال حاضر محصولی در سبد خرید شما وجود ندارد.

پنل کاربری

رمز خود را فراموش کرده اید؟ اگر اولین بار است از سایت جدید استفاده میکنید باید پسورد خود را ریست نمایید.
دسته بندی
دسته بندی

در حال حاضر محصولی در سبد خرید شما وجود ندارد.

آموزش یادگیری ماشینی در داده های نامتوازن

آموزش یادگیری ماشینی در داده های نامتوازن

10,900 تومان
بیش از یک محصول به صورت دانلودی میخواهید؟ محصول را به سبد خرید اضافه کنید.
افزودن به سبد خرید
خرید دانلودی فوری

در این روش نیاز به افزودن محصول به سبد خرید و تکمیل اطلاعات نیست و شما پس از وارد کردن ایمیل خود و طی کردن مراحل پرداخت لینک های دریافت محصولات را در ایمیل خود دریافت خواهید کرد.

ویدئو معرفی این محصول

با مشاهده این کورس آموزشی از طریق انجام پروژه های واقعی و به زبانی بسیار ساده مطالب فراوانی را در رابطه با ماشین لرنینگ یاد می گیرید.

عنوان اصلی : Machine Learning with Imbalanced Data

سرفصل ها :


مقدمه:
معرفی
دوره تحصیلی دوره آموزشی
مطالب دوره
کد | نوت بوک Jupyter
ارائه های تحت پوشش در دوره
Python Package Unbalanced-Learn
DataSets دانلود
منابع اضافی برای یادگیری ماشین و برنامه نویسی پایتون
یادگیری ماشین با داده های نامناسب: مرور کلی:
کلاس های نامناسب - مقدمه
طبیعت کلاس نامناسب
رویکردهای کار با مجموعه داده های نامناسب - مرور کلی
منابع خواندن اضافی (اختیاری)
ارزیابی معیارهای ارزیابی:
معرفی معیارهای عملکرد
دقت
دقت - نسخه ی نمایشی
دقت، یادآوری و اندازه گیری F
نصب Yellowbrick
دقت، یادآوری و اندازه گیری F - نسخه ی نمایشی
جداول سردرگمی، FPR و FNR
جداول سردرگمی، FPR و FNR - نسخه ی نمایشی
میانگین هندسی، سلطه، شاخص دقت ناقص
میانگین هندسی، سلطه، شاخص دقت نامناسب - نسخه ی نمایشی
ROC-AUC
ROC-AUC - نسخه ی نمایشی
منحنی دقیق دقت
منحنی دقیق-یادآوری - نسخه ی نمایشی
منابع خواندن اضافی (اختیاری)
احتمال احتمال
udersampling:
روش های زیر نمونه ای - مقدمه
تصادفی زیر نمونه برداری - مقدمه
تصادفی زیر نمونه برداری - نسخه ی نمایشی
نزدیکترین همسایگان چگالی - مقدمه
نزدیکترین همسایگان چگالی - نسخه ی نمایشی
Tomek Links - Intro
TomeK لینک ها - نسخه ی نمایشی
انتخاب یک طرفه - مقدمه
انتخاب یک طرفه - نسخه ی نمایشی
نزدیکترین همسایگان ویرایش شده - مقدمه
ویرایش نزدیکترین همسایگان - نسخه ی نمایشی
تکرار نزدیکترین همسایگان ویرایش شده - مقدمه
تکرار نزدیکترین همسایگان - نسخه ی نمایشی
همه knn - intro
تمام KNN - نسخه ی نمایشی
Cleance Cleance Cleance - Intro
قانون تمیز کردن محله - نسخه ی نمایشی
Nearmiss - Intro
Nearmiss - نسخه ی نمایشی
به عنوان مثال آستانه سختی - معرفی
به عنوان مثال آستانه سختی - نسخه ی نمایشی
مقایسه روش زیرین
جدول خلاصه
oversampling:
روش های بیش از حد نمونه برداری - مقدمه
تصادفی بیش از حد نمونه برداری
بیش از حد نمونه برداری تصادفی - نسخه ی نمایشی
smote
smote - نسخه ی نمایشی
smote-nc
SMOTE-NC - نسخه ی نمایشی
adasyn
Adasyn - نسخه ی نمایشی
Borderline Smote
Borderline Smote - نسخه ی نمایشی
SVM STOTE
SVM Smote - نسخه ی نمایشی
k-smote smote
K- به معنای smote - نسخه ی نمایشی
مقایسه روش بیش از حد نمونه برداری
over and frontampling:
ترکیب بیش از حد و زیر نمونه برداری - مقدمه
ترکیب بیش از حد و زیر نمونه برداری - نسخه ی نمایشی
مقایسه روشهای بیش از حد و زیر نمونه برداری

گروه های گروه:
روش های گروهی با داده های نامناسب
مبانی یادگیری گروه
bagging
bagging plus بیش از حد یا زیر نمونه برداری
افزایش
Reosting به علاوه نمونه برداری مجدد
روش های Hybdrid
گروه های گروهی - نسخه ی نمایشی
منابع خواندن اضافی
یادگیری حساس هزینه:
یادگیری حساس به هزینه - معرفی
انواع هزینه
به دست آوردن هزینه
رویکردهای حساس هزینه
هزینه اشتباه طبقه بندی در رگرسیون لجستیک
اشتباه طبقه بندی در درخت تصمیم گیری
یادگیری حساس هزینه با Scikit-Learn-Demo
پیدا کردن هزینه بهینه با تنظیم HyperParameter
Bayes خطر شرطی
metacost
Metacost - نسخه ی نمایشی
اختیاری: کد پایه Metacost
منابع خواندن اضافی
کالیبراسیون احتمالی:
کالیبراسیون احتمالی
منحنی کالیبراسیون احتمالی
منحنی کالیبراسیون احتمالی - نسخه ی نمایشی
نمره BRIER
نمره BRIER - نسخه ی نمایشی
under- و بیش از حد نمونه برداری و یادگیری حساس به هزینه در کالیبراسیون احتمالی
کالیبراسیون طبقه بندی
کالیبراسیون طبقه بندی - نسخه ی نمایشی
کالیبراسیون یک classfiier پس از smote یا زیر نمونه برداری
کالیبراسیون یک طبقه بندی با یادگیری حساس به هزینه
احتمال: منابع خواندن اضافی
حرکت به جلو:
مراحل بعدی