در حال حاضر محصولی در سبد خرید شما وجود ندارد.
با مشاهده این کورس آموزشی از طریق انجام پروژه های واقعی و به زبانی بسیار ساده مطالب فراوانی را در رابطه با دیتا ساینس یاد می گیرید.
عنوان اصلی : Data Science Foundations: Data Assessment for Predictive Modeling
معرفی:
چرا ارزیابی داده ها حیاتی است
نکته ای در مورد فایل های تمرین
1. ارزیابی داده چیست؟
توضیح اینکه چگونه درک داده ها با تجسم داده ها متفاوت است
معرفی مرحله درک داده های حیاتی CRISP-DM
ارزیابی داده ها در جایگزین های CRISP-DM: IBM ASUM-DM و Microsoft TDSP
انتقال از درک تجاری به درک داده ها
چگونه کار خود را با چهار وظیفه درک داده سازماندهی کنید
2. جمع آوری داده های اولیه:
ملاحظات در جمع آوری داده های مربوطه
استراتژی برای پردازش منابع داده
خلاقیت در مورد منابع داده
چگونه یک فایل مسطح مناسب را تصور کنیم
پیش بینی یکپارچه سازی داده ها
3. ابتدا به داده ها نگاه کنید:
بررسی مفاهیم اساسی در سطح اندازه گیری
کدنویسی ساختگی چیست؟
گسترش تعریف ما از سطح اندازه گیری
نگاهی اولیه به متغیرهای کلیدی احتمالی
برخورد با شناسه های تکراری و داده های تراکنش
چند متغیر بالقوه (ستون) خواهم داشت؟
نحوه برخورد با چند اسمی مرتبه بالا
چالش: شناسایی سطح اندازه گیری
راه حل: شناسایی سطح اندازه گیری
4. بارگذاری داده ها و واحد تجزیه و تحلیل:
معرفی پلتفرم KNIME Analytics
نکات و ترفندهایی که باید در حین بارگذاری داده ها در نظر بگیرید
تصمیمات تحلیل واحد
چالش: ردیف باید چه باشد؟
راه حل: ردیف باید چه باشد؟
5. داده ها را شرح دهید:
چگونه می توان ویژگی های ناخالص داده ها را کشف کرد
تحقیق در مورد مجموعه داده
نکات و ترفندهایی با استفاده از دستورات جمع آوری ساده
یک استراتژی ساده برای سازماندهی کار شما
6. توصیف داده ها مطالعات موردی:
نسخه نمایشی داده را با استفاده از مجموعه داده قلب UCI توصیف کنید
چالش: توصیف داده ها با مجموعه داده قلب UCI را تمرین کنید
راه حل: تمرین داده ها را با مجموعه داده قلب UCI توصیف کنید
7. مبانی داده را کاوش کنید:
وظیفه کاوش داده ها
چگونه در انجام تحلیل تک متغیره و تجسم داده ها موثر باشیم
کوارتت آنسکومب
ویژگی گره Data Explorer در KNIME
نحوه پیمایش موارد مرزی از نوع متغیر
چگونه در انجام تجسم داده های دو متغیره موثر باشیم
چالش: تولید تجسم های دو متغیره برای مطالعه موردی 1
راه حل: تولید تجسم های دو متغیره برای مطالعه موردی 1
8. نکات و ترفندهای داده را کاوش کنید:
چگونه از زمان SME به طور موثر استفاده کنیم
تکنیک هایی برای کار با پیش بینی کننده های برتر
توصیه هایی برای پیش بینی کننده های ضعیف
نکات و ترفندها هنگام جستجوی موارد عجیب و غریب در داده های خود
یادگیری زمان حذف ردیف ها
معرفی ggplot2
جهت گیری به ggplot2 R برای تجسم داده های چند متغیره قدرتمند
چالش: تولید تجسم های چند متغیره برای مطالعه موردی 1
راه حل: تولید تجسم های چند متغیره برای مطالعه موردی 1
9. بررسی کیفیت داده ها:
کاوش گزینه های داده از دست رفته شما
چرا ردیفها را برای حذف فهرستی از دست میدهید
بررسی منشأ داده های از دست رفته
10. مطالعه موردی داده های گمشده:
معرفی داده های KDD Cup 1998
الگوی داده های از دست رفته در داده های شما چیست؟
آیا داده های از دست رفته ارزش ذخیره کردن دارد؟
ارزیابی انتساب به عنوان یک راه حل بالقوه
11. بررسی و تأیید مطالعات موردی:
کاوش و تأیید کیفیت داده با مجموعه داده قلب UCI
چالش: کمی کردن داده های از دست رفته با مجموعه داده قلب UCI
راه حل: کمی کردن داده های از دست رفته با مجموعه داده قلب UCI
12. انتقال به آماده سازی داده ها:
چرا گزارش های رسمی مهم هستند
ایجاد فهرست کارهای آماده سازی داده
چگونه برای استقرار نهایی آماده شویم
نتیجه:
مراحل بعدی
Data Science Foundations: Data Assessment for Predictive Modeling
در این روش نیاز به افزودن محصول به سبد خرید و تکمیل اطلاعات نیست و شما پس از وارد کردن ایمیل خود و طی کردن مراحل پرداخت لینک های دریافت محصولات را در ایمیل خود دریافت خواهید کرد.
یادگیری ماشینی و پایه های هوش مصنوعی: استنباط و مدل سازی عملی
یادگیری ماشین و پایه های AI: تولید AI قابل توضیح AI (Xai) و راه حل های یادگیری ماشین قابل تفسیر
Machine Learning and AI Foundations: Decision Trees with SPSS
Executive Guide to Human-in-the-Loop Machine Learning and Data Annotation
آموزش مبانی یادگیری ماشینی و هوش مصنوعی
Executive Guide to Deploying, Monitoring, and Maintaining Models
آموزش تحلیل های آماری بر اعضای هیئت مدیره
دوره یادگیری انجام پروژه های یادگیری ماشینی با KNIME
فیلم آموزش ساخت مدل های پیش نگر برای سنجش و Metamodeling
آموزش ضروری تجزیه و تحلیل پیش نگر: داده کاوی