در حال حاضر محصولی در سبد خرید شما وجود ندارد.

پنل کاربری

رمز خود را فراموش کرده اید؟ اگر اولین بار است از سایت جدید استفاده میکنید باید پسورد خود را ریست نمایید.
دسته بندی
دسته بندی

در حال حاضر محصولی در سبد خرید شما وجود ندارد.

کورس یادگیری شبکه های عصبی در سطح دانشگاه

کورس یادگیری شبکه های عصبی در سطح دانشگاه

10,900 تومان
بیش از یک محصول به صورت دانلودی میخواهید؟ محصول را به سبد خرید اضافه کنید.
افزودن به سبد خرید
خرید دانلودی فوری

در این روش نیاز به افزودن محصول به سبد خرید و تکمیل اطلاعات نیست و شما پس از وارد کردن ایمیل خود و طی کردن مراحل پرداخت لینک های دریافت محصولات را در ایمیل خود دریافت خواهید کرد.

ویدئو معرفی این محصول

با مشاهده این کورس آموزشی از طریق انجام پروژه های واقعی و به زبانی بسیار ساده مطالب فراوانی را در رابطه با ساخت شبکه های عصبی یاد می گیرید.

عنوان اصلی : College Level Neural Nets [I] - Basic Nets: Math & Practice!

سرفصل ها :


مقدمه ای بر یادگیری ماشین:
ویدئو تبلیغاتی
مقدمه ای بر یادگیری ماشین
perceptron خطی:
معرفی به مشکل طبقه بندی
یک نگاه اجمالی ساده از بیش از حد
معادله Perceptron
تجسم معادله Perceptron
اثبات: بردار وزن عمود بر مرز تصمیم است
تجسم بیشتر برای وزنهای Perceptron - I
تجسم بیشتر از وزنهای Perceptron - II
توابع فعال سازی
نمایش گرافیکی یک شبکه عصبی
انواع یادگیری ماشین
مثال حل شده (I): تک لایه Perceptron به صورت گرافیکی طراحی شده است
داده های جداگانه غیر خطی و چند لایه Perceptron (MLP):
مقدمه ای به چند لایه Perceptrons
به عنوان مثال حل شده (II): MLP طراحی گرافیکی
شهود چند لایه Perceptrons - قسمت 1
شهود چند لایه Perceptrons - قسمت 2
مشکل Xor - قسمت 1
مشکل Xor - قسمت 2
طبقه بندی Multiclass و فعال سازی سیگموئید
نشانه گذاری و ماتریس وزن
یادگیری Perceptron! :
قانون یادگیری Perceptron - قسمت 1
قانون یادگیری Perceptron - قسمت 2
اثبات: قضیه همگرایی Perceptron - قسمت 1
اثبات: قضیه همگرایی Perceptron - قسمت 2
اثبات: تئوری همگرایی Perceptron - قسمت 3
سه مشکل اصلی از آستانه Perceptron
الگوریتم تبار گرادیان:
عملکرد خطا
تابع فعال سازی sigmoid دوباره
به دست آوردن الگوریتم تبار گرادیان
یادداشت های مربوط به تبار گرادیان
یادداشت های بیشتر و پر کردن
مثال حل شده (III): همگرایی تبار گرادیان
مثال حل شده (IIII): MLP با فعال سازی خطی
الگوریتم برگشت پشتی! :
مشتق از انتشار برگشت - قسمت 1
استفاده از انتشار برگشت - قسمت 2
حذف انتشار برگشت - قسمت 3
vectorization از backpropagation - قسمت 1
vectorization از backpropagation - قسمت 2
vectorization از backpropagation - قسمت 3
vectorization از backpropagation - قسمت 4
Vectorization از backpropagation - قسمت 5 - بردار دسته ای
regularization! :
رگرسيون، overfitting، و underfitting
مقدمه ای بر تنظیم مجدد
روش های مختلف برای تنظیم
L1 VS L2 Regularization - قسمت 1 - تبار گرادیان
L1 vs L2 Regularization -Part 2 - مقایسه عددی، بصری، و گرافیکی
Dropout! - بینش
dropout vs dropout معکوس
حذف به طور خلاصه
اعتبار سنجی متقابل: چگونه می توانم بدانم که من بیش از حد overfitting یا underfitting هستم؟
معیارهای عملکرد مدل! :
عدم تعادل کلاس - چرا دقت همیشه بهترین متریک نیست؟
دقت - یادآوری، و نمره F1
امتیاز F1 در مقابل متوسط ​​ساده
منحنی دقیق دقت
ROC و AUC
بهبود عملکرد شبکه عصبی - بخش (I):
Gradient Descent با Momentum - قسمت 1
Gradient Descent با Momentum - قسمت 2
ADAGRAD و RMSPROB
Decay نرخ یادگیری
مشکل شیب ناپدید شدن
مرکز ورودی و عادی سازی - قسمت 1
مرکز ورودی و عادی سازی - قسمت 2
مقدار اولیه وزن - قسمت 1 - مشکل تقارن
مقدار اولیه وزن - قسمت 2
تغییر توابع فعال سازی - TANH - RELU - LACHYRELU




منبع این سخنرانی ها
حداکثر برآورد احتمال احتمال - مرور سریع
حداکثر برآورد احتمال پارامترهای توزیع گاوسی
بهبود عملکرد شبکه عصبی - بخش (II):
توزیع Sigmoid و Bernoulli
تابع هزینه آنتروپی متقابل - مشتق
انتروپی متقابل و مشکل شیب ناپدید شده
انتروپی متقابل در مشکلات چند طبقه
عملکرد فعال سازی softmax
بازپرداخت Backpropagation برای عملکرد فعال سازی SoftMax
یادداشت درباره softmax
نرمال سازی دسته ای! :
مقدمه ای بر عادی سازی دسته ای - قسمت 1
مقدمه ای بر عادی سازی دسته ای - قسمت 2
انتقال معادلات به جلو برای عادی سازی دسته ای
Normalization Batch :: Inference
مشتق از انتشار برگشت از طریق نرمال سازی دسته ای - بخشی (I)
مشتق از انتشار پشت هر چند نرمال سازی دسته ای - قسمت 2
دوره های دیگر من را دریافت کنید! :
دوره های دیگر من را دریافت کنید!