در حال حاضر محصولی در سبد خرید شما وجود ندارد.
Attention-based models allow neural networks to focus on the most important features of the input, thus producing better results at the output. In this course, Janani Ravi explains how recurrent neural networks work and builds and trains two image captioning models one without attention and another using attention models and compares their results. If you have some experience and understanding of how neural networks work and want to see what attention-based models can do for you, check out this course.
در این روش نیاز به افزودن محصول به سبد خرید و تکمیل اطلاعات نیست و شما پس از وارد کردن ایمیل خود و طی کردن مراحل پرداخت لینک های دریافت محصولات را در ایمیل خود دریافت خواهید کرد.
Building Your First scikit-learn Solution
آموزش بهبود داده های عددی برای بهتر کردن فرآیند یادگیری ماشینی
آموزش ساخت راهکارهای PyTorch
Building Your First Python Analytics Solution
آموزش پیاده سازی متدهای Bootstrap در زبان R
Building Machine Learning Models on Databricks
فیلم یادگیری Expediting Deep Learning with Transfer Learning: PyTorch Playbook
Expediting Deep Learning with Transfer Learning: PyTorch Playbook
Deploying Containerized Workloads Using Google Cloud Kubernetes Engine
Building Features from Numeric Data