در حال حاضر محصولی در سبد خرید شما وجود ندارد.
با مشاهده این کورس آموزشی از طریق انجام پروژه های واقعی و به زبانی بسیار ساده مطالب فراوانی را در رابطه با گوگل کلود یاد می گیرید.
عنوان اصلی : Conceptualizing the Processing Model for the GCP Dataflow Service
بررسی اجمالی دوره
پیش نیازها و رئوس مطالب دوره
نمای کلی Apache Beam
معرفی Cloud Dataflow
اجرای خطوط لوله در جریان داده
نسخه ی نمایشی: فعال کردن API ها
نسخه ی نمایشی: راه اندازی یک حساب خدمات
نسخه ی نمایشی: نمونه برنامه شمارش کلمات
دمو: اجرای برنامه شمارش کلمات در Beam Runner
نسخه ی نمایشی: ایجاد سطل های ذخیره سازی ابری
نسخه ی نمایشی: پیاده سازی خط لوله پرتو برای اجرا در جریان داده
نسخه ی نمایشی: اجرای خط لوله پرتو در Cloud Dataflow
نسخه ی نمایشی: گزینه های خط لوله سفارشی
قیمت گذاری جریان داده
مشاغل نظارتی
نسخه ی نمایشی: پیاده سازی خط لوله با ورودی جانبی
نسخه ی نمایشی: اجرای کد و کاوش در نمودار کار
نسخه ی نمایشی: بررسی معیارهای شغل
نسخه ی نمایشی: مقیاس خودکار
نسخه ی نمایشی: فعال کردن موتور جریان
نسخه ی نمایشی: استفاده از رابط خط فرمان برای نظارت بر کارها
نسخه ی نمایشی: ثبت پیام ها در جریان داده
نسخه ی نمایشی: ردیابی معیارهای جریان داده با Metrics Explorer
نسخه ی نمایشی: پیکربندی هشدارها
ساختار کد کاربر
نسخه ی نمایشی: نوشتن نتایج خط لوله به Pub/Sub
نسخه ی نمایشی: مشاهده نتایج خط لوله در Pub/Sub
نسخه ی نمایشی: نوشتن نتایج خط لوله در BigQuery
نسخه ی نمایشی: مشاهده نتایج خط لوله در BigQuery
نسخه ی نمایشی: انجام عملیات پیوستن
نسخه ی نمایشی: خطاها و تلاش های مجدد در جریان داده
بهینه سازی ترکیب و ترکیب
مقیاس خودکار و تعادل مجدد کار پویا
نسخه ی نمایشی: خواندن داده های جریانی از Pub/Sub
نسخه ی نمایشی: نوشتن داده های جریانی در BigQuery
معرفی قالب ها در Dataflow
نسخه ی نمایشی: قالب های داخلی در جریان داده
نسخه ی نمایشی: اجرای قالب های داخلی
نسخه ی نمایشی: ایجاد الگوهای جریان داده سفارشی
نسخه ی نمایشی: اجرای قالب های سفارشی در Dataflow
خلاصه و مطالعه بیشتر
Conceptualizing the Processing Model for the GCP Dataflow Service
در این روش نیاز به افزودن محصول به سبد خرید و تکمیل اطلاعات نیست و شما پس از وارد کردن ایمیل خود و طی کردن مراحل پرداخت لینک های دریافت محصولات را در ایمیل خود دریافت خواهید کرد.
استفاده از یادگیری ماشینی در بهداشت
مدیریت داده های Batch بوسیله Apache Spark بر روی Databricks
پایه های آمار و احتمال برای یادگیری ماشینی
Summarizing Data and Deducing Probabilities
آموزش راهکار هوشمند خود را با scikit-learn بسازید
Building Regression Models with scikit-learn
Implementing Bootstrap Methods in R
Implementing Machine Learning Workflow with Weka
پردازش جریان داده ها با Apache Spark بر روی Azure Databricks
آموزش استفاده از منابع آنلاین برای پردازش داده ها با Python