در حال حاضر محصولی در سبد خرید شما وجود ندارد.
از پیش بینی نتایج پزشکی به مدیریت صندوق های بازنشستگی، ما اعتماد زیادی به یادگیری ماشین (ML) و هوش مصنوعی (AI) داریم، هرچند ما می دانیم که آنها به حملات آسیب پذیر هستند و گاهی اوقات می توانند به طور کامل ما را شکست دهند. در این دوره، مربی Diana Kelley نمونه های دنیای واقعی را از آخرین تحقیقات ML می برد و از طریق راه هایی که ML و AI می تواند شکست بخورد، اشاره می کند، اشاره گرها در مورد چگونگی طراحی، ساخت و نگهداری سیستم های انعطاف پذیر. در مورد شکست های عمدی ناشی از حملات و شکست های ناخواسته ناشی از نقص های طراحی و مسائل پیاده سازی. تهدیدات امنیتی و خطرات حریم خصوصی جدی هستند، اما با ابزار مناسب و آماده سازی شما می توانید خودتان را برای کاهش آنها تنظیم کنید. دیانا برخی از موثرترین روش ها و تکنیک های موثرترین ML را توضیح می دهد، از جمله بهداشت داده ها، آموزش های دیافراگم و کنترل دسترسی به API ها.
عنوان اصلی : Machine Learning and Artificial Intelligence Security Risk: Categorizing Attacks and Failure Modes
سرفصل های دوره :
مقدمه:
نگرانی های امنیتی ماشین
آنچه شما باید بدانید
1. پایه های یادگیری ماشین:
چگونه سیستم ها می توانند شکست بخورند و چگونه از آنها محافظت کنند
چرا امنیت ML
حملات در مقابل حالت های شکست ناخواسته
اهداف امنیتی برای ML: سیا
2. حالت های ناتوانی عمدی / حملات:
حملات مزاحم و AUPS
حملات مسمومیت
شبکه های عصبی مجددا برنامه ریزی شده
دامنه فیزیکی (اشیاء 3D Adversarial)
حملات زنجیره تامین
مدل معکوس مدل
دستکاری سیستم
استنتاج عضویت و سرقت مدل
backdoors و سوء استفاده های موجود
3. حالت های شکست ناخواسته / نقص طراحی ذاتی:
هک پاداش
اثرات جانبی در یادگیری تقویت
تغییرات توزیع و تست ناقص
Overfitting / Underfitting
ملاحظات تعصب داده ها
4. ساختمان Resilient ML:
تکنیک های موثر برای ایجاد انعطاف پذیری در ML
ML DataSet Hygiene
ML آموزش دشمن
ML کنترل دسترسی به API ها
نتیجه گیری:
مراحل بعدی
Machine Learning and Artificial Intelligence Security Risk: Categorizing Attacks and Failure Modes
در این روش نیاز به افزودن محصول به سبد خرید و تکمیل اطلاعات نیست و شما پس از وارد کردن ایمیل خود و طی کردن مراحل پرداخت لینک های دریافت محصولات را در ایمیل خود دریافت خواهید کرد.