در حال حاضر محصولی در سبد خرید شما وجود ندارد.
پردازش زبان طبیعی در عمل راهنمای شما برای ساخت ماشین های ساختمانی است که می تواند زبان انسانی را بخواند و تفسیر کند. در آن، شما از بسته های پایتون به راحتی در دسترس استفاده می کنید تا معنی را در متن ضبط کنید و به همین ترتیب واکنش نشان دهید. این کتاب رویکردهای سنتی NLP را گسترش می دهد تا شامل شبکه های عصبی، الگوریتم های یادگیری عمیق مدرن و تکنیک های مولد، به عنوان مشکلات دنیای واقعی مانند استخراج تاریخ ها و نام ها، نوشتن متن و پاسخ دادن به سوالات آزاد فرم.
عنوان اصلی : Manning - Natural Language Processing in Action
سرفصل های دوره :
00001 قسمت 1. ماشین های Wordy
00002 زبان طبیعی در مقابل زبان برنامه نویسی
00003 جادو
00004 ریاضی
00005 کاربردهای عملی
00006 زبان از طریق چشم کامپیوتر
00007 یک چت بات ساده
00008 راه دیگر
00009 یک پرواز کوتاه از ابرفضا
00010 ترتیب کلمات و دستور زبان
00011 خط لوله زبان طبیعی ربات چت
00012 پردازش در عمق
00013 IQ زبان طبیعی
00014 پیش نمایش stemming را به چالش می کشد
00015 ساختن دایره لغات خود با توکنایزر قسمت 1
00016 ساختن دایره لغات خود با توکنایزر قسمت 2
00017 محصول نقطه
00018 یک بهبود نشانه
00019 گسترش دایره لغات خود با n-gram قسمت 1
00020 گسترش دایره لغات خود با n-gram قسمت 2
00021 عادی سازی واژگان خود قسمت 1
00022 عادی سازی واژگان خود قسمت 2
00023 عادی سازی واژگان خود قسمت 3
00024 احساس
00025 VADER یک تحلیلگر احساسات مبتنی بر قانون
00026 ریاضی با کلمات بردار TF-IDF
00027 کیسه کلمات
00028 برداری
00029 فضاهای برداری
00030 قانون Zipf
00031 مدل سازی موضوع
00032 رتبه بندی مرتبط
00033 Okapi BM25
00034 از تعداد کلمات تا امتیاز موضوع
00035 بردارهای TF-IDF و واژه سازی
00036 آزمایش فکری
00037 الگوریتمی برای امتیازدهی به موضوعات
00038 یک طبقه بندی کننده LDA
00039 تحلیل معنایی نهفته
00040 آزمایش فکری شما واقعی شد
00041 تجزیه مقدار مفرد
00042 U بردارهای مفرد سمت چپ
00043 جهت ماتریس SVD
00044 تجزیه و تحلیل مؤلفه اصلی
00045 دور زدن را متوقف کنید و به NLP بازگردید
00046 استفاده از SVD کوتاه شده برای تحلیل معنایی پیام SMS
00047 تخصیص دیریکله نهفته LDiA
00048 مدل موضوع LDiA برای پیامک
00049 فاصله و شباهت
00050 فرمان با بازخورد
00051 قدرت بردار موضوع
00052 جستجوی معنایی
00053 قسمت 2. یادگیری عمیق تر شبکه های عصبی
00054 شبکه های عصبی لیست مواد تشکیل دهنده
00055 انحراف از طریق سوگیری قسمت 1
00056 انحراف از طریق سوگیری قسمت 2
00057 انحراف از طریق سوگیری قسمت 3
00058 بیایید روی سطح خطا اسکی کنیم
00059 Keras - شبکه های عصبی در پایتون
00060 پرس و جوها و قیاس های معنایی
00061 بردارهای کلمه
00062 استدلال بردار
00063 نحوه محاسبه نمایش های Word2vec قسمت 1
00064 نحوه محاسبه نمایش های Word2vec قسمت 2
00065 نحوه استفاده از ماژول gensim.word2vec
00066 چگونه نمایش های برداری کلمه خود را ایجاد کنید
00067 fastText
00068 تجسم روابط کلمه
00069 کلمات غیر طبیعی
00070 معنی یادگیری
00071 جعبه ابزار
00072 شبکه های عصبی کانولوشن
00073 بالشتک
00074 در واقع پنجره های باریک
00075 پیاده سازی در Keras - آماده سازی داده ها
00076 معماری شبکه عصبی کانولوشن
00077 گیلاس روی سوند
00078 استفاده از مدل در خط لوله
00079 شبکه های عصبی بازگشتی حلقه ای RNN
00080 یادآوری با شبکه های تکراری
00081 پس انتشار در طول زمان
00082 خلاصه
00083 کنار هم قرار دادن چیزها
00084 فراپارامترها
00085 پیش بینی
00086 LSTM قسمت 1
00087 LSTM قسمت 2
00088 پس انتشار در طول زمان
00089 بازگشت به داده های کثیف
00090 نوبت من به چت است
00091 نوبت من است که واضح تر صحبت کنم
00092 یاد گرفتم چطور بگویم اما هنوز چه چیزی را یاد گرفتم
00093 معماری رمزگذار-رمزگشا
00094 رمزگشایی اندیشه
00095 آشنا به نظر برسید
00096 مونتاژ خط لوله دنباله به دنباله
00097 رمزگذار توالی
00098 آموزش شبکه ترتیب به دنباله
00099 ساخت ربات چت با استفاده از شبکه های ترتیب به دنباله
00100 بهبودها
00101 در دنیای واقعی
00102 قسمت 3. دریافت چالش های واقعی NLP در دنیای واقعی
00103 نهادها و روابط نامگذاری شده
00104 پایگاه دانش
00105 الگوهای منظم
00106 اطلاعاتی که ارزش استخراج دارد
00107 استخراج خرما
00108 استخراج روابط
00109 عادی سازی و استخراج رابطه
00110 چرا won t split . کار کردن
00111 مهارت زبان
00112 رویکردهای مدرن قسمت 1
00113 رویکردهای مدرن قسمت 2
00114 رویکرد تطبیق الگو
00115 یک چت ربات مطابق با الگو با AIML قسمت 1
00116 یک چت ربات مطابق با الگو با AIML قسمت 2
00117 زمین
00118 جستجوی بازیابی
00119 نمونه چت ربات مبتنی بر بازیابی
00120 مدل های مولد
00121 چهار چرخ متحرک
00122 فرآیند طراحی
00123 ترفند
00124 داده های بسیار خوبی است
00125 بهینه سازی الگوریتم های NLP
00126 نمایه سازی پیشرفته
00127 نمایه سازی پیشرفته با Annoy
00128 چرا اصلاً از شاخص های تقریبی استفاده می شود
00129 الگوریتم های RAM ثابت
00130 موازی کردن محاسبات NLP
00131 کاهش ردپای حافظه در طول آموزش مدل
00132 Anaconda3
00133 Mac
00134 کار با strings
00135 عبارات منظم
00136 بردارها
00137 فاصله ها قسمت 2
00138 انتخاب داده و اجتناب از سوگیری
00139 دانستن نیمی از نبرد است
00140 مدل خود را عقب نگه دارید
00141 مجموعه های آموزشی نامتعادل
00142 معیارهای عملکرد
00143 بردارهای با ابعاد بالا متفاوت هستند
00144 تفکر با ابعاد بالا
00145 نمایه سازی با ابعاد بالا
Manning - Natural Language Processing in Action
در این روش نیاز به افزودن محصول به سبد خرید و تکمیل اطلاعات نیست و شما پس از وارد کردن ایمیل خود و طی کردن مراحل پرداخت لینک های دریافت محصولات را در ایمیل خود دریافت خواهید کرد.
خزیدن در ویکی پدیا برای ایجاد مجموعه داده های آموزش برای یک مدل تولید متن در زبان Python
کار با Nessvec and PyTorch برای تعلیم دادن سیستم های هوش مصنوعی کلمات
ساخت یک چت بات با کتابخانه Gradio زبان پایتون
ایجاد یک موتور گفتگو یا دستگاه حالت محدود (FSM) با زبان Python
افزودن فایل های بزرگ به مجموعه داده های NL
NLP در عمل: مکانیسم توجه و به روزرسانی Torchtext 0.9
خلاصه شدید با کلمه FastText و رمزگذاری های روبرتا
استفاده از PyNNDescent و nessvec برای فهرست کردن وکتورهایی با ابعاد بسیار زیاد
NLP در عمل با PyTorch و Nessvectors