یادگیری ماشین یا ماشین‌لرنینگ یکی از محبوب‌ترین زیرشاخه‌های هوش مصنوعی است و این هدف را دنبال می‌کند که کامپیوتر‌ها نیز مانند ما انسان‌ها توانایی یادگیری داشته باشند و انجام برخی امور را بر عهده بگیرند. افزون بر این، رفته‌رفته و با تجربه‌ای که به‌دست می‌آورند و همچنین با دریافت داده‌های بیشتر، بازدهی و دقت خود را در انجام کارها افزایش دهند. با توجه به اهمیت این حوزه و کاربردهای شکفت‌انگیز آن و همچنین افزایش تقاضا برای متخصصان ML در بازار کار، در این مطلب از مجله فرادرس قصد داریم تا دوره یادگیری ماشین دکتر رهبان را به‌عنوان منبعی ارزشمند برای یادگیری این فناوری به شما معرفی کنیم.

فهرست مطالب این نوشته
997696

در این نوشتار، به معرفی دوره آموزشی یادگیری ماشین دکتر رهبان در دانشگاه صنعتی شریف پرداخته‌ایم و علاوه بر امکان مشاهده و دانلود ویدیو‌های این دوره، خلاصه‌ای از مباحث و نکات تدریس شده در هر جلسه آموزشی را به‌طور مختصر در اختیار شما قرار داده‌ایم. بدین‌ترتیب، می‌توانید دید کلی در مورد عناوین مورد بحث در این فیلم‌های آموزشی پیدا کنید. اگر به دنبال آموختن یادگیری ماشین از منبعی جامع و ارزشمند هستید تا انتهای این مطلب همراه ما باشید.

استاد در حال تدریس یادگیری ماشین به دانشجویان

یادگیری ماشین دکتر رهبان

دوره یادگیری ماشین دکتر رهبان در قالب ۲۹ جلسه فیلم آموزشی تهیه شده است که جزئیات آن در این مطلب در اختیار شما قرار می‌گیرد. با مشاهده ویدیوهای این دوره و در طی جلسات آن با مباحث مختلف «ML» از قبیل جبر خطی، مدل‌های خطی، بُعد VC، شبکه‌های عصبی، روش‌های دسته‌بندی و خوشه‌بندی، یادگیری تقویتی و کاهش ابعاد آشنا خواهید شد. در این دوره آموزشی، مراجع و منابع نوشتاری زیر مورد توجه قرار گرفته‌اند.

  • کتاب «یادگیری از داده‌ها» (Learning From Data)، نویسنده: یاسر ابومصطفی و همکاران
  • کتاب «مؤلفه‌‌های یادگیری آماری» (The Elements of Statistical Learning)، نویسنده: Hastie و همکاران

پیش نیاز های دوره

در این قسمت به برخی از پیش‌نیازهای این دوره اشاره کرده‌ایم.

آشنایی با آمار و احتمال و همچنین جبر خطی برای این درس ضروری است. به‌همین دلیل، یکی از جلسات دوره به مرور این مباحث اختصاص یافته است.

مشاهده فیلم آموزش جبر خطی، جامع و با مفاهیم کلیدی از فرادرس که لینک آن در ادامه آورده شده نیز می‌تواند در این زمینه برای شما سودمند باشد.

آشنایی مقدماتی با زبان برنامه‌نویسی پایتون

برای یادگیری پایتون می‌توانید فیلم‌ آموزش رایگان پایتون و برنامه‌نویسی سریع و آسان با آن از فرادرس را مشاهده کنید که لینک آن را نیز در ادامه آورده‌ایم.

دنیای هوش مصنوعی و یادگیری ماشین

جلسه اول: آشنایی با مسئله یادگیری

در این جلسه از دوره آموزشی یادگیری ماشین دکتر رهبان به برخی مباحث ابتدایی علم ماشین‌لرنینگ پرداخته شده است.

آنچه در این جلسه خواهید آموخت:

  • آشنایی با مثال‌هایی از یادگیری ماشین و کاربردهای آن
  • ویژگی‌های ضروری یک مسئله برای حل آن با رویکرد یادگیری ماشین
  • معرفی یک مدل ساده یادگیری ماشین
  • نگاهی به مؤلفه‌های موجود در مسائل یادگیری مانند ورودی، خروجی، تابع هدف و دیتاست
  • الگوریتم‌های یادگیری و مؤلفه‌های آن
  • آشنایی با انواع یادگیری

جلسه دوم: ادامه آشنایی با مسئله یادگیری

در جلسه دوم از این دوره آموزشی نیز توضیحات جلسه قبل در مورد مفهوم یادگیری و مسائل آن ادامه پیدا می‌کند و با مفاهیم مرتبط دیگری نیز آشنا خواهید شد.

آنچه در این جلسه خواهید آموخت:

  • معرفی فضای فرضیه ساده برای یک الگوریتم «پرسپترون» و توضیح مؤلفه‌هایی که پیش‌تر توضیح داده شد در آن
  • آشنایی با الگوریتم یادگیری پرسپترون یا «PLA»
  • مروری بر انواع یادگیری شامل موارد زیر:
  • بیان مثال‌هایی در مورد انواع یادگیری برای درک بهتر آن‌ها
  • مروری بر مفاهیم ضروری ریاضی، آمار و احتمالات برای یادگیری ماشین

جلسه سوم: امکان پذیر بودن یادگیری

در جلسه سوم از دوره آموزشی یادگیری ماشین دکتر رهبان، با استفاده از مفاهیم ریاضی اشاره شده در جلسه قبل به این موضوع پرداخته شده که آیا یادگیری «امکان‌پذیر» (Feasible) است یا خیر. همچنین، به این پرسش پاسخ داده می‌شود که چگونه و با چه شرایطی می‌توان این غیر ممکن بودن را برطرف کرد.

آنچه در این جلسه خواهید آموخت:

  • کمک گرفتن از آمار و احتمالات برای حل مسئله
  • ارائه یک مسئله آماری و مرتبط ساختن آن به یادگیری
  • ارائه راه‌حلی ساده و مناسب

جلسه چهارم: مدل‌های خطی ۱

در این قسمت، در رابطه با «مدل‌های خطی» (Linear Models) در یادگیری ماشین صحبت شده است. نخست با یک دیتاست به نام «MNIST» آشنا خواهید شد که در واقع داده‌های گوناگون تصویری مربوط به اعداد دست‌نویس را در خود جای داده است. هر کدام از این تصویرها متناظر با عددی بین ۰ تا ۹ است.

در ادامه ویدیو، به نحوه نمایش این ورودی‌ها و بازنمایی آن پرداخته می‌شود. پس از آن نیز عملکرد الگوریتم‌های «PLA» و «Pocket» را در دسته‌بندی خطی بررسی و با هم مقایسه می‌کند. با توجه به اینکه گاهی اوقات خروجی مسئله – که قرار است پیش‌بینی شود – ممکن است مقداری حقیقی باشد، برای حل این مسائل، مفهوم رگرسیون خطی و نحوه آموزش این روش نیز توضیح داده می‌شود. در نهایت نیز راهکاری برای غیرخطی کردن تابع Classifier بیان می‌شود.

آنچه در این جلسه خواهید آموخت:

  • آشنایی با دیتاست «MNIST»
  • «نمایش ورودی‌ها» (Input Representation)
  • «دسته‌بندی خطی» (Linear Classification)
  • آشنایی با الگوریتم رگرسیون خطی
  • راهکارهایی برای تبدیل Classifier خطی به Classifier غیر خطی برای حل طیف وسیع‌تری از مسائل

جلسه پنجم: خطا و نویز

در ابتدای این جلسه، ادامه یادگیری مبحث غیرخطی کردن تابع Classifier بیان خواهد شد. پس از آن نیز مبحث «Error Measures» به‌طور کامل توضیح داده می‌شود که در واقع میزان خطای مدل در پیش‌بینی را ارزیابی می‌کند. در ادامه ویدیو نیز به مبحث نویز می‌رسیم که جزئیات آن نیز با چندین مثال مورد بررسی قرار می‌گیرد.

آنچه در این جلسه خواهید آموخت:

  • ادامه مبحث تبدیل غیر خطی
  • معیارهای سنجش خطا
  • اهداف نویزی

جلسه ششم: آموزش و تست

در این جلسه از دوره آموزشی یادگیری ماشین دکتر رهبان، به مفاهیم آموزش و تست در ماشین‌لرنینگ پرداخته شده است. برای اینکه درک بهتری از این موضوع پیدا کنید مثالی واقعی مانند فرایند تدریس و ارزیابی در دانشگاه بیان می‌شود.

فرض کنید که یک استاد در طول نیمسال تحصیلی مجموعه‌ای از تمرین‌ها و نمونه سوالات را به همراه پاسخ‌نامه در اختیار دانشجویان قرار می‌دهد. نمونه سوالات در اینجا نقش دیتاست آموزشی را ایفا می‌کنند و دانشجویان با مطالعه، مرور و تمرین این سوالات، مهارت‌های خود را تقویت کرده و برای آزمون پایانی آماده می‌شوند. امتحان نهایی نیز نقش فرایند تست یادگیری را بر عهده دارد که به‌وسیله آن میزان دانش و آموخته‌های دانشجویان سنجیده می‌شود و صرفا کسب نتیجه عالی مدنظر نیست. به همین دلیل است که از ابتدا سوالات امتحان پایانی را در اختیار دانشجویان قرار نمی‌دهند.

پس از بررسی این مثال، به توضیح مفهوم آموزش و تست به‌صورت ریاضی پرداخته می‌شود.

آنچه در این جلسه خواهید آموخت:

  • توضیح مفاهیم آموزش و تست در یادگیری ماشین
  • صحبت راجع به مفهوم «دوگانگی» (Dichotomies)
  • توضیح مفهوم «تابع رشد» (Growth Function) به‌همراه مثال
  • آشنایی با مفهوم «نقطه شکست» (Break Point) به‌همراه مثال

جلسه هفتم: تئوری تعمیم

در این جلسه به مفهوم بسیار مهم تعمیم‌پذیری در یادگیری ماشین پرداخته شده است. این مفهوم در واقع کارایی مدل ما که با داده‌ها آموزش دیده است را در پیش‌بینی روی داده‌های جدید و دیده نشده نشان می‌دهد.

آنچه در این جلسه خواهید آموخت:

  • اثبات چندجمله‌ای بودن تابع رشد
  • آشنایی با موضوع نابرابری VC

جلسه هشتم: اثبات تئوری تعمیم – بُعد VC

در ابتدای این جلسه تئوری تعمیم که در جلسه قبل مورد بررسی قرار گرفت، اثبات می‌شود. پس از آن نیز به مفهوم «VC Dimension» پرداخته خواهد شد. یعنی نخست، تعریفی ساده در مورد آن ارائه می‌شود. در ادامه نیز مثال‌ها و محاسبه بُعد VC برای پرسپترون‌ها در بُعدهای گوناگون و سایر موارد مرتبط با آن تشریح می‌شود.

آنچه در این جلسه خواهید آموخت:

  • تکمیل توضیحات مربوط به تئوری تعمیم
  • تعریف و تشریح بُعد VC
  • و غیره

جلسه نهم: ادامه مفهوم بُعد VC، تجزیه بایاس – واریانس

در این قسمت از دوره آموزشی یادگیری ماشین دکتر رهبان، مفهوم بُعد VC و  دارای ارتباط تنگاتنگ با تابع رشد و مفهوم «Break Point» ادامه پیدا می‌کند. بیان می‌شود که بُعد VC اشاره به بیشینه تعداد داده‌هایی دارد که می‌توانند همه ترکیب‌های برچسب‌زنی‌ها با استفاده از یک فضای فرضیه را تفکیک کنند. موضوع دیگری که در این جلسه مورد بررسی قرار می‌گیرد موازنه یا «Tradeoff» بین بایاس و واریانس است. در این رابطه، با مفاهیمی مانند بایاس و واریانس در یادگیری نیز آشنا خواهید شد. «Bias» و «Variance» در واقع خطاهایی هستند که می‌توانند در دقت مدل‌های یادگیری ماشین اثرگذار باشند.

آنچه در این جلسه خواهید آموخت:

  • ادامه توضیحات مربوط به بُعد VC
  • اثبات بُعد VC
  • تفسیر بُعد VC
  • مفهوم «درجات آزادی» (Degree of Freedom)
  • موازنه بین بایاس و واریانس

جلسه دهم: ادامه تجزیه بایاس – واریانس

در این قسمت بحث تجزیه بایاس – واریانس ادامه پیدا می‌کند و خطاها روی مدل ساده و پیچیده بررسی می‌شوند. پیش از این با روش‌های گوناگون مدل‌های خطی همچون دسته‌بندی خطی و رگرسیون خطی آشنا شدیم و همچنین به‌طور مفصل گفته شد که این مدل‌ها برخلاف عنوانی که دارند می‌توانند حالات غیر خطی هم پوشش دهند. این مبحث در این جلسه ادامه پیدا می‌کند و مدل خطی دیگری نیز به نام مدل «رگرسیون لاجیستیک» (Logistic Regression) به‌شما معرفی می‌شود. در رابطه با مفهوم «تبدیل‌های غیر خطی» (Nonlinear transforms) نیز مجدد یادآوری صورت می‌گیرد. سپس به حل مسئله پرداخته می‌شود. کاربرد و مثال مسئله رگرسیون لاجیستیک نیز بررسی خواهد شد.

آنچه در این جلسه خواهید آموخت:

  • منحنی یادگیری
  • بُعد VC در مقابل بایاس – واریانس
  • منحنی یادگیری برای رگرسیون خطی
  • رگرسیون لاجیستیک
  • مشکل «Data Snooping»

جلسه یازدهم: ادامه مدل‌های رگرسیون لاجیستیک – شبکه های عصبی

در این جلسه ادامه مبحث مدل‌های رگرسیون لاجیستیک معرفی شده در جلسه قبل توضیح داده می‌شود و جزئیات آن نیز به‌طور مفصل آموزش داده می‌شود. سپس یک جمع‌بندی از روش‌های خطی معرفی شده مانند پرسپترون و الگوریتم‌های PLA و Packet، مسائل رگرسیون خطی، معیار خطای «Squared Error» و روش «Pseudo-inverse» صورت می‌گیرد. ضمن اینکه در مورد لاجیستیک رگرسیون، معیار خطای «Cross-Entropy Error» و روش بهینه‌سازی «Gradient Descent» هم صحبت خواهد شد. در ادامه به ویدیو به مبحث شبکه‌های عصبی پرداخته می‌شود. مدل‌هایی که امروزه با دسترسی به داده‌های فراوان، به یکی از بهترین و ترجیحی‌ترین گزینه‌ها برای حل مسائل مختلف تبدیل شده‌اند و پایه دیپ‌لرنینگ محسوب می‌شوند.

آنچه در این جلسه خواهید آموخت:

  • ادامه مبحث رگرسیون لاجیستیک
  • معرفی نسخه دیگری از گرادیان کاهشی به نام «Stochastic Gradient Descent» که تفاوت مهم و جدی با آن دارد.
  • آشنایی با مفهوم و مدل شبکه عصبی
  • بیان مزایای «SDG» یا گرادیان کاهشی تصادفی شامل انجام محاسبات کمتر، «Randomization»، پیشگیری از بیش‌برازش و غیره
  • بررسی مثال پرسپترون چند لایه و ساختار «پیش‌خور» «FeedForward»

در یکی از  مطالب پیشین مجله فرادرس، گرادیان کاهشی (Gradient Descent) و پیاده سازی آن در پایتون را توضیح داده‌ایم که مطالعه آن می‌تواند برایتان مفید باشد.

جلسه دوازدهم: ادامه شبکه های عصبی – بیش برازش

در این قسمت از دوره یادگیری ماشین دکتر رهبان، موضوع شبکه‌های عصبی بیان شده در جلسه قبل، ادامه پیدا می‌کند. به کمک این مباحث می‌توان به مدل‌های قوی‌تری دسترسی داشت و مسائل پیچیده‌تری را حل کرد. به‌همین دلیل مثالی برای نشان دادن قدرت این مدل و نکات موجود در آن بیان می‌شود. الگوریتم پس‌انتشار خطا، مفهوم بیش‌برازش، نویز‌ها نیز جزو دیگر مواردی هستند که در این جلسه مورد بررسی قرار می‌گیرند.

آنچه در این جلسه خواهید آموخت:

  • آشنایی با مؤلفه‌ها و اصطلاحات شبکه‌های عصبی از جمله ورودی‌ها، نورون‌ها، لایه‌ها، وزن‌ها، توابع فعال‌ساز، خروجی شبکه
  • نحوه کار شبکه‌های عصبی مصنوعی
  • معرفی الگوریتم «Backpropagation» و تشریح کارکرد آن
  • آشنایی «بیش‌برازش» (Overfitting)، تعریف، مثال و انواع آن
  • نقش نویز
  • نویز «Deterministic»
  • آشنایی با «Epoch» در آموزش شبکه عصبی
  • معیار بیش‌برازش

جلسه سیزدهم: بیش برازش و منظم سازی

در این جلسه، ادامه مبحث نویزهایی که منجر به مسئله بیش‌برازش می‌شوند از جمله نویز «Stochastic» و نویز «Deterministic» و فرق آن‌ها را به‌همراه تشریح یک مثال شاهد خوهید بود. در ادامه، علت‌های ایجاد «بیش‌برازش» بررسی می‌شود و جنبه‌های گوناگونی همچون بُعد VC، «تجزیه بایاس واریانس» (Bias-Variance Decomposition) و نویزها مورد بررسی قرار می‌گیرد. سپس، بر مبنای همین دیدگاه‌ها، سعی در ارائه راهکارهای عملی می‌شود تا این مشکل را حل کنند. در همین راستا راهکارهایی مانند «منظم‌سازی» و «اعتبارسنجی» (Validation) معرفی می‌شوند.

در ادامه ویدیو نیز رویکردهای مختلف مانند منظم‌سازی، ریشه آن در دنیای ریاضیات و در حوزه یادگیری ماشین به‌همراه مثال‌های بیان می‌شود. مواردی مانند مدل چند‌جمله‌ای، «Augmented error»، «Weight Decay» و غیره نیز در این مثال‌ها بررسی خواهند شد.

آنچه در این جلسه خواهید آموخت:

  • توضیحاتی در مورد نویز و بایاس-واریانس
  • علل ایجاد بیش‌برازش
  • معرفی راهکارهای عملی مناسب برای حل مسئله
  • توضیح منظم‌سازی برای مقابله با بیش‌برازش و ارائه راهکارهایی همچون محدود‌سازی مدل

جلسه چهاردهم: ادامه بیش‌برازش و اعتبارسنجی

در این قسمت، مبحث بیش‌برازش با ارائه توضیحات بیشتری راجع به منظم‌سازی ادامه پیدا می‌کند و پس از آن، روش دیگری به نام «اعتبارسنجی» برای مقابله با بیش‌برازش معرفی می‌شود.

آنچه در این جلسه خواهید آموخت:

  • انواع «کاستن وزن» (Weight Decay)
  • تولید یک منظم‌ساز یا رگولایزر مناسب
  • توضیح رگولایزرها در شبکه‌های عصبی
  • استفاده از «توقف زودهنگام» (Early Stopping) به عنوان یک رگولایزر
  • پارامتر «λ» و ضریب بهینه منظم‌سازی
  • تشریح مفهوم «اعتبار سنجی» (Validation)
  • بیان تفاوت بین منظم‌سازی و اعتبارسنجی

جلسه پانزدهم: پرسش و پاسخ – اعتبارسنجی و اعتبارسنجی متقابل

این جلسه با پاسخ‌دهی به پرسش‌هایی از مطالب جلسات قبلی شروع شده و تا نیمه نخست ویدیو، سوالات بسیار مهم دانشجویان که شاید سوال شما هم باشند توسط مدرس به‌صورت تشریحی بررسی می‌شوند. در ادامه این جلسه، موضوع اعتبارسنجی و انتخاب مدل توضیح داده می‌شود. سپس اعتبارسنجی متقابل مورد بررسی قرار می‌گیرد. در نهایت نیز مروری بر SVM صورت می‌گیرد. SVM مدت‌ها جزو مهم‌ترین و پرکاربردترین الگوریتم‌های ماشین‌لرنینگ محسوب می‌شد و امروزه نیز برای حل برخی مسائل با داده‌های جدولی عملکرد خوبی از خود نشان می‌دهد. با این‌حال در حوزه‌هایی با داده‌های صوتی، تصویری، ویدیوی یا متنی تقریبا منسوخ شده است.

آنچه در این جلسه خواهید آموخت:

  • انتخاب مدل
  • آشنایی با «Data Contamination» یا آلودگی داده‌ها
  • «اعتبارسنجی متقابل» (Cross-Validation)
  • تشریح ایده «Leave-One-Out» و تعمیم آن به «K-Fold Cross-Validation»
  • مروری بر SVM یا «ماشین بردار پشتیبان» (Support Vector Machine)
  • تعریف «Margin» و نحوه بیشینه‌سازی آن

جلسه شانزدهم: ماشین بردار پشتیبان یا SVM

مبحث ماشین‌های بردار پشتیبان که در جلسه قبل شروع شد در این قسمت ادامه پیدا می‌کند و پس از آن به حل مسئله بهینه‌سازی پرداخته می‌شود. روش‌های SVM در واقع روش‌هایی خطی هستند که تعمیم‌پذیری مناسبی نسبت به سایر مدل‌های خطی برایمان فراهم می‌کنند. هدف در آن نیز بیشینه‌سازی مفهومی به نام «Margin» است.

آنچه در این جلسه خواهید آموخت:

  • آشنایی با «Margin»
  • معرفی روش «Hard Margin SVM»
  • مسئله «بهینه‌سازی مقید» (Constrained Optimization)
  • آشنایی با روش فرموله‌سازی لاگرانژ
  • استفاده از مفهوم «Slater’s Condition»
  • «مسائل بهینه‌سازی محدب» «Convex Optimization Problems»
  • مفهوم «Quadratic Programming»

جلسه هفدهم: روش‌های مبتنی بر هسته

در این قسمت از دوره یادگیری ماشین دکتر رهبان از حالت‌هایی صحبت می‌شود که در آن‌ها داده‌هایمان خطی تفکیک‌پذیر نیستند و ۲ حالت مختلف در نظر گرفته می‌شود. نخست اینکه داده‌ها از حالت خطی تفکیک‌پذیر فاصله زیادی دارند و حتی یک خط یا «ابرصفحه» (Hyperplane) نمی‌تواند پاسخ قانع‌کننده‌ای به ما بدهد. در این حالت از مفهومی مانند تبدیل غیرخطی و برای انجام بهینه آن از مفهومی به نام «Kernel Ttrick» استفاده می‌کنیم. حالت بعدی این است که داده‌هایمان تاحدودی خطی تفکیک‌پذیر هستند اما برخی داده‌‌های Outlier وجود دارند که مانع از ایده‌ال بودن خط پیدا شده می‌شوند. در این حالت از روشی به نام «Soft Margin SVM» استفاده می کنیم.

آنچه در این جلسه خواهید آموخت:

  • آشنایی با «Kernel Ttrick»
  • معرفی «Soft Margin SVM»
  • روش‌های به‌دست آوردن کرنل معتبر

جلسه هجدهم: مدل RBF

در این جلسه مبحث هسته یا کرنل «RBF» مورد بررسی قرار می‌گیرد و مدل‌های «Radial Basis Function» معرفی می‌شوند. ارتباط آن نیز با سایر روش‌ها بیان خواهد شد.

آنچه در این جلسه خواهید آموخت:

  • آشنایی با مدل RBF
  • ارتباط RBF و نزدیکترین همسایه‌ها
  • رابطه RBF و شبکه‌های عصبی
  • ارتباط RBF و روش‌های کرنل
  • رابطه RBF و منظم‌سازی
  • RBF برای طبقه‌بندی
  • روش خوشه‌بندی «K-Means»
  • الگوریتم«Lloyd»
  • روش «Pseudo-Inverse»

جلسه نوزدهم: ۳ اصل یادگیری

این ویدیو با مروری سریع روی مطالب جلسه قبل شروع می‌شود و در ادامه، به برخی اصول و مباحث فلسفی مرتبط با یادگیری می‌پردازد. در این میان، مثال‌ها و پازل‌های متعددی نیز تشریح می‌شود.

آنچه در این جلسه خواهید آموخت:

  • مفهوم «سوگیری نمونه‌گیری» (Sampling Bias)
  • توضیح اصل «تیغ اوکام» (Occam’s Razor): اشاره به این نکته دارد که یک فضای فرضیه ساده‌تر برای یادگیری بهتر است.
  • موضوع «Data Snooping»

جلسه بیستم: روش XGBoost

منبع نوشتاری اول برای این آموزش که در ابتدای مطلب معرفی کردیم تا این قسمت به پایان می‌رسد و انتظار می‌رود که دانشجویان دید مناسبی در مورد در یادگیری ماشین به دست آورده باشند. از این قسمت به بعد وارد مباحث عملی‌تر و روش‌های جدیدتری می‌شویم. در این قسمت به معرفی روش طبقه‌بندی رایج در صنعت مانند «XGBoost» پرداخته می‌شود که محبوبیت زیادی دارد. این روش بر مبنای درخت تصمیم است.

آنچه در این جلسه خواهید آموخت:

  • مقدمه‌ای بر روش «XGBoost»
  • نحوه یادگیری XGBoost
  • بیان اینکه XGBoost در چه شرایطی می‌تواند برای ما مفید باشد.
  • تأثیرگذاری‌های XGBoost
  • کاربردهای رایج الگوریتم‌های یادگیری ماشین از جمله مدل‌های خطی، شبکه‌های عصبی عمیق و درخت‌ها
  • درخت رگرسیون «CART»
  • مزایای روش‌های مبتنی بر درخت مانند دقت بالا، استفاده ساده و غیره
  • چالش‌های روش‌های مبتنی بر درخت مانند بیش‌برازش، هزینه محاسباتی بالا
  • بسط تیلور

جلسه بیست و یکم: روش‌های نیمه‌نظارتی

این قسمت با ارائه یک مثال مفصل در مورد XGBoost از جلسه قبل شروع و پس آن به روش‌های «یادگیری نیمه‌نظارتی» (Semi-supervised) پرداخته می‌شود. در این نوع روش‌ها از داده‌های برچسب‌دار و بدون برچسب برای آموزش مدل استفاده می‌شود.

آنچه در این جلسه خواهید آموخت:

  • مروری بر یادگیری نظارتی
  • داده‌های برچسب‌دار و بدون برچسب
  • نحوه یادگیری انسان
  • بررسی مؤثر بودن داده‌های بدون‌برچسب
  • آشنایی با برخی الگوریتم‌های نیمه‌نظارتی
  • روش‌های مولد
  • متدهای مبتنی بر گراف
  • توضیح روش «Self-Training» به همراه مثال
  • مدل‌های «Mixture»
  • آشنایی با سایر روش‌های یادگیری نیمه‌نظارتی

جلسه بیست و دوم: یادگیری جمعی – بخش ۱

در این قسمت از دوره آموزشی یادگیری ماشین دکتر رهبان موضوع جلسه قبل در مورد روش‌های نیمه‌نظارتی تکمیل می‌شود و پس از آن به یادگیری «جمعی» (Ensemble) پرداخته می‌شود.

آنچه در این جلسه خواهید آموخت:

  • معرفی الگوریتم «Co-Training»
  • SVM-های نیمه‌نظارتی
  • مفهوم «Bagging» یا ‌«Bootstrap Aggregation»
  • مفهوم «Boosting»

جلسه بیست و سوم: یادگیری جمعی – بخش ۲

در این جلسه موضوع «Ensemble Learning» ادامه پیدا می‌کند. الگوریتم «Ada Boost» نیز تشریح می‌شود.

آنچه در این جلسه خواهید آموخت:

  • یادآوری Boosting
  • ارائه یک مثال ساده از Classifier
  • معرفی سایر مفاهیم مرتبط

جلسه بیست و چهارم: روش های Nonparametric

در این قسمت به روش‌های مبتنی بر احتمال برای طبقه‌بندی پرداخته می‌شود. ضمن اینکه روش‌های «Nonparametric» نیز مورد بررسی قرار می‌گیرند. علاوه بر این، مسائل جدیدی مانند «تخمین تابع چگالی» (Density Estimation) علاوه بر مسائل طبقه‌بندی معرفی می‌شوند.

آنچه در این جلسه خواهید آموخت:

  • معرفی رویکردهای احتمالی برای مسائل طبقه‌بندی
  • معرفی قانون «بیز» (Naive Bayes)
  • دسته‌بند بیز
  • معرفی روش‌‌های Nonparametric که پارامترهای زیادی دارند.
  • هیستوگرام و تخمین چگالی کرنل
  • k-NN برای تخمین چگالی

جلسه بیست و پنجم: روش های رگرسیون Nonparametric

در این قسمت از دوره یادگیری ماشین دکتر رهبان مبحث «روش‌های Nonparametric» در حالت رگرسیون مانند «Kernel Regression» مورد بررسی قرار می‌گیرد.

آنچه در این جلسه خواهید آموخت:

  • Kernel Regression
  • Local Linear/Polynomial Regression
  • معرفی روش «Gaussian Processes»
  • «Bayesian modelling»

جلسه بیست و ششم: کاهش بعد

در این قسمت، موضوع «کاهش بُعد» (Dimensionality Reduction) در یادگیری ماشین و راهکارهای موجود در این رابطه مورد بحث قرار می‌گیرد. کاهش بُعد یکی از روش‌های موجود در یادگیری ماشین است که با استفاده از آن تعداد ویژگی‌های موجود در دیتاست را کاهش می‌دهیم، با در نظر گرفتن اینکه داده‌های مهم را تا جایی که بتوانیم از دست ندهیم. در واقع با این انجام این کار، داده‌هایی با ابعاد بالا را با حفظ عناصر مهم، کاهش بُعد می‌دهیم.

آنچه در این جلسه خواهید آموخت:

  • آشنایی با مشکلات داده‌هایی با ابعاد بسیار بالا
  • تشریح موضوع «نفرین ابعاد» (Curse of Dimensionality)
  • آشنایی با روش‌های کاهش بُعد
  • «انتخاب ویژگی» (Feature Selection)
  • «ویژگی‌های نهان» (Latent features)
  • روش‌هایی مانند «تحلیل مؤلفه‌های اصلی» (PCA)

جلسه بیست و هفتم: روش بیشینه‌سازی امید ریاضی EM

در این جلسه به مبحث «خوشه‌بندی» (Clustering) و الگوریتم‌های «تقسیم‌بندی» پرداخته می‌شود.

آنچه در این جلسه خواهید آموخت:

  • یادآوری روش «K-Means» و مسئله خوشه‌بندی
  • استفاده از تخمین چگالی
  • الگوریتم‌های «تقسیم‌بندی» (Partitioning Algorithms)
  • مدل «Gaussian Mixture»
  • الگوریتم EM

جلسه بیست و هشتم: یادگیری تقویتی – بخش اول

یادگیری تقویتی یا RL یکی از روش‌های موجود در یادگیری ماشین محسوب می‌شود که در آن، عامل‌ها آموزش می‌بینند تا تصمیم‌هایی را اتخاذ کنند که بهترین نتایج را به دنبال داشته باشند. درست همان‌گونه که ما انسان‌ها از طریق آزمون و خطا یاد می‌گیریم. در این حالت، کارهایی که عامل را به سمت هدف سوق می‌دهند تقویت شده و کارهایی که آن را از هدف ما دور می‌کنند رد می‌شوند. در این قسمت از دوره یادگیری ماشین دکتر رهبان به موضوع یادگیری تقویتی پرداخته می‌شود. ابتدا مقدمه‌ای گفته می‌شود در رابطه با اینکه تصمیم‌گیری در محیط‌های پویا با چه نوع چارچوب‌های ریاضی مدل می‌شوند. سپس به توضیح مفاهیم مرتبط با آن می‌پردازد.

آنچه در این جلسه خواهید آموخت:

  • آشنایی با مفهوم RL
  • اشاره به «AlphaGo» و «ماشین گوگل»
  • آشنایی با «عامل» (Agent) و «محیط» (Enviroment)
  • معرفی مفهوم MDP یا «فرایند‌های تصمیم‌گیری مارکوف» (Markov Decision Process)
  • مثال بازی «Tetris»
  • آشنایی با روش برنامه‌ریزی پویا
  • معرفی مفهوم «Model-free Control»
  • تابع ارزش
  • سیاست «Deterministic»
  • سیاست «Stochastic»
  • معادله «بلمن» (Bellman)
  • آشنایی با ساختار RL

جلسه بیست و نهم: یادگیری تقویتی- بخش دوم

مدرس در این قسمت، ابتدا مروری روی مباحث جلسه قبل در رابطه با یادگیری تقویتی خواهد داشت و سپس به تشریح ادامه موضوع یادگیری تقویتی می‌پردازد. در نهایت نیز مصاحبه‌ای با یکی از افراد فعال در صنعت در حوزه هوش مصنوعی صورت می‌گیرد.

آنچه در این جلسه خواهید آموخت:

  • روش «Monte-Carlo»
  • مفهوم تقریب تابع ارزش
  • آشنایی با «Policy Gradient»
  • آشنایی با روش «تفاوت زمانی» (Temporal-Difference)
  • معرفی روش «TD control-Sarsa»
  • بیان تفاوت‌های «MC» و «TD»
  • روش‌های «Off-Policy» شامل «Behavior Policy» و «Learning Policy»
  • روش «Q-Learning»
تعامل یک انسان با هوش مصنوعی

یادگیری ماشین لرنینگ با فرادرس

همان‌طور که اشاره کرده‌ایم، ماشین‌لرنینگ یکی از مهم‌ترین‌ترین حوزه‌های AI و علم داده محسوب می‌شود و به دنبال این است که ماشین‌ها نیز مانند انسان‌ها بتوانند از داده‌ها یاد بگیرند و دقت کار خود را نیز رفته‌رفته و با مشاهده داده‌های بیشتر، افزایش دهند. یادگیری این فناوری در حال حاضر به دلیل کاربردهای گوناگون آن در حوزه‌های مختلف نظیر پزشکی، بازاریابی، امور مالی، امنیتی و غیره بسیار افزایش پیدا کرده است. یکی از شیوه‌های بهینه برای آموختن یادگیری ماشین، استفاده از فیلم‌های آموزشی است که توسط اساتید مجرب و با کیفیت بالا تهیه شده‌اند. مجموعه فیلم‌های آموزش یادگیری ماشین، مقدماتی تا پیشرفته از فرادرس جزو همین منابع محسوب می‌شود که ML را به لحاظ تئوری و عملی در قالب دوره‌های آموزشی گوناگون به شما یاد می‌دهد.

در ادامه، عناوین برخی از این فیلم‌های آموزشی را آورده‌ایم.

جمع‌بندی

در این مطلب از مجله فرادرس، یکی از ارزشمند‌ترین دوره‌های آموزشی یادگیری ماشین را به شما معرفی کردیم.

این دوره آموزشی که توسط دکتر رهبان تدریس شده است، مباحث مختلفی از این شاخه بسیار مهم از هوش مصنوعی را به علاقه‌مندان آموزش می‌دهد. ضمن اینکه به خلاصه‌ای از عناوین مورد بحث در هر جلسه نیز پرداخته‌ایم.

source

توسط expressjs.ir