جستجو برای:
  • صفحه نخست
    • صفحه اصلی اول
    • صفحه اصلی دوم
    • صفحه اصلی سوم
    • صفحه اصلی چهارم
  • دوره ها
    • حساب کاربری من
    • سبد خرید
    • پرداخت
  • مطالب آموزشی
    • یادگیری ماشین
      • کلاس بندی
      • خوشه بندی
      • رگرسیون
      • یادگیری تقویتی
    • دانشجویان کارشناسی
      • مفاهیم اولیه
      • الگوریتم های تکاملی
      • الگوریتم های جستجو
      • عامل های منطقی
    • سایر مباحث
      • داده کاوی
      • کلان داده
      • یادگیری عمیق
      • پردازش تصویر
    • ابزارها
      • پایتون
      • R
      • وکا
      • کلمنتاین
  • بلاگ
 
  • 09127449140
  • viraai.ackademy@gmail.com
  • بلاگ
  • تماس با ما
  • درباره ما
آکادمی هوش مصنوعی ویرا
  • صفحه نخست
    • صفحه اصلی اول
    • صفحه اصلی دوم
    • صفحه اصلی سوم
    • صفحه اصلی چهارم
  • دوره ها
    • حساب کاربری من
    • سبد خرید
    • پرداخت
  • مطالب آموزشی
    • یادگیری ماشین
      • کلاس بندی
      • خوشه بندی
      • رگرسیون
      • یادگیری تقویتی
    • دانشجویان کارشناسی
      • مفاهیم اولیه
      • الگوریتم های تکاملی
      • الگوریتم های جستجو
      • عامل های منطقی
    • سایر مباحث
      • داده کاوی
      • کلان داده
      • یادگیری عمیق
      • پردازش تصویر
    • ابزارها
      • پایتون
      • R
      • وکا
      • کلمنتاین
  • بلاگ
0

ورود و ثبت نام

وبلاگ

آکادمی هوش مصنوعی ویرابلاگیادگیری ماشینیادگیری تقویتینحوه عملکرد یادگیری تقویتی

نحوه عملکرد یادگیری تقویتی

28 مهر 1400
ارسال شده توسط solati
یادگیری تقویتی
1.53k بازدید

در این مطلب درباره نحوه عملکرد سیستم‌های یادگیری تقویتی صحبت خواهیم کرد. و مسئله را با ذکر چند مثال شرح و بسط خواهیم داد.

یادگیری تقویتی چگونه کار می کند؟

بیایید چند مثال ساده را مشاهده کنیم که به شما کمک می کند مکانیسم یادگیری تقویتی را بهتر درک کنید.

به عنوان مثال فرض کنید می‌خواهیم به گربه ترفندهایی جدیدی بیاموزیم.در ادامه نشا می‌دهیم این کار را چگونه می‌توان با کمک یادگیری تقویتی انجام داد.

Reinforcement Learning works

از آنجا که گربه انگلیسی یا هیچ زبان انسانی دیگری را نمی فهمد، ما نمی توانیم مستقیماً به او بگوییم چه کار کند. در عوض، ما استراتژی متفاوتی را دنبال می کنیم.پس بدین صورت عمل می‌کنیم،ما از موقعیتی تقلید می کنیم و گربه سعی می کند به روش های مختلف پاسخ دهد. اگر پاسخ گربه به روش دلخواه باشد ، به او ماهی می دهیم.

از این پس، هر زمان که گربه در معرض شرایط مشابهی قرار می گیرد، گربه نیز در انتظار دریافت پاداش بیشتر (غذا) با اشتیاق بیشتری اقدام مشابهی را انجام می دهد.با این کار گربه متوجه می‌شود که برای گرفتن پاداش باید چه عملی را انجام دهد. و همچنین گربه می‌آموزد در هنگام تجربیات منفی نیز باید چه عملی را انجام دهد.

اصطلاحات یادگیری تقویتی:

در مورد یادگیری تقویتی یک سری اصطلاحات و مفاهیم مهم وجود دارد که ابتدا به توضیح آن‌ها می‌پردازیم:

عامل: یک موجود فرض شده است که برای به دست آوردن پاداش در محیطی اقداماتی را انجام می دهد.

محیط: سناریویی که عامل با آن روبرو می‌شود.

پاداش: عکس العملی نسبت به عامل هنگامی که او عمل یا وظیفه خاصی را انجام می دهد.

حالت: حالت به وضعیت فعلی بازگردانده شده توسط محیط اشاره دارد.

Policy: این یک استراتژی است که توسط عامل برای تصمیم گیری در مورد اقدام بعدی بر اساس وضعیت فعلی اعمال می شود.

تایع ارزش: مقدار کل پاداش را مشخص می‌کند.

مدل محیط: این رفتار محیط را تقلید می کند.به شما کمک می کند تا نتیجه گیری کنید و همچنین نحوه رفتار محیط را تعیین کنید.

روشهای مبتنی بر مدل: این روشی برای حل مشکلات یادگیری تقویتی است که از روشهای مبتنی بر مدل استفاده می کند.

مقدار Q یا مقدار عمل (Q): مقدار Q کاملا شبیه به Value (ارزش) است. تنها تفاوت بین این دو این است که یک پارامتر اضافی را به عنوان یک عمل فعلی می گیرد.

حال به مثال قبل برمیگردیم:

در مثال ذکر شده،گربه عامل و خانه شما محیط است. و یک مثال از حالت می‎‌تواند “گربه نشسته باشد.” در این حالت شما از کلمه خاصی برای راه رفتن استفاده می‌کنید.

حال،عامل ما با انجام عملی از حالتی به حالت دیگر می‌رود. به عنوان مثال، گربه شما از حالت نشسته به راه رفتن می رود.

واکنش یک عامل یک عمل است و Policy روشی است برای انتخاب یک عمل با توجه به وضعیتی که در انتظار نتایج بهتر است. پس از انتقال، آنها ممکن است در عوض پاداش یا مجازات دریافت کنند.

الگوریتم های یادگیری تقویتی:

سه الگوریتم برای این مسئله وجود دارد.

مبتنی بر ارزش:در روش یادگیری تقویت مبتنی بر ارزش، باید سعی کنید تابع مقدارها V را به حداکثر برسانید. در این روش، عامل انتظار بازگشت بلند مدت حالات فعلی تحت سیاست π را دارد.

مبتنی بر سیاست: در این روش متد RL ، شما سعی می‌کنید چنین سیاستی را ارائه دهید تا اقدامی که در هر حالت انجام می شود به شما کمک کند حداکثر پاداش را در آینده بدست آورید.

دو نوع از متدهای سیاست وجود دارد:

قطعی: برای هر محیط، همان عمل توسط سیاست π انجام می شود.
تصادفی: هر عملی دارای احتمال خاصی است که توسط معادله زیر تعیین می شود. سیاست تصادفی:

[n{a\s) = P\A, = a\S, =S

مبتنی بر مدل:در این روش یادگیری تقویتی، شما باید یک مدل مجازی برای هر محیط ایجاد کنید. عامل یاد می گیرد که در آن محیط خاص عمل کند.

انواع یادگیری تقویتی:

دو نوع روش وجود دارد. در ادامه به شرح آن‌ها می‌پردازیم.

مثبت:به عنوان یک رویداد تعریف می شود که به دلیل رفتار خاص رخ می دهد. قدرت و دفعات رفتار را افزایش می دهد و بر عملکرد انجام شده توسط عامل تأثیر مثبت می گذارد.

این نوع تقویت به شما کمک می کند تا عملکرد را به حداکثر برسانید و تغییرات را برای مدت طولانی تری حفظ کنید. با این حال، تقویت بیش از حد ممکن است منجر به بهینه سازی بیش از حد حالت شود، که می تواند نتایج را تحت تأثیر قرار دهد.

منفی:تقویت منفی عبارت است از تقویت رفتاری که به دلیل شرایط منفی رخ می دهد که باید متوقف یا اجتناب شود. به شما کمک می کند تا حداقل وضعیت را تعیین کنید. با این حال ، اشکال این روش این است که به اندازه کافی برای برآوردن حداقل رفتار ارائه می دهد.

الگوهای یادگیری تقویتی:

در یادگیری تقویتی دو مدل یادگیری مهم وجود دارد:

  • فرایند تصمیم گیری مارکوف
  • Q learning

مراحل روش مارکوف:

برای به دست آوردن راه حل از پارامترهای زیر استفاده می شود:

  • مجموعه اعمال
  • مجموعه محیط‌ها
  • پاداش
  • سیاست
  • ارزش

رویکرد ریاضی برای ترسیم راه حل در یادگیری تقویتی به عنوان فرایند تصمیم گیری مارکوف یا (MDP) را در ادامه می‌بینید.

Markov Decision Process

Q-learning:یک روش مبتنی بر ارزش برای ارائه اطلاعات برای اطلاع از اقداماتی است که یک عامل باید انجام دهد.

در ادامه برای درک بهتر به ارائه یک مثال می‌پردازیم. فرض کنید داشته باشیم:

  • در یک ساختمان پنج اتاق وجود دارد که توسط درها به هم متصل می شوند.
  • شماره هر اتاق 0 تا 4 است
  • بیرون ساختمان می تواند یک محوطه بزرگ خارجی باشد (5)
  • شماره  درهای1 تا 4 داخل ساختمان هستند.

Q-Learning

در مرحله بعد، باید مقدار پاداش را به هر درب را محاسبه کنید:

  • درهایی که مستقیماً به هدف منتهی می شوند 100 پاداش دارند
  • درهایی که مستقیماً به اتاق مورد نظر متصل نیست پاداش صفر می دهد
  • درها دو طرفه هستند و برای هر اتاق دو پیکان تعیین شده است
  • هر پیکان در تصویر بالا دارای یک مقدار پاداش است

در تصویر زیر، می توانید مشاهده کنید که اتاق نشان دهنده یک حالت است

حرکت عامل از یک اتاق به اتاق دیگر نشان دهنده یک عمل است

در تصویر زیر، یک حالت به عنوان یک گره توصیف شده است، در حالی که فلش ها عمل را نشان می دهند.

Q-Learning

به عنوان مثال انتقال عامل از اتاق 2 به 5 را در نظر بگیرید.

  • حالت اولیه،اتاق 2 است.
  • از حالت 2 تنها به حالت 3 راه دارد.
  • از حالت 3 به حالت های (2و1و4) می‌توان رفت.
  • از حالت 4 به حالتهای(0و5و3) می‌توان رفت.
  • از حالت 1 به حالت‌های (5و3)
  • از حالت 0 به حالت 4 می‌توان رفت.

مقایسه یادگیری تقوتی در مقابل یادگیری نظارت شده:

پارامترها یادگیری تقویتی یادگیری نظارت شده
سبک تصمیم گیری یادگیری تقویتی به شما کمک می کند تا تصمیمات خود را به صورت دنباله متوالی بگیرید. در این روش، تصمیمی در مورد ورودی داده شده در ابتدا گرفته می شود.
عمل می‌کند روی تعامل با محیط کار می کند. روی نمونه هایی از داده های نمونه داده شده کار می کند.
 وابسته به تصمیم‌گیری در روش RL تصمیم گیری برای یادگیری وابسته است. بنابراین، باید به همه تصمیمات وابسته برچسب بزنید. یادگیری تصمیمات مستقل از یکدیگر، بنابراین برای هر تصمیم برچسب هایی داده می شود.
بهترین موقعیت در هوش مصنوعی، جایی که تعاملات انسانی شایع است، پشتیبانی و کار می کند. بیشتر با یک سیستم نرم افزاری تعاملی یا برنامه های کاربردی کار می کند.
مثال بازی شطرنج شناسایی اشیا

کاربردهای یادگیری تقویتی:

  • رباتیک برای اتوماسیون صنعتی
  • برنامه ریزی استراتژی کسب و کار
  • یادگیری ماشین و پردازش داده ها
  • این به شما کمک می کند تا سیستم های آموزشی ایجاد کنید که دستورالعمل ها و مواد سفارشی را با توجه به نیاز دانش آموزان ارائه دهد.
  • کنترل هواپیما و کنترل حرکت روبات

به چه دلیل از یادگیری تقویتی استفاده می‌کنیم؟

در اینجا دلایل اصلی استفاده از یادگیری تقویتی آورده شده است:

  • این به شما کمک می کند تا دریابید که کدام موقعیت نیاز به عمل دارد.
  • به شما کمک می کند تا دریابید کدام عمل بالاترین پاداش را در مدت زمان طولانی تر به ارمغان می آورد.
  • یادگیری تقویتی همچنین به عامل با عملکرد پاداش یاد می دهد.
  • همچنین به آن اجازه می دهد تا بهترین روش برای به دست آوردن پاداش های بزرگ را پیدا کند.

چه زمانی از یادگیری تقویتی استفاده نکنید؟

در موارد زیر شما نمی توانید از مدل یادگیری تقویتی استفاده کنید. در اینجا شرایطی وجود دارد که نباید از مدل یادگیری تقویتی استفاده کنید.

  • وقتی اطلاعات کافی برای حل مسئله با یک روش یادگیری تحت نظارت دارید.
  • باید به خاطر داشته باشید که یادگیری تقویتی محاسباتی سنگین و وقت گیر است. به ویژه هنگامی که فضای عمل بزرگ است.

چالش‌های یادگیری تقویتی:

در اینجا مهمترین چالش هایی که هنگام استفاده از یادگیری تقویتی با آنها روبرو خواهید شد آمده است:

  • طراحی ویژگی/پاداش که باید بسیار دخیل باشد.
  • پارامترها ممکن است بر سرعت یادگیری تأثیر بگذارند.
  • محیط های واقع بینانه می توانند از قابلیت مشاهده جزئی برخوردار باشند.
  • تقویت بیش از حد ممکن است منجر به بارگذاری بیش از حد حالات شود که می تواند نتایج را کاهش دهد.
  • محیطهای واقع بینانه می توانند غیر تغییر باشند.

 

اشتراک گذاری:
برچسب ها: یادگیری تقویتی
در تلگرام
کانال ما را دنبال کنید!
در اینستاگرام
ما را دنبال کنید!

مطالب زیر را حتما مطالعه کنید

شبکه های عصبی

شبکه خودرمزنگار متغیر (variational autoencoder) چیست؟

درک خودرمزنگارهای متغیر (VAEs) از دو منظر: یادگیری عمیق و مدل‌های گرافیکی. چرا محققان یادگیری...

الگوریتم AlphaZero

الگوریتم AlphaGo اگر دنیای هوش مصنوعی را دنبال می کنید، احتمالا در مورد AlphaGo شنیده...

یادگیری تقویتی: فرایند تصمیم گیری مارکوف (قسمت 1)

یادگیری تقویتی (RL) در یک مسئله معمول یادگیری تقویتی (RL)، یک زبان آموز و تصمیم...

دیدگاهتان را بنویسید لغو پاسخ

جستجو برای:
دسته‌ها
  • ابزارها
  • الگوریتم های تکاملی
  • الگوریتم های جستجو
  • پایتون
  • پردازش تصویر
  • پردازش صوت
  • خوشه بندی
  • داده کاوی
  • دانشجویان کارشناسی
  • دسته‌بندی نشده
  • رگرسیون
  • سایر مباحث
  • سیستم های خبره
  • عامل های منطقی
  • علم داده
  • کلاس بندی
  • کلان داده
  • مطالب آموزشی
  • مفاهیم اولیه
  • مقالات
  • منطق فازی
  • ویدئو
  • یادگیری تقویتی
  • یادگیری عمیق
  • یادگیری ماشین
نوشته‌های تازه
  • منحنی AUC-ROC در یادگیری ماشین
  • درک منحنی AUC – ROC
  • چرحه حیات یادگیری ماشین
  • تشخیص جنسیت و سن افراد با کتابخانه OpenCV
  • تاثیر هایپرپارامترها در مدل یادگیری عمیق
درباره آکادمی ویرا

ما یک گروه علاقمند در زمینه های مختلف هوش مصنوعی هستیم که دغدغه اصلی ما آموزش زمینه های مختلف هوش به روش ساده و مفهومی است.

  • تهران، یوسف آباد، خ چهلم ، پلاک 17
  • 09127449140
  • viraai.ackademy@gmail.com
فهرست سفارشی
  • صفحه اصلی اول
  • بلاگ
  • تماس با ما
  • حساب کاربری من
  • درباره ما
  • سبد خرید
  • فروشگاه

تمامی حقوق برای سایت آکادمی ویرا محفوظ می باشد.

ورود

رمز عبور را فراموش کرده اید؟

هنوز عضو نشده اید؟ عضویت در سایت