Q-learning - Explained!

Поділитися
Вставка
  • Опубліковано 4 гру 2024

КОМЕНТАРІ • 30

  • @henoknigatu7121
    @henoknigatu7121 8 місяців тому +11

    Your 12 min video worth than all the playlist about q-learning on youtube👏

  • @anya_forgerrr
    @anya_forgerrr 10 місяців тому +4

    i watched so many vids in RL, but this ones the best when it comes to explaining and breaking down the formulas 😭❤thankuskajhjhc

  • @jane7354
    @jane7354 Місяць тому

    Thank you from the bottom of my heart!

  • @Prism684
    @Prism684 5 днів тому

    You deserve a tons of like!!!

  • @akshaypansari111111
    @akshaypansari111111 Рік тому +4

    Really enjoying the series. Keep it up

    • @CodeEmporium
      @CodeEmporium  Рік тому +1

      Thanks so much! Super glad you are enjoying this

  • @rayhanmemon
    @rayhanmemon 18 днів тому

    This was brilliantly explained. Thank you!

  • @MarcoBarretoBittner
    @MarcoBarretoBittner 14 днів тому

    Wow, you are really good at explaining things. Thank you!

  • @arandomwho
    @arandomwho 8 місяців тому

    Thanks, for your pretty efficient good quality videos! not only save time but also gives a complete understanding of topic😍

  • @Ankara_pharao
    @Ankara_pharao Рік тому +2

    What classical tasks are solved by off-policy algorithms? Do we use it to write bots that solves simple computer games?

  • @AfizudeenSMathematics
    @AfizudeenSMathematics 10 днів тому

    Explained well sir!!

  • @hassanahmedkhan3834
    @hassanahmedkhan3834 5 місяців тому

    Excellent Explanation, hats off.

  • @justsomegirlwithoutamustac5837
    @justsomegirlwithoutamustac5837 8 місяців тому

    This is so underrated

  • @ZaidMohammadIbrahim
    @ZaidMohammadIbrahim 3 місяці тому +1

    great explanation

  • @lanhaoo
    @lanhaoo Місяць тому

    your video is really useful!!! thanks a lot

  • @marlonbrando6826
    @marlonbrando6826 3 місяці тому

    Question to the last point you mention: We repeat the procedure many times until the values in the q-table don't change much anymore. Is that considered to be some form of Monte Carlo (within Q-learning)? Enjoy your videos btw, great work!

  • @bestdy8778
    @bestdy8778 4 місяці тому

    wonderful video! Than you!

  • @teewenhui2717
    @teewenhui2717 15 днів тому

    amazing.

  • @sameertupe6094
    @sameertupe6094 7 місяців тому

    Very Well explained by you sir,It helped alot

  • @abdom-p2k
    @abdom-p2k 6 місяців тому

    thank you so much that was so helpful

  • @tonihullzer1611
    @tonihullzer1611 8 місяців тому

    very good explained, thanks a lot!

  • @梁大可-l5h
    @梁大可-l5h 6 місяців тому

    Thank you so much!!!!!!!!!!!!

  • @Shrimant-ub4ul
    @Shrimant-ub4ul 5 місяців тому

    thank u so much

  • @burakkurt1907
    @burakkurt1907 6 місяців тому

    Allah razı olsun

  • @leyao1858
    @leyao1858 3 місяці тому

    This is epic

  • @khabibownsmysoul7836
    @khabibownsmysoul7836 7 місяців тому

    May be wrong I am not an expert but isn’t the Bellman equation supposed to add the reward of the S1 not S2?

  • @djsocialanxiety1664
    @djsocialanxiety1664 9 місяців тому

    thanks man

  • @friedrichwilhelmhufnagel3577

    Instead of saying grid you could say almost say DFA

  • @MrHorse16
    @MrHorse16 Рік тому

    Q*

  • @World-Of-Mr-Motivater
    @World-Of-Mr-Motivater 4 місяці тому

    bro how you are speaking like an american?
    suggest me some tips as well