ENTENDA REDES NEURAIS RECORRENTES (RNN) | Redes Neurais e Deep Learning 11

Поділитися
Вставка
  • Опубліковано 11 січ 2025

КОМЕНТАРІ • 14

  • @tiagosouzasilva6649
    @tiagosouzasilva6649 Рік тому +2

    Mais uma vez, Lucas sendo MUITO didático. Vou precisar implementar uma LSTM aqui e aprendi muito com este vídeo. Parabéns!!!

  • @miltonborges7356
    @miltonborges7356 Рік тому

    Este video me ajudou muito há um tempo atrás. Voltando para refrescar o conteúdo

  • @andreramos3290
    @andreramos3290 2 роки тому

    Excelente. Parabéns!

  • @rosanefalate6458
    @rosanefalate6458 7 місяців тому

    Parabéns pelo conteúdo!

  • @paulolima2292
    @paulolima2292 2 роки тому

    Ótima didática.

  • @lucastavares7767
    @lucastavares7767 2 роки тому +1

    Mega aulão prof Lucas😃👏📚

  • @Gamer-tm7nu
    @Gamer-tm7nu 2 роки тому

    Opa, eu tava mesmo procurando um conteúdo de qualidade sobre esse assunto :)

  • @livia2774
    @livia2774 2 роки тому

    seus vídeos sempre com qualidade! Parabéns!

  • @SickMantv
    @SickMantv 2 роки тому

    tem como fazer um video teorico sobre window size e batch size?

  • @mateuslima126
    @mateuslima126 2 роки тому

    Muito bom!

  • @SickMantv
    @SickMantv 2 роки тому +1

    não entendi muito bem a parte do back propagation da rnn normal. Ela não consegue lembrar de memorias longas porque quando propaga para trás as informação antigas tem um peso ttão pequeno que serão ignoradas?

    • @UniversoDiscreto
      @UniversoDiscreto  2 роки тому +3

      isso! essas memórias são representadas numericamente por valores pequenos (tipo 0,001...) que são multiplicadas por outros valores igualmente pequenos com o tempo. com isso, as informações antigas vão sumindo, em detrimento das mais recentes.

  • @inovastar
    @inovastar Рік тому

    Olá.. que tal uma parceria? fiz um programa em píton para compra/venda de ativos bem assertivo, porém penso que uma rede neural ficaria perfeito. Por isso preciso de uma parceria para adaptar a rede neural neste soft. Caso lhe interesse, pode ser uma muito boa, pois com um RN a coisa é de 87 a 97 % de acertividade...pensa ai e me diga, valeu!

  • @RickandMorty-dt1md
    @RickandMorty-dt1md Рік тому

    analogia: filme o vidente. essa back propagation esta errada, pois é como se você reconhecesse erros pra vários instantes no tempo sem descriminalização. logo oque você estaria visando? não faz sentido propagar tudo junto de uma vez. cada decisão errada já esta sendo realinhada, oque se deseja é corrigir o realinhamento [cada ação tomada], mas pra isso devesse saber o Whh em cada instante de tempo tendo quantidade t. assim ao acabar a t recursão o Why seria reajustado e apos isso o recursao anterior . mas não bem isse o problema. o problema é que a bomba não deve apagar oque o vidente aprendeu em combate, logo a back propagation deve ser de outra forma. devesse fazer a backpropagation em cada instante apos [se iterar gerando uma nova resposta] assim ja se memoriza o aprendizado. alem disso o lance de somar os erros não faz sentido, ja que o contexto do final que seria responsavel em classificar o peso de cada erro a depender da meta. e tomando a analogia do filme, so seria ajustado o peso de uma ação muito no passado pois foi reajustado o y/aMeta, garantido oque o vidente aprendeu sobre combate. não sei sobre Rnn mas podemos fazer uma analogia logica da logica em aprendizado