Rede Neural Artificial - Perceptron de Múltiplas Camadas (MLP) - com Python e Scikit-Learn

Поділитися
Вставка
  • Опубліковано 15 гру 2024

КОМЕНТАРІ • 17

  • @Yvis25
    @Yvis25 2 роки тому +1

    Que aula incrível! Parabéns pela didática, pelo conhecimento(propriedade do assunto transmitida, foi formidável!

  • @junilopes
    @junilopes 3 роки тому +1

    Que aula, senhoras e senhores!
    Ajudou demais!
    Muito obrigado!

  • @carloscosta4713
    @carloscosta4713 Рік тому

    Parabéns pelo excelente trabalho. Ganhou mais um inscrito no canal!!!

  • @pedrovieira9339
    @pedrovieira9339 3 роки тому +1

    Excelente aula, parabéns.

  • @fernandas.carvalho6223
    @fernandas.carvalho6223 3 роки тому +1

    Ótimo vídeo! Muito explicativo

  • @leticialopes6098
    @leticialopes6098 2 роки тому +1

    ótimo conteúdo.

  • @dwj6506
    @dwj6506 Рік тому

    estou modelando um código igual no jupyter-lab, porém, quando executo Y_rna_previsao = rna.predict(X_norm_test) ocorre o seguinte erro:
    This MLPRegressor instance is not fitted yet. Call 'fit' with appropriate arguments before using this estimator.

  • @cesarroberto9170
    @cesarroberto9170 Рік тому

    Sua aula me ajudou a entender alguns conceitos na minha pesquisa no mestrado que estou realizando na UEG/Anápolis. Queria saber qual o link para essa aula que vc mencionou no final deste vídeo, na qual ensinaria como utilizar MLP para um problema de classificação?

  • @potojunior
    @potojunior 2 роки тому

    Você fez a normalização para os dados X mas não fez para Y. Não deveria aplicar o StandartScaler em ambos os dados?

    • @fernandogalvao1511
      @fernandogalvao1511 2 роки тому

      A normalização é feita nas variáveis explicativas (X), já que alguns modelos de ML tem performance melhor com os dados normalizados. E variável resposta (y) não se aplica a normalização para não "descaracterizar" os dados e/ou gerar vazamento de informação.
      Note que, quando se realiza a comparação graficamente das previsões geradas pelos modelos fazemos a operação inversa.

  • @thiagocunha6339
    @thiagocunha6339 3 роки тому

    O vídeo para o problema de classificação já está disponível? Abraços

  • @guilhermealves2398
    @guilhermealves2398 4 роки тому +1

    OLá, após a inserção de mais variáveis no seu X como fica seu gráfico comparando os algoritmos no final, tendo em vista que agora seu X tem Y tem tamanhos diferentes, o que realmente voce compararia no final ?

    • @liitufg5823
      @liitufg5823  4 роки тому

      Excelente pergunta Guilherme. Neste caso fazemos a comparação através de uma métrica, por exemplo, o R^2 (R-quadrado), veja mais em pt.wikipedia.org/wiki/Coeficiente_de_determina%C3%A7%C3%A3o.
      Em termos gráficos, a princípio é difícil comparar os dois gráficos quando se utiliza muitas variáveis. Caso tenha duas variáveis de entrada é necessária prever a autonomia no eixo de profundidade (z), acima de três variáveis de entrada não seria possível visualizar a autonomia (quarta dimensão). Entretanto, o que é de praxe fazer é trabalhar com uma variável (peso) e fixar as outras (aceleração, número de cavalos). Isto possibilita gerar o gráfico e comparar os dois métodos.

  • @danielnakamura6430
    @danielnakamura6430 2 роки тому

    Existe valor de p em redes neurais?

  • @MarceloUdoMSc
    @MarceloUdoMSc 10 місяців тому

    Aula Show!!!
    Será que o dataset mudou de lá para cá?
    Porque meus R²
    deram:
    R² RNA: 0.7227126560293362
    R² RL : 0.6940760563453443

    • @MarceloUdoMSc
      @MarceloUdoMSc 10 місяців тому

      Coloquei Random_state = 31 no rna e rl.
      R² RNA: 0.7254569559461865
      R² RL : 0.7005267548799164
      Eu ainda estou precisando saber:
      - Quando parar?
      - Quando está com under e overfitting?

  • @NayT0N
    @NayT0N 3 роки тому

    Boa demonstração, porém usou apenas uma variável no X. Seria bom montar um modelo considerando todas as variáveis.