hoje 14/07/2020 tem 6 dislaike no video, eu fico pensando quem são essas figuras que fazem isso, o cara esta passando o conhecimento de graça e tem zé ruela que dá dislike, ah vão catar coquinho .
@@CleberCampos já passou pela cabeça de vocês que é impossível agradar todo mundo? uma didática que é boa pra vocês pode não ser boa pra outras pessoas, isso não quer dizer que o cara é um "Zé Ruela com inveja alheia"
Pra mim, esse vídeo foi super didático, simples e objetivo. Tudo que eu queria. O prof. da minha faculdade simplesmente copiou o exemplo do livro sem explicar nada, sozinha consegui entender os cálculos, mas faltou a explicação final, que aqui no Didática Tech foi sensacional. Nota mil!
Comecei a estudar ML agora e sempre achei tudo tão complicado, mas você me mostrou que com uma boa didática da pra aprender. Muito obrigado pela aula!!
Oi João, aqui no canal vamos postando vídeos periodicamente, mas se você quiser acelerar, temos essas aulas prontas e detalhas em nosso curso de machine learning, módulo II: didatica.tech/curso-de-machine-learning-2-com-python/
Caros, vocês têm algum vídeo explicativo da função predict no R Studio? Como ela funciona ou se baseia? Didática de vocês sensacional. Parabéns e obrigado.
Professor, gosto muito das sua aulas mas fiquei com essa dúvida, gostaria, se possível, que o senhor me explicasse. Porque no segundo exemplo da entropia a "IM" ficou com 0,65, consequentemente o "NÃO" ficou com 0,35? Não seria o certo do "SIM" ficar com 0,80? Porque o "NÃO" com apenas 1 chance em 6 ficou com 35% das oportunidades? Um grande abraço e parabéns!
Terminei o ensino médio agora, e não deixei de notar que esse sistema de classificação é bem parecido com o que se vê em química, quando temos que descobrir quais as concentrações de substâncias que quando alteradas, modificam também velocidade, pra assim definir a fórmula da velocidade de reação, pelo que observei é mesma lógica certo ?
Uma dúvida, eu posso criar um algoritimo para prever as outras combinações, nesse caso, vimos que a função tem o ganho de informação 1, porém podemos perceber que caso houvesse uma combinação diferente, por exemplo, alto, perto e desinteressante, poderia ocorrer um target SIM, é possível o algorítimo prever algo que ele não treinou?
5 років тому
Sim Jean, essa é a ideia. Na vida real os dados são imperfeitos e o algoritmo irá dar o seu melhor palpite.
Professor, e quando nossas informações são todas quantitativas? por exemplo colunas de preços, porcentagens e área... Como poderia aplicar esse conceito para descobrir os nódulos pai e filhos?
4 роки тому
Oi Marcio, nós mostramos isso no curso Módulo I: didatica.tech/curso-de-machine-learning-online-com-python/
estou bem interessado no curso, mas minha dúvida é: o curso vai do basico ao avançado, ou quando eu terminar o curso precisarei fazer outro para poder implementar maching learning em sistemas reais?
4 роки тому
O curso é bastante prático, mostramos vários usos de caso em datasets reais
professor,em um video na web vi um cara ensinando mas sem calcular o peso, calcular GI sem peso ta certo?
5 років тому+1
Existem outras formas de se calcular o ganho de informação, mas que chegam no mesmo resultado. Se o método usado não for equivalente ao mostrado nesse vídeo, aí sim estaria errado
Pensam em disponibilizar o curso completo (pago) em alguma plataforma como udemy?
5 років тому
Olá Gilian, o curso completo já está disponível em nosso site. Segue o link: didatica.tech/cursos-machine-learning-diferenciados-pela-didatica-aprendizado/
Alguém percebeu que o único fator real de decisão era se o trabalho era interessante ou não? Sabendo disso, o que fazemos com os dados? Eliminados as duas primeiras variáveis ou organizamos de outra maneira?
4 роки тому+1
Nesse caso poderia eliminar sim. Mas em problemas reais, dificilmente uma única variável conseguirá explicar tudo sozinha
Se o ganho de informação da variável função não tivesse sido 1, ou seja, se os dados não tivessem ficado bem classificados usando apenas essa variável, como ficaria a construção da árvore? Essa parte não ficou clara pra mim.
Na verdade na física a entropia não está muito longe disso. Quando estudamos física estatística a entropia é definida por essa fórmula mas a probabilidade está relacionado aos microestados possíveis no sistema.
Caracas, aula sensacional! Pra treinar, eu estou tentando fazer um exercício parecido no python, mas descobri que tem algo que não tá dando certo. Eu quero contar, em uma coluna específica, os dados que contenham a palavra 'Sim'. Só que quando uso count() ele conta quantos itens tem em toda coluna. Já tentei fazer algo do tipo tabela.count('Sim') mas não tá dando certo. Enfim, rodei a playlist mas não encontrei. Se alguém puder me dar uma luz onde estou errando, serei grato**2: import pandas as pd dicio = {'':['Europa','Asia','EUA','Austr','Russia'], 'Custo':['Baixo','Alto','Alto','Alto','Baixo'], 'Interesse':['Medio','Medio','Alto','Alto','Medio'], 'Clima':['Frio','Frio','Frio','Calor','Frio'], 'Status':['Nao','Nao','Sim','Sim','Nao']} tab = pd.DataFrame (dicio) print (tab) Et_ps = tab ['Status'].count('Sim')
5 років тому
Oi Wesley, Você pode contabilizar todos os valores da coluna usando tab ['Status'].value_counts() Ou ainda contabilizar um termo específico tab['Status'].groupby('Sim').count()
@ Não funcionou, deu erro. Mas eu consegui fazer da seguinte forma: tab2 = tab["Status"] tab3 = tab2[tab['Status'] == 'Sim'].count() Provavelmente não é a mais eficiente haha
pô queria que meu professor da facul tivesse essa didática, obrigado por compartilhar esse conhecimento, salvou minha vida Muito obrigado
hoje 14/07/2020 tem 6 dislaike no video, eu fico pensando quem são essas figuras que fazem isso, o cara esta passando o conhecimento de graça e tem zé ruela que dá dislike, ah vão catar coquinho .
@@CleberCampos já passou pela cabeça de vocês que é impossível agradar todo mundo? uma didática que é boa pra vocês pode não ser boa pra outras pessoas, isso não quer dizer que o cara é um "Zé Ruela com inveja alheia"
@@mariorossattijunior5189 Penso que seria importante quem não gostou comentar onde está o problema, não só dar o voto negativo.
Pra mim, esse vídeo foi super didático, simples e objetivo. Tudo que eu queria. O prof. da minha faculdade simplesmente copiou o exemplo do livro sem explicar nada, sozinha consegui entender os cálculos, mas faltou a explicação final, que aqui no Didática Tech foi sensacional. Nota mil!
Bacana! E qual livro seu professor usou?
Conteúdo de altíssima qualidade! 🔥🔥🔥
Excelente a simplicidade na explicação. Parabéns!
Sua explicação ficou bem melhor do que se tem nos livros. Agradeço.
Genial, você é muito didático e passou o conhecimento de forma tão tranquila que até parece fácil! Rs Obrigada por compartilhar conhecimento!
Muito obrigada pela aula!!!! Sua didática é incrível.
Que aula sensacional. Parabéns pelo empenho e pela didática!
Aula top, estou no semestre estudando inteligência artificial e não chega aos pés da sua explicação, ótima didática.
Aula foda. Vim revisar conteúdo e acabei aprendendo mais. Gratidão!
Aula fantástica!
Muito bom heim, aprendi direitinho.
Vídeo aula, incrível! Perfeitamente explicada! 👏🏻
Excelente aula. Parabéns pela didática!
Cara, seus vídeos são muito bons. Espero para que seu canal cresça muito.
Obrigado por ter compartilhado seu conhecimento!!
Perfeito! Suas aulas são muito boas!
impossível não entender! Vídeo excepcional.
Estou com planos de começar o curso de Ciencia da Computação e essas aulas tem me motivado bastante.
Excelente didática !
ótimo vídeo!
Cara da aula de violão e de machine learning hahah que foda.
Simplesmente brilhante👏👏👏👏👏.
Parabéns pela didática.
Cara muito obrigado, esse video fui interessante e 100% facil de entender.
Você é incrível, grato
Fantástico! Obrigada pela aula
Excelente didática e conteúdo. Meus parabéns.
Muito bom. Obrigado por compartilhar.
Parabéns pelo trabalho, ótima didática!
Parabéns, excelente explicação. Continue assim. Abraços!!
Comecei a estudar ML agora e sempre achei tudo tão complicado, mas você me mostrou que com uma boa didática da pra aprender. Muito obrigado pela aula!!
Obrigada!! Muito bom colocado. Parabéns!!! Você deu uma ótima aula PARABENS!!!
É, quem sabe sabe..kkk...parábens por compartilhar!!!
Sensacional a aula. Explica muito bem!!!
Excelente explicação, fiquei curioso de aprofundar no assunto
Excelente aula! Parabéns!
Ganhou um inscrito pro resto da vida.
Obrigada pelo conteúdo de excelência.
Excelente. Meus parabéns e obrigado
Parabéns pela explicação, muito bom!
Poderia explicar a diferença do ID3 para o C4.5, o que muda?
ué esse cara da aula de musica e tambem de ML! hahahah, excelente.
Praticamente todo músico é programador!!!
Aula show! Obrigada!
sensacional, muito obrigado!
Excelente didática. Parabéns!
Obrigado por compartilhar esse conhecimento
Faz de floresta de decisão e SVM, por favor
Oi João, aqui no canal vamos postando vídeos periodicamente, mas se você quiser acelerar, temos essas aulas prontas e detalhas em nosso curso de machine learning, módulo II: didatica.tech/curso-de-machine-learning-2-com-python/
Caros, vocês têm algum vídeo explicativo da função predict no R Studio? Como ela funciona ou se baseia? Didática de vocês sensacional. Parabéns e obrigado.
Olá! Sim, segue: ua-cam.com/video/u1p2c-C2guo/v-deo.html
Muito obrigado por essa aula, me ajudou bastante. Realmente uma didática incrível, queria que meus profs fossem assim. HAHAHAH
Excelente vídeo e poderia passar o link da segunda parte Professor......?
Muito bom o vídeo, bem explicado! Parabéns!
excelente explicação!!!!
Muito boa, aula!
Faz um vídeo sobre a identificação de tópicos em textos com o algoritmo LDA, prfv!
Parabéns
Muito bom! Parabéns!
Muito bom!!!!👏👏
Mt obg!!
maluco é brabo demais
Professor, gosto muito das sua aulas mas fiquei com essa dúvida, gostaria, se possível, que o senhor me explicasse. Porque no segundo exemplo da entropia a "IM" ficou com 0,65, consequentemente o "NÃO" ficou com 0,35? Não seria o certo do "SIM" ficar com 0,80? Porque o "NÃO" com apenas 1 chance em 6 ficou com 35% das oportunidades? Um grande abraço e parabéns!
Muito bom. grato.
Esse algoritmo em mineração de dados seria a mesma coisa que discretização baseada em entropia?
obrigado !
os softwares na prática já realizam toda essa análise não é? parabéns, excelente aula.
Sim, mas é importante entender o que eles fazem por baixo dos panos
Terminei o ensino médio agora, e não deixei de notar que esse sistema de classificação é bem parecido com o que se vê em química, quando temos que descobrir quais as concentrações de substâncias que quando alteradas, modificam também velocidade, pra assim definir a fórmula da velocidade de reação, pelo que observei é mesma lógica certo ?
Olá professor,
Parabéns pela aula.
O vídeo sobre como construir DT a partir do índice Gini está disponível? pois não encontrei
Obrigado.
Oi Willian, esse vídeo está dentro do curso pago: didatica.tech/curso-de-machine-learning-online-com-python/
Genial!
Que aula!
Excelente
Parabéns!
Uma dúvida, eu posso criar um algoritimo para prever as outras combinações, nesse caso, vimos que a função tem o ganho de informação 1, porém podemos perceber que caso houvesse uma combinação diferente, por exemplo, alto, perto e desinteressante, poderia ocorrer um target SIM, é possível o algorítimo prever algo que ele não treinou?
Sim Jean, essa é a ideia. Na vida real os dados são imperfeitos e o algoritmo irá dar o seu melhor palpite.
Excelente!
parabens
To comentando pq n posso curtir 2 vezes. Vídeo mto bom
:) obg pela aula
Muito bom!!!
Boa tarde ! Então quanto mais balanceado mais dificil é de se fazer a classificação ? É isso ?
Sim, pois significa que não há clareza sobre o que está influenciando os resultados
Boa Aula,,, indique bibliografia
Uma classificação perfeita não gera overfitting?
Professor, e quando nossas informações são todas quantitativas? por exemplo colunas de preços, porcentagens e área... Como poderia aplicar esse conceito para descobrir os nódulos pai e filhos?
Oi Marcio, nós mostramos isso no curso Módulo I: didatica.tech/curso-de-machine-learning-online-com-python/
Faltou o artigo dessa metodologia para referenciar? Vou referenciar youtube? 😆
Muito bom. Parabéns pela explicação. Tem algum exemplo de decision tree em python?
Oi Bruno, em nosso curso mostramos vários exemplos e exercícios: didatica.tech/curso-de-machine-learning-online-com-python/
estou bem interessado no curso, mas minha dúvida é: o curso vai do basico ao avançado, ou quando eu terminar o curso precisarei fazer outro para poder implementar maching learning em sistemas reais?
O curso é bastante prático, mostramos vários usos de caso em datasets reais
Top!!!
O Ganho de informação varia de 0 a 1 também ?
Demais!
bom d+
Parabéns pelo vídeo. Gostaria de fazer uns cursos com vc, então desejo informações sobre valores, qual o contato de vcs?
Oi Valberto, os detalhes estão aqui: didatica.tech/cursos-machine-learning-diferenciados-pela-didatica-aprendizado/
Boa tarde!
Gostaria de saber se vocês prestam serviços relacionados a ML. Em caso afirmativo, qual o contato?
Obrigado!
Uai achei q tava vendo algum vídeo de teoria musical!!!
O curso do site se pagar é vitalício o acesso?
Sim
professor,em um video na web vi um cara ensinando mas sem calcular o peso, calcular GI sem peso ta certo?
Existem outras formas de se calcular o ganho de informação, mas que chegam no mesmo resultado. Se o método usado não for equivalente ao mostrado nesse vídeo, aí sim estaria errado
@ AAA sim entendi, obrigado pela atenção, vídeo perfeito!
Explica demais.
print("Parabéns!")
Os ramos são sempre binários?
Sim!
Pensam em disponibilizar o curso completo (pago) em alguma plataforma como udemy?
Olá Gilian, o curso completo já está disponível em nosso site. Segue o link: didatica.tech/cursos-machine-learning-diferenciados-pela-didatica-aprendizado/
Alguém percebeu que o único fator real de decisão era se o trabalho era interessante ou não?
Sabendo disso, o que fazemos com os dados? Eliminados as duas primeiras variáveis ou organizamos de outra maneira?
Nesse caso poderia eliminar sim. Mas em problemas reais, dificilmente uma única variável conseguirá explicar tudo sozinha
Se o ganho de informação da variável função não tivesse sido 1, ou seja, se os dados não tivessem ficado bem classificados usando apenas essa variável, como ficaria a construção da árvore? Essa parte não ficou clara pra mim.
A explicação foi excelente, mas o exemplo não foi muito bom porque me pareceu um caso muito ideal que não mostra todos os passos.
tô aqui pelo TCC
Na verdade na física a entropia não está muito longe disso. Quando estudamos física estatística a entropia é definida por essa fórmula mas a probabilidade está relacionado aos microestados possíveis no sistema.
Caracas, aula sensacional!
Pra treinar, eu estou tentando fazer um exercício parecido no python, mas descobri que tem algo que não tá dando certo. Eu quero contar, em uma coluna específica, os dados que contenham a palavra 'Sim'. Só que quando uso count() ele conta quantos itens tem em toda coluna. Já tentei fazer algo do tipo tabela.count('Sim') mas não tá dando certo. Enfim, rodei a playlist mas não encontrei. Se alguém puder me dar uma luz onde estou errando, serei grato**2:
import pandas as pd
dicio = {'':['Europa','Asia','EUA','Austr','Russia'],
'Custo':['Baixo','Alto','Alto','Alto','Baixo'],
'Interesse':['Medio','Medio','Alto','Alto','Medio'],
'Clima':['Frio','Frio','Frio','Calor','Frio'],
'Status':['Nao','Nao','Sim','Sim','Nao']}
tab = pd.DataFrame (dicio)
print (tab)
Et_ps = tab ['Status'].count('Sim')
Oi Wesley, Você pode contabilizar todos os valores da coluna usando tab ['Status'].value_counts()
Ou ainda contabilizar um termo específico tab['Status'].groupby('Sim').count()
@ Não funcionou, deu erro. Mas eu consegui fazer da seguinte forma:
tab2 = tab["Status"]
tab3 = tab2[tab['Status'] == 'Sim'].count()
Provavelmente não é a mais eficiente haha
Resumindo em python :
sol, vento, covid19 = 0, 0, True
if sol > 50.00 and vento < 50.00 and covid19 == False:
# -> praia
else:
# -> casa