Muito bom professor, achei muito bacana toda a construção do prompt system e a temperatura pra melhorara os resultados, nao tinha nem ideia disso, e a primeira achei top de mais esse algoritimo Backtracking. Sobre o exec para evitar algo que nao seja esperado, creio que no caso no python daria pra usar o assert, validando de forma isolada antes o comando de algo esperado passado resultado da IA Ex: exec("assert len(cores) == 3") ou uma sequencia de asserts pra poder liberar meio que a execução do prompt nao isolado
Já tava com saudades de suas aulas... Bom receber a notificação de um novo vídeo... Professor... o senhor ensina muito bem!!! Obrigada por compartilhar seus conhecimentos!!
Muito bom professor, achei muito bacana toda a construção do prompt system e a temperatura pra melhorara os resultados, nao tinha nem ideia disso, e a primeira achei top de mais esse algoritimo Backtracking.
Sobre o exec para evitar algo que nao seja esperado, creio que no caso no python daria pra usar o assert, validando de forma isolada antes o comando de algo esperado passado resultado da IA
Ex: exec("assert len(cores) == 3") ou uma sequencia de asserts pra poder liberar meio que a execução do prompt nao isolado
Opa Matheus, muito obrigado! De fato precisamos de etapas pra validar se o modelo está escrevendo o código correto. Ótima sugestão
Já tava com saudades de suas aulas... Bom receber a notificação de um novo vídeo... Professor... o senhor ensina muito bem!!! Obrigada por compartilhar seus conhecimentos!!
Muito, muito obrigado pelo feedback!! 😊
Assim animo pra lançar cada vez mais 🏋️♀️
Parabéns, professor!
O conteúdo que está sendo entregue em seus vídeos é ouro, ainda mais em português e de forma gratuita. 👏
Muito obrigado meu amigo, esse é o objetivo e fico realizado em ver o aprendizado por aqui! 😊