Aula 21 - Tensor Flow - Keras - Redes Neurais - MNIST

Meu github:

https://github.com/toticavalcanti

Documentação oficial do TensorFlow:

https://www.tensorflow.org/

Quer aprender python3 de graça e com certificado? Acesse então:

https://workover.com.br/python-codigo-fluente

Se gostarem do conteúdo dêem um joinha 👍 na página do Código Fluente no Facebook

https://digitalinnovation.one/

Aproveito para deixar meus link de afiliados:

Hostinger

Digital Ocean

One.com

Toti:

https://www.youtube.com/channel/UCUEtjLuDpcOvR3mIUr-viOA

Backing track / Play-along:

https://www.youtube.com/channel/UCT3TryVMqTqYBjf5g5WAHfA

Código Fluente

https://www.youtube.com/channel/UCgn-O-88XBAwdG9gUWkkb0w

Putz!

https://www.youtube.com/channel/UCZXop2-CECwyFYmHbhnAkAw

Fiquem a vontade para me adicionar ao linkedin.

Notebook da aula

Aula 21 - Tensor Flow - Keras - Redes Neurais - MNIST

Adicionando mais camadas

Vamos começar adicionando 4 camadas intermediárias ao modelo para melhorar o desempenho. Depois vamos substituir todas as sigmóides por RELUs para obter uma convergência inicial mais rápida. Utilizaremos o otimizador GradientDescentOptimiser, depois trocaremos ele pelo otimizador AdamOptimizer. Vamos também treinar a rede usando dropouts, que é uma técnica de regularização que indica quando o treinamento não está mais tendo um efeito positivo. No dropout, a cada iteração de treinamento, são eliminados neurônios aleatórios da rede.

É isso, partiu notebook.

Por essa aula é só.

Meu github:

https://github.com/toticavalcanti

Se gostarem do conteúdo dêem um joinha 👍 na página do Código Fluente no Facebook

Link do código fluente no Pinterest

Novamente deixo meus link de afiliados:

Hostinger

Digital Ocean

One.com

Obrigado, até a próxima e bons estudos. ;)