Aula 24 - Tensor Flow - Keras - Conjunto de dados CIFAR-10
Meu github:
Documentação oficial do TensorFlow:
Quer aprender python3 de graça e com certificado? Acesse então:
Se gostarem do conteúdo dêem um joinha 👍 na página do Código Fluente no
Facebook
Aproveito para deixar meus link de afiliados:
Toti:
Backing track / Play-along:
Código Fluente
Putz!
Fiquem a vontade para me adicionar ao linkedin.
Aula 24 - Tensor Flow - Keras - Conjunto de dados CIFAR-10
CIFAR-10
CIFAR é um acrônimo que significa
Canadian Institute For Advanced Research (
Instituto Canadense de Pesquisa Avançada) e o conjunto de dados
CIFAR-10 foi desenvolvido junto com o conjunto de dados
CIFAR-100 por pesquisadores do instituto
CIFAR.
O conjunto de dados é composto por
60.000 fotografias coloridas de
32 × 32 pixels de objetos de
10 classes, como
sapos,
pássaros,
gatos,
navios, etc.
Os rótulos da classe e seus valores inteiros associados padrão estão listados abaixo.
- 0: airplane (avião)
- 1: automobile (automóvel)
- 2: bird (pássaro)
- 3: cat (gato)
- 4: deer (veado)
- 5: dog (cachorro)
- 6: frog (sapo)
- 7: horse (cavalo)
- 8: ship (navio)
- 9: truck (caminhão)
Essas são imagens muito pequenas, muito menores do que uma fotografia típica, e o conjunto de dados foi planejado para pesquisa de visão computacional.
O
CIFAR-10 é um conjunto de dados bem conhecido e amplamente utilizado para referência na medição de algoritmos de visão computacional no campo de aprendizado de máquina.
O problema está resolvido.
É relativamente simples alcançar uma precisão de classificação de
80%.
O melhor desempenho no problema é alcançado por
redes neurais convolucionais com uma precisão de classificação pouco
acima de
90% no conjunto de dados de teste.
VGG (Visual Geometry Group)
Usaremos o
VGG (
Visual Geometry Group), que é uma arquitetura padrão de Rede Neural Convolucional (
CNN) profunda com várias camadas.
O "profundo" se refere ao número de camadas com VGG-16 ou VGG-19 consistindo em 16 e 19 camadas convolucionais.
A arquitetura
VGG é a base inovadora dos modelos de reconhecimento de objetos.
Desenvolvido como uma rede neural profunda, o
VGG também supera as linhas base em muitas tarefas e conjuntos de dados além do
ImageNet.
Além disso, é uma das arquiteturas de reconhecimento de imagem mais populares.
Nesse primeiro exemplo vamos usar a arquitetura VGG 1, depois vamos deixar nossa rede mais profunda, com mais camadas e vamos testar com VGG 2 e também com o VGG 3.
Por último, no exemplo final, com maior precisão, vamos usar
BatchNormalization().
A normalização em lotes (
BatchNormalization) é uma técnica para treinar redes neurais muito profundas que padroniza as entradas de uma camada para cada
mini lote.
Isso tem o efeito de estabilizar o processo de aprendizagem e reduzir drasticamente o número de períodos de treinamento necessários para treinar redes profundas, acelerando esse processo.
Para compensar essa aceleração, podemos aumentar a regularização alterando o
dropout de um padrão fixo para um padrão crescente.
Agora partiu notebook!
Por essa aula é só.
Meu github:
Se gostarem do conteúdo dêem um joinha 👍 na página do Código Fluente no
Facebook
Link do código fluente no Pinterest
Novamente deixo meus link de afiliados:
Obrigado, até a próxima e bons estudos. ;)