< Return to Video

10.4: Neural Networks: Multilayer Perceptron Part 1 - The Nature of Code

  • Not Synced
    Olá novamente
  • Not Synced
    Talvez você tenha assistido aos meus
    últimos vídeos sobre
  • Not Synced
    Como codificar um Perceptron
  • Not Synced
    E agora eu quero fazer "A pergunta":
  • Not Synced
    Por que não já parar por aqui?
  • Not Synced
    Nós temos esse cenário bem simples
  • Not Synced
    Onde temos um canvas
  • Not Synced
    Que tem vários pontos
  • Not Synced
    E desenhamos uma linha no meio
  • Not Synced
    E tentamos classificar alguns pontos
  • Not Synced
    Que estão em um lado da linha e
  • Not Synced
    Outros pontos que estão do outro
    lado da linha
  • Not Synced
    Esse seria o cenário onde temos
  • Not Synced
    apenas um Perceptron como uma
  • Not Synced
    unidade de processamento
  • Not Synced
    Você pode chama-lo de
    neurônio ou processador
  • Not Synced
    E ele recebe entradas
    Como x0 e x1
  • Not Synced
    Que são o as coordenadas x e y
    do ponto
  • Not Synced
    Ele tem também essa coisa chamada bias
  • Not Synced
    E então ele gera uma saída
  • Not Synced
    Cada uma dessas entradas é conectada
    ao processador com um peso
  • Not Synced
    Como peso 1, peso 2, tanto faz
  • Not Synced
    Peso, peso, peso
  • Not Synced
    E o processador cria uma soma ponderada de
    todas as entradas multiplicadas pelos pesos
  • Not Synced
    E essa soma ponderada passa por uma função
    de ativação
  • Not Synced
    Para gerar a saída
  • Not Synced
    Então, por que isso não é
    bom o suficiente?
  • Not Synced
    Vamos primeiramente pensar sobre
    quais são os limitantes aqui
  • Not Synced
    A ideia é: e se eu quiser que qualquer
    número de entradas
  • Not Synced
    Gere qualquer número de saídas?
  • Not Synced
    Essa é a essência do que eu quero fazer
    em várias outras aplicações
  • Not Synced
    De aprendizado de máquina
  • Not Synced
    Então vamos ver um algoritmo
    clássico de classificação
  • Not Synced
    Que consiste em: e se eu tiver digito
    escrito à mão como o número 8
  • Not Synced
    E eu tenho todos os pixels desse dígito
  • Not Synced
    E eu quero que eles sejam a entrada
    deste Perceptron
  • Not Synced
    E eu quero que a saída me forneça
    um conjunto de probabilidades
  • Not Synced
    De qual dígito é
  • Not Synced
    Então a saída deveria parecer
    algo como isso
  • Not Synced
    Existe uma chance de 0.1 de ser 0
  • Not Synced
    Existe uma chance de 0.2 de ser 1
  • Not Synced
    Existe uma chance de 0.1 de ser 2
  • Not Synced
    0 para 3, 4, 5, 6, 7
  • Not Synced
    Oh! Existe algo como uma
    chance de 0.99 de ser 8
  • Not Synced
    E uma chance de 0.5 de ser 10
  • Not Synced
    E eu não acho que eles somam 1
    Mas você entendeu a ideia
  • Not Synced
    Então a ideia aqui é que nós queremos poder
    ter algum tipo de unidade de processamento
  • Not Synced
    Que pode receber uma quantidade arbitrária
    de entradas
  • Not Synced
    Por exemplo, isso sendo uma imagem de 28 por 28 pixels
  • Not Synced
    Então existem 784 valores em
    escala de cinza
  • Not Synced
    Eles chegam no processador que é uma soma
    ponderada e todas essas coisas
  • Not Synced
    Nós temos uma saída que é uma quantidade
    arbitrária de probabilidades
  • Not Synced
    Para nos ajudar a estimar que isso é um 8
  • Not Synced
    Este modelo. Por que nós não podemos só
    ter mais um monte de entradas
  • Not Synced
    E então mais um monte de saídas
  • Not Synced
    Mas ainda ter uma única unidade
    de processamento?
  • Not Synced
    E o motivo pelo quão eu não posso é. Uh.
    Vem de um artigo
  • Not Synced
    Desculpe. Um livro
  • Not Synced
    Que foi publicado em 1969 por
    Marvin Minsky e Seymour Papert
  • Not Synced
    Chamado Perceptrons
  • Not Synced
    No livro Perceptrons, Marvin Minsky e
    Seymour Papert
  • Not Synced
    Apontaram que um Perceptron simples
  • Not Synced
    A coisa que eu construi nós últimos
    dois vídeos
  • Not Synced
    Pode apenas resolver problemas
    linearmente separáveis
  • Not Synced
    Então, o que isso significa
    afinal de contas?
  • Not Synced
    E por que eu deveria me importar com isso?
  • Not Synced
    Vamos pensar sobre isso
  • Not Synced
    Isso aqui é um problema
    lineaments spearável
  • Not Synced
    O que significa que eu preciso classificar
    essa coisa
  • Not Synced
    E se eu fosse visualizar toda essa coisa
    eu posso desenhar uma linha no meio
  • Not Synced
    Essa coisa é dessa classe e
    essa coisa é dessa classe
  • Not Synced
    A coisa por si só é separável por uma linha
  • Not Synced
    Em três dimensões eu poderia colocar
    um plano e isso seria linearmente separável
  • Not Synced
    Porque eu posso meio que dividir o espaço
    ao meio e entendê-lo dessa forma
  • Not Synced
    O problema é que a maioria dos problemas
    interessantes não são linearmente separáveis
  • Not Synced
    Pode existir algum dado que se concentra
    aqui no centro
  • Not Synced
    Que é uma classe, mas tudo fora dele é
    de uma outra classe
  • Not Synced
    E eu não consigo desenhar uma
    linha para separar essa coisa
  • Not Synced
    E você pode estar pensando
    ????
  • Not Synced
    Muita coisa. Você pode fazer muita com
    coisas linearmente separáveis
  • Not Synced
    Bem, vejam
  • Not Synced
    Eu vou mostrar agora para você um
    problema particular
  • Not Synced
    Eu estou procurando um apagador
  • Not Synced
    Estou andando por aí como um maluco
  • Not Synced
    Eu vou mostrar para você um problema
    particular chamado XOR
Title:
10.4: Neural Networks: Multilayer Perceptron Part 1 - The Nature of Code
Description:

more » « less
Video Language:
English
Duration:
15:56

Portuguese, Brazilian subtitles

Incomplete

Revisions