e o que que é um perceptron multicamadas ele é o mesmo percebe Tron que a gente vê hoje ou seja o mecanismo de propagação dos dados né pra frente desde a entrada até o calculado do somatório dos dos pesos pelas entradas função e ativação saída tudo segue a mesma filosofia só que agora a minha rede ela não tem mais só aquela camada de entrada isso era aqui nós tínhamos antes né camada de entrada isso era um percebe Tron simples camada de entrada com a camada de saída aqui isso aqui é o percebe Tron um percebe
Tron simples é elementar né agora nós temos ao menos uma camada mais que a tal da camada oculta essa camada oculta ela fica vai ficar aqui nessa região da sua rede essa camada oculta papel dela a visualização dela é que você que você consegue imaginar essa camada oculta como sendo uma camada que consegue extrapolar de uns espaço bidimensional para o espaço tridimensional e consegue fazer os recortes os recortes necessários aqui no seu espaço de dados né para conseguir classificar corretamente isso acaba transformando o seu problema não linear uma inseparável em um problema linearmente separáveis você
pode pensar também se você quiser pensar numa visualização 2D por exemplo se poderia pensar em alguma coisa assim e vai ter vários vários dados aqui e o que que o multilayer perceptron vai fazer enquanto o percebe Tron elementar que ia apenas É capaz apenas de criar uma linha para separar os dados a imaginando que aqui eu tenho um bolinhas vermelhas tanto de um lado quanto de quanto percebe Tron Criar e apenas uma linha no caso de um perception multicamadas o que ele vai fazer é o seguinte Ele vai tentar criar um recorte aqui por exemplo
alguma coisa assim para conseguir criar essa separação dos nossos uma separação não linear multidimensional a gente chama que começa a criar essa separação permitir a gente fazer essa separação dos E aí ele consegue a consequência disso é que ele consegue aprender certinho ele consegue dizer no fim ele vai com vai ficar o que é verde como ver e o que é vermelho como vermelho Então como é que ele funciona ele adota essa topologia a topologia no caso aqui organização né com pelo menos três camadas vai ter duas camadas e já são conhecidas de vocês a
primeira delas é a camada de entrada é a mesma que a gente viu lá não percebe Tron elementar EA camada de saída que também tem o mesmo papel dessa camada de saída aqui nós vimos no percentual alimentar a diferença tá na resistência de uma ou mais camadas ocultas que serão as camadas adicionais aqui de neurônios que vão existir na sua rede então esses neurônios são neurônios computacionais ou seja são neurônios que fazem aqueles são atrozes do W jxj para gerar uma saída ver e consequentemente uma saída um y e cada uma dessas camadas realiza um
mapeamento intermediário do problema gerando uma separação linear para a camada de saída é aquilo que eu tava dizendo né Você pode Analu analogia disso seria que cada camada é responsável por que a um uma pequena separação aqui dos dados e todas elas atuando em conjunto vão conseguir fazer a classificação a separação correta certa aqui eu trago um desenho de como é esse nosso perception multilayer perceptron o perceptron multicamadas certo conhecido popularmente como mlp vejam camada de entrada é aquilo que eu havia comentado para vocês é a mesma ela simplesmente replica os valores de entrada para
cada um dos neurônios da próxima camada que daí no caso é uma camada o que é a que eu tô mostrando uma rede com apenas uma cá É mas você pode ter redes com várias camadas ocultas cada nova camada oculta vai gerar um uma quantidade a mais de neurônios aqui sempre depois sempre em sequência sempre ficar na próxima slide tem um exemplo então esses neurônios da camada oculta eles recebem todas as entradas da camada de entrada replicadas né Cada neurônio recebe uma cópia de todas as entradas mais aquela entrada XLR Ou seja todos neurônio tem
aquilo o w0 a mais certo na camada de saída também são neurônios computacionais que vão fazer aqueles somatório aqui também os neurônios fazem somatório só que as a diferença tá aqui ó as entradas desse desses neurônios da camada de saída as entradas desses neurônios são as saídas de cada um desses né e aqui na camada o curso é uma saída desse neurônio é repicada como entrada para cada um dos próximos neurônios da camada de saída é sempre assim a saída do neurônio serve de entrada para todos os neurônios da camada seguinte na camada aqui no
caso sair e daí cada um desses neurônios da camada de saída e gera uma saída para sua rede que é uma determinada classe aqui né classe G classe Y por exemplo como é que funciona a propagação é a mesma coisa mesma coisa lá do percentual elementar né então os sinais de entrada são propagadas sempre para frente por toda a rede camada por camada as entradas chegam pela camada de entrada são repicadas para todos os neurônios aqui dá o botar aqui os cabos para todos os neurônios da primeira camada oculta certas chegam da primeira camada oculta
cada um desses neurônios aqui da camada oculta usa a mesma fórmula do somatório para fazer o cálculo da sua saída então cada um desses neurônios aqui vai ter um valor de saída ver cada um desses neurônios aqui também tem uma passa né a saída ver passa por uma função de ativação são Fi que é aplicada sobre o valor ver a diferença aqui para não confundir essa saída posterior aqui a função de ativação com essa última saída aqui essa saída essas saídas posteriores a função de ativação são batizados são identificadas pela letra i imagine essa letra
e como a saída intermediária Da sua rede e uma determinado de um determinado neurônio em uma determinada camada É mas o processo para calcular esse valor I aqui é o mesmo aplicação da função dedicação sobre o valor ver calculado por esse neurônio aqui cada uma dessas saídas então é repicada para os neurônios da próxima camada e a também a qualquer neurônio né nesses modelos multi-layer perceptrons aqui todo neurônio Sempre tem aquela entrada auxiliar para a gente ter o peso auxiliar aqui w0 então aqui na camada intermediária vai haver uma entrada e intermediária é fixa sempre
nenhum que é propaganda para os neurônios da próxima cada um desses neurônios aqui da camada aqui no caso é a camada de saída né cada um desses neurônios aqui dessa camada M neurônios aqui pode ter vários você que vai definir a cada um deles vai fazer o mesmo cálculo o mesmo somatório dos pesos pelos valores de entrada vejo que aqui são os valores e esses valores e aqui que estão saindo aqui dos neurônios da camada anterior para calcular o valor de saída ver e também por fim tem aqui a função de ativação cada um desses
neurônios aqui tem a função de ativação Afinal ao final que computa a saída definitiva dos neurônios da camada de sair certo então continua sendo a mesma coisa a gente só tá adicionando etapas a mais aqui na propagação das entradas por essa nossa rede certo para cada um dos neurônios a propagação é a mesma EA sempre para frente primeiro você vai calcular de uma determinada camada da primeira camada Aí usa essas saídas para calcular a até a próxima Camargo se tiver mais camadas propaga termina de calcular para postar anterior propaga para posterior e assim vai até
chegar na saída definitiva do nós