Redes Neurais: Conceito de MultiLayer Perceptron (MLP) e a propagação de entradas

5.92k views1306 WordsCopy TextShare
Fernando dos Santos
Video Transcript:
e o que que é um perceptron multicamadas ele é o mesmo percebe Tron que a gente vê hoje ou seja o mecanismo de propagação dos dados né pra frente desde a entrada até o calculado do somatório dos dos pesos pelas entradas função e ativação saída tudo segue a mesma filosofia só que agora a minha rede ela não tem mais só aquela camada de entrada isso era aqui nós tínhamos antes né camada de entrada isso era um percebe Tron simples camada de entrada com a camada de saída aqui isso aqui é o percebe Tron um percebe
Tron simples é elementar né agora nós temos ao menos uma camada mais que a tal da camada oculta essa camada oculta ela fica vai ficar aqui nessa região da sua rede essa camada oculta papel dela a visualização dela é que você que você consegue imaginar essa camada oculta como sendo uma camada que consegue extrapolar de uns espaço bidimensional para o espaço tridimensional e consegue fazer os recortes os recortes necessários aqui no seu espaço de dados né para conseguir classificar corretamente isso acaba transformando o seu problema não linear uma inseparável em um problema linearmente separáveis você
pode pensar também se você quiser pensar numa visualização 2D por exemplo se poderia pensar em alguma coisa assim e vai ter vários vários dados aqui e o que que o multilayer perceptron vai fazer enquanto o percebe Tron elementar que ia apenas É capaz apenas de criar uma linha para separar os dados a imaginando que aqui eu tenho um bolinhas vermelhas tanto de um lado quanto de quanto percebe Tron Criar e apenas uma linha no caso de um perception multicamadas o que ele vai fazer é o seguinte Ele vai tentar criar um recorte aqui por exemplo
alguma coisa assim para conseguir criar essa separação dos nossos uma separação não linear multidimensional a gente chama que começa a criar essa separação permitir a gente fazer essa separação dos E aí ele consegue a consequência disso é que ele consegue aprender certinho ele consegue dizer no fim ele vai com vai ficar o que é verde como ver e o que é vermelho como vermelho Então como é que ele funciona ele adota essa topologia a topologia no caso aqui organização né com pelo menos três camadas vai ter duas camadas e já são conhecidas de vocês a
primeira delas é a camada de entrada é a mesma que a gente viu lá não percebe Tron elementar EA camada de saída que também tem o mesmo papel dessa camada de saída aqui nós vimos no percentual alimentar a diferença tá na resistência de uma ou mais camadas ocultas que serão as camadas adicionais aqui de neurônios que vão existir na sua rede então esses neurônios são neurônios computacionais ou seja são neurônios que fazem aqueles são atrozes do W jxj para gerar uma saída ver e consequentemente uma saída um y e cada uma dessas camadas realiza um
mapeamento intermediário do problema gerando uma separação linear para a camada de saída é aquilo que eu tava dizendo né Você pode Analu analogia disso seria que cada camada é responsável por que a um uma pequena separação aqui dos dados e todas elas atuando em conjunto vão conseguir fazer a classificação a separação correta certa aqui eu trago um desenho de como é esse nosso perception multilayer perceptron o perceptron multicamadas certo conhecido popularmente como mlp vejam camada de entrada é aquilo que eu havia comentado para vocês é a mesma ela simplesmente replica os valores de entrada para
cada um dos neurônios da próxima camada que daí no caso é uma camada o que é a que eu tô mostrando uma rede com apenas uma cá É mas você pode ter redes com várias camadas ocultas cada nova camada oculta vai gerar um uma quantidade a mais de neurônios aqui sempre depois sempre em sequência sempre ficar na próxima slide tem um exemplo então esses neurônios da camada oculta eles recebem todas as entradas da camada de entrada replicadas né Cada neurônio recebe uma cópia de todas as entradas mais aquela entrada XLR Ou seja todos neurônio tem
aquilo o w0 a mais certo na camada de saída também são neurônios computacionais que vão fazer aqueles somatório aqui também os neurônios fazem somatório só que as a diferença tá aqui ó as entradas desse desses neurônios da camada de saída as entradas desses neurônios são as saídas de cada um desses né e aqui na camada o curso é uma saída desse neurônio é repicada como entrada para cada um dos próximos neurônios da camada de saída é sempre assim a saída do neurônio serve de entrada para todos os neurônios da camada seguinte na camada aqui no
caso sair e daí cada um desses neurônios da camada de saída e gera uma saída para sua rede que é uma determinada classe aqui né classe G classe Y por exemplo como é que funciona a propagação é a mesma coisa mesma coisa lá do percentual elementar né então os sinais de entrada são propagadas sempre para frente por toda a rede camada por camada as entradas chegam pela camada de entrada são repicadas para todos os neurônios aqui dá o botar aqui os cabos para todos os neurônios da primeira camada oculta certas chegam da primeira camada oculta
cada um desses neurônios aqui da camada oculta usa a mesma fórmula do somatório para fazer o cálculo da sua saída então cada um desses neurônios aqui vai ter um valor de saída ver cada um desses neurônios aqui também tem uma passa né a saída ver passa por uma função de ativação são Fi que é aplicada sobre o valor ver a diferença aqui para não confundir essa saída posterior aqui a função de ativação com essa última saída aqui essa saída essas saídas posteriores a função de ativação são batizados são identificadas pela letra i imagine essa letra
e como a saída intermediária Da sua rede e uma determinado de um determinado neurônio em uma determinada camada É mas o processo para calcular esse valor I aqui é o mesmo aplicação da função dedicação sobre o valor ver calculado por esse neurônio aqui cada uma dessas saídas então é repicada para os neurônios da próxima camada e a também a qualquer neurônio né nesses modelos multi-layer perceptrons aqui todo neurônio Sempre tem aquela entrada auxiliar para a gente ter o peso auxiliar aqui w0 então aqui na camada intermediária vai haver uma entrada e intermediária é fixa sempre
nenhum que é propaganda para os neurônios da próxima cada um desses neurônios aqui da camada aqui no caso é a camada de saída né cada um desses neurônios aqui dessa camada M neurônios aqui pode ter vários você que vai definir a cada um deles vai fazer o mesmo cálculo o mesmo somatório dos pesos pelos valores de entrada vejo que aqui são os valores e esses valores e aqui que estão saindo aqui dos neurônios da camada anterior para calcular o valor de saída ver e também por fim tem aqui a função de ativação cada um desses
neurônios aqui tem a função de ativação Afinal ao final que computa a saída definitiva dos neurônios da camada de sair certo então continua sendo a mesma coisa a gente só tá adicionando etapas a mais aqui na propagação das entradas por essa nossa rede certo para cada um dos neurônios a propagação é a mesma EA sempre para frente primeiro você vai calcular de uma determinada camada da primeira camada Aí usa essas saídas para calcular a até a próxima Camargo se tiver mais camadas propaga termina de calcular para postar anterior propaga para posterior e assim vai até
chegar na saída definitiva do nós
Related Videos
Redes Neurais: Funções de ativação para o MultiLayer Perceptron (MLP)
3:03
Redes Neurais: Funções de ativação para o ...
Fernando dos Santos
1,324 views
Redes neurais e multilayer perceptron - Aula 10
42:54
Redes neurais e multilayer perceptron - Au...
Diogo Cortiz
17,245 views
Como uma Rede Neural Aprende? Tutorial para Leigos
14:29
Como uma Rede Neural Aprende? Tutorial par...
Escola de Inteligência Artificial
71,929 views
Rede Neural Artificial - Perceptron de Múltiplas Camadas (MLP) - com Python e Scikit-Learn
32:52
Rede Neural Artificial - Perceptron de Múl...
LIIT UFG
10,359 views
Redes Neurais Convolucionais - o básico
58:30
Redes Neurais Convolucionais - o básico
Diego Silva
4,510 views
Redes neurais e Perceptron - Aula 9
50:12
Redes neurais e Perceptron - Aula 9
Diogo Cortiz
21,847 views
Introdução às Redes Neurais Artificiais - Perceptrons de Múltiplas Camadas - #Aula 4
32:49
Introdução às Redes Neurais Artificiais - ...
Inteligência Artificial na Prática
8,772 views
Video 16 - What is the Multilayer Perceptron
12:41
Video 16 - What is the Multilayer Perceptron
Ciência de Dados e Aprendizado de Máquina
13,263 views
Fazendo uma Rede Neural do Zero! #1 - FeedForward
48:17
Fazendo uma Rede Neural do Zero! #1 - Feed...
José Bezerra
293,325 views
Crie uma rede neural com apenas 5 linhas de código Python e Keras!
26:34
Crie uma rede neural com apenas 5 linhas d...
Didática Tech
26,285 views
Redes Neurais: Por que são tão poderosas? | #AluraMais
13:20
Redes Neurais: Por que são tão poderosas? ...
Alura
9,918 views
Introdução às redes neurais convolucionais (ML de Zero a 100, parte 3)
5:23
Introdução às redes neurais convolucionais...
TensorFlow
22,427 views
Introdução às Redes Neurais Artificiais - Prática em Perceptrons de Múltiplas Camadas - Aula #5
34:13
Introdução às Redes Neurais Artificiais - ...
Inteligência Artificial na Prática
6,488 views
#PYTHON MACHINE LEARNING (05): Avaliar desempenho – Matriz de confusão e métricas de classificação
34:46
#PYTHON MACHINE LEARNING (05): Avaliar des...
Python DS
2,101 views
Minha Primeira Rede Neural (Prática em Python) - Redes Neurais e Deep Learning 02
43:25
Minha Primeira Rede Neural (Prática em Pyt...
Universo Discreto
24,178 views
💻 REDES NEURAIS para IMAGENS e diagnóstico de DOENÇAS em PYTHON 🦾 - Redes Neurais e Deep Learning 05
49:09
💻 REDES NEURAIS para IMAGENS e diagnóstic...
Universo Discreto
5,229 views
Inteligência Artificial - Aula 04 - Exemplo prático Perceptron com 3 entradas
23:08
Inteligência Artificial - Aula 04 - Exempl...
Samuel Felipe Moreira
10,478 views
Redes Neurais em PyTorch | Programando em 10 minutos #1
13:40
Redes Neurais em PyTorch | Programando em ...
Peixe Babel
33,055 views
Redes Neurais Artificiais #03: Perceptron - Parte II
11:54
Redes Neurais Artificiais #03: Perceptron ...
Machine Learning para humanos
4,830 views
APRENDA REDES NEURAIS EM PYTHON - TEORIA E PRÁTICA
19:01
APRENDA REDES NEURAIS EM PYTHON - TEORIA E...
Inteligência Mil Grau
22,890 views
Copyright © 2025. Made with ♥ in London by YTScribe.com