claro impressionador isso tudo bem no vídeo de hoje a gente vai falar sobre dois termos que estão cada vez mais importantes dentro da ciência de dados que são redes neurais e Deep Lane e eu vou explicar para vocês todos os principais conceitos teóricos seja para você explicar em uma entrevista seja para você falar com recrutador ou até implementar isso dentro da sua própria empresa e a gente também percebe que cada vez mais vagas estão pedindo por conhecimento de dipilani e por isso é tão importante você saberem desses conceitos Mas antes a gente seguir eu vou
pedir para vocês deixarem uma curtida nesse vídeo e baixar esse material que tá aqui na descrição Então bora lá [Música] quando a gente fala do conceito de redes neurais a gente quer basicamente fazer com que as máquinas consigam reproduzir o comportamento do nosso cérebro o nosso cérebro atualmente ele é uma grande máquina de aprender como uma grande capacidade de aprender novas coisas desde pequeno a gente aprende como andar como falar como reconhecer objetos nós somos ótimos reconhecedores de objetos também como fazer várias outras coisas e a grande Pergunta feita foi porque não se basear em
uma estrutura que já sabe fazer isso e trazer essa mesma estrutura para dentro de uma máquina para que as máquinas aprendam assim como os humanos aprendem tá Lucas mas como os humanos aprendem vamos supor que você é criancinha você é um bebê e você vê uma vela essa vela tem uma chama muito brilhante e a sua primeira ideia vai ser tentar colocar a mão naquela chama naquela coisa que brilha e quando você fizer isso na primeira vez você vai se queimar vai acontecer isso só que a partir desse momento momento que você sente esse calor
e você se queima você recebe um estímulo no seu cérebro que a partir das próximas vezes você não vai chegar tão perto e nesse momento que você evita chegar perto porque você sabe que uma coisa ruim pode acontecer a gente diz que você aprendeu nós estamos o tempo todo desenvolvendo o nosso conhecimento através da experiência e tudo que acontece com a gente é um aprendizado e agora você deve estar se perguntando Tá mas como que a gente consegue aprender tanta coisa o que que faz o cérebro tão especial Exatamente Essa pequena estrutura aqui que se
chama neurônios os neurônios são estruturas relativamente simples que só vão mandar informações de sim ou não para outros neurônios ou seja eles escolhem apenas ou passar ou não passar uma informação não vou entrar tanto na parte biológica mas vocês precisam entender só isso que os neurônios tem duas principais funções primeiro armazenar informações segundo transmitindo informações aqui é uma estrutura tão simples como que ele consegue aprender tanta coisa exatamente devido a grande quantidade de neurônios e a sua capacidade de paralelismo Ou seja a gente tem vários neurônios Paralelos interligados fazendo toda essa comunicação e desenvolvendo todo
esse conhecimento que a gente tem e o que a gente pensou foi tá já que o cérebro faz isso de uma forma excelente com os neurônios Por que que a gente não faz isso na máquina e o que a gente fez foi realmente tentar replicar essa mesma estrutura pegamos nós que funcionam como neurônios e a cada nós a gente foi criando novas e novas conexões até ter um sistema totalmente interligado que a gente chama de redes neurais e o grande objetivo das redes neurais é tentar simular o funcionamento do cérebro deixando que esses neurônios artificiais
se organizam sozinhos a única coisa que a gente vai passar para eles é os nossos dados de entrada que a gente chama de input os nossos dados de saída e aqui todas camadas ou curtas elas vão aprender por si mesmo elas vão aprender com a experiência e elas vão se desenvolvendo até conseguirem aprender com toda a informação que foi passada e essas camadas ocultas a gente pode ter várias camadas Quantas camadas a gente quiser mais dependendo do Poder de processamento que a gente vai falar daqui a pouco e quando a gente tem uma rede neural
com várias camadas a gente chama de Deep learning E aí só para a gente entender todas essas nomenclaturas que às vezes a gente fala e não fica muito claro o que que é cada coisa o Deep Lane ele é uma subaria dentro de uma Shin Lane e uma Shin Lane é uma subárea dentro da Inteligência Artificial tá Lucas mas o que que é cada um deles a inteligência artificial é basicamente quando a gente quer fazer com que os computadores possam realizar tarefas como seres humanos a gente quer um computador consiga falar consiga executar ações consiga
responder as pessoas consiga aprender tudo isso é inteligência artificial dentro da Inteligência Artificial a gente tem uma subárea que é uma Shirlane que é quando o aprendizado do computador é feito através de dados nós utilizamos dados para resolver problemas e os computadores vão se aprendendo e vão evoluindo com os dados que eles recebem já no Deep lanem a gente tem uma abstração um pouco maior porque enquanto numa shimane em geral a gente foca muito em problemas que a gente consegue ali modelar a gente consegue ter uma estrutura lógica na nossa cabeça no deepylane a gente
vai começar a tentar resolver problemas que por mais que a gente saiba muito bem como fazer como seres humanos a gente não consegue colocar de forma tão Clara em regras ou seja a Gente Nem entende muito bem como a gente faz por exemplo quando a gente quer falar a gente não precisa pensar tantas coisas na hora de falar na hora de traduzir um idioma ou até mesmo na hora de reconhecer uma imagem quando a gente precisa reconhecer uma imagem a gente simplesmente vai lá e reconhece a gente fala isso é um gato isso é um
cachorro isso é e a gente não pensa muitas vezes em todo o processamento que o nosso cérebro está fazendo então para conseguir resolver esses problemas bem mais complexos e bem mais abstratos é que a gente usa o Deep Lane e deixa que esses neurônios do nosso modelo aprendam sozinho e sozinho ele sejam capazes de realizar todas essas tarefas e é isso só falando um pouquinho de datas a inteligência artificial começou lá na década de 50 Então já tem pesquisas de muito tempo uma chinane foi mais ali para década de 80 década de 90 e o
dipirone é bem mais recente não quer dizer que o dipironing só Começou agora ele tem ali as primeiras ideias na década de 50 na década de 60 só que não existia o poder computacional atual para fazer esses modelos realmente serem eficientes hoje com poder computacional e como a grande quantidade de dados a gente consegue utilizar de planner com grande escala e com grande facilidade E aí só pra gente fechar essa parte é até uma provocação que eu quero fazer em vocês e vocês E se eu te falar você consegue separar o que é banana e
maçã e você pode me falar assim eu olho a cor então a banana é o que é amarelo a maçã que é vermelho tá tudo bem mas e se eu te pedir para separar um maracujá e se eu incluir uma outra fruta vermelha como por exemplo uma melancia Como que você vai criar regras para fazer essa separação tudo que necessita dessa grande abstração da gente não entender muito bem quais são as regras do problema a gente pode utilizar de planing e devido a isso quanto mais para cá a gente tá mais para dentro dessa bolinha
a gente tá maior A abstração que a gente vai ter do nosso problema e mais a gente vai chamar daqueles problemas caixa preta ou seja a gente sabe que tem uma entrada e uma saída mas a gente não entende muito bem o que tá acontecendo ali no meio mas talvez a gente nem precisa entender só que a gente também tem que tomar cuidado porque muitas vezes isso pode trazer vieses isso pode trazer preconceitos para o nosso modelo e a gente nem perceber tem uma aula de ética em ciência de dados que eu vou deixar aqui
também aquilo que vocês deem uma olhada também para tomar cuidado com os viésimos dos modelos de vocês mas para não me alongar muito nisso vamos fechar essa parte explicando exatamente como funciona uma rede neural como funciona o diplânea E qual é o potencial desse novo assunto para ciência de dados quando eu falo de uma rede neural uma rede neural simples é basicamente isso aqui ela tem uma entrada ela tem alguns nós tem as suas conexões e vai te dar uma saída e essa estrutura de nós e Conexões é uma estrutura muito similar ao neurônio que
a gente já conhece com seus nós e suas conexões e o que a gente vai fazer no processo de ciência de dados num processo de aprendizado é pensar para cada uma dessas conexões qual vai ser o peso delas qual vai ser o seu viesse E qual vai ser a sua função de ativação que são três palavras extremamente importantes quando você tiver entrando nesse assunto Lucas o que que vai ser o peso o peso basicamente vai mostrar a importância desse nó e o peso desse nó aqui a importância desse nó aqui de cima para o resultado
final ou seja o quanto essas informações aqui vão ajudar a fazer a minha previsão o viés vai ser um valor fixo para Cada nó que a gente sempre vai adicionar para poder fazer o ajuste ali para cada um dos nós que a gente tem e a função de ativação é meio que uma adequação que a gente faz para receber os dados de forma correta nos nós de forma que a gente espera que os nós recebam os dados em geral a gente coloca ali os dados entre zero e um então tem função de ativação por exemplo
a Hello eu vou falar para vocês nas próximas aulas que ele simplesmente tira os valores negativos e mantenha os valores positivos tem função sigmaidal tem função então a gente hiperbólica tem várias funções que a gente vai trazer isso nas próximas aulas mas é basicamente para ajustar esses dados de forma a recebê-los melhores em cada um dos nós e quando a gente fala de aprendizado o aprendizado da rede neural é exatamente o cálculo de todos esses pesos e todos esses vieses então o que que a gente faz na hora de treinar o modelo a gente pega
coloca pesos e vieses Verifica quanto a gente Está acertando Ah o modelo errou a gente volta e vai ajustando esses pesos testa de novo e vai fazendo isso até o nosso modelo chegar com os pesos e vieses corretos de forma a Gerar o melhor resultado possível com os dados que a gente tem E para isso a gente precisa de muitos dados nesse vídeo não foi aprofundar tanto no modelo em si mas basicamente o que a gente vai ter por exemplo são valores aqui e a gente vai pegar esses valores e gerar uma saída final ou
por exemplo se a gente tiver no modelo de classificação de banana a gente pode simplificar isso aqui por exemplo ou um exemplo de classificação simples a gente pode simplificar esse problema ao máximo fazendo uma analogia como se fosse uma banana e você vai pedir para dois amigos seus analisarem essa banana e para um você vai perguntar Olha ela tem um cabinho E se ele falar sim pode ser uma banana para o outro você vai perguntar Olha ela tem um corpo amarelo se ele falar assim também pode ser uma banana e você vai juntar a informação
desses dois vai analisar para poder pensar para pensar Qual vai ser a melhor resposta na hora de classificar aquela fruta e você vai juntar essa informação dos dois para pensar Qual é a melhor resposta na hora de analisar essa fruta se é uma banana ou não porque a pessoa que te fala Amarelo ela pode falar amarelo para banana pode falar amarelo para maracujá pode falar amarelo para manga e para outras frutas a pessoa que fala tem cabo pode ser uma bastão com cabo pode ser uma pena com cabo pode ser várias outras coisas então você
vai tendo cada um dos Nós te dando uma certa informação e você vai pensando quais nossas mais importantes na hora de classificar cada uma das frutas e eu tô falando isso explicando de uma forma bem mais abstrata e bem mais didática para vocês entenderem basicamente o que que cada neurônio vai fazer e aquilo que a gente pode pensar é que esse nó aqui vai ser muito mais importante para classificar uma banana então ele vai ter um peso maior nessa classificação então eu posso ter um aqui por exemplo de 0.9 esse aqui como não tem um
peso tão grande de 0.1 e isso aqui que eu tô mostrando para vocês são redes extremamente simples em geral a gente tem risco muito mais camadas o que a gente chama de camadas ocultas duas três ou até muito mais mesmo e cada uma dessas ligações cada uma dessas conexões vai ter o seu peso e cada um desses nós vai ter os seus vieses e dentro das camadas a gente pode ter quantos nós a gente quiser posso ter três nós aqui três nós aqui e quando a gente tem várias camadas dentro de uma rede neural é
o que a gente chama de aprendizado profundo ou de depilani que é o termo que a gente tem falado bastante por aí e que vocês estão vendo cada vez mais nos jornais a serviços e até nas entrevistas de emprego e agora só pra gente fechar quando a gente fala de rede neural a gente tem uma necessidade muito grande de dados além de ter um elevado custo computacional e muitas vezes um alto tempo de processamento por isso que as redes neurais fica por um tempo esquecidas e agora elas voltaram com tudo porque a gente tem muito
dado a gente tem um curso computacional muito grande e a gente pode esperar um certo tempinho porque os computadores conseguem processar de forma paralela todas essas informações Então as redes neurais elas ficaram meio esquecidas por um tempo e agora elas voltaram com tudo porque além de muitos dados a gente tem a gente fala de Big Data a gente também conseguiu um grande poder computacional e hoje a gente usa de pilantry usa esse conhecimento para fazer coisas como reconhecimento de imagem para fazer a tradução de texto e até mesmo para fazer reconhecimento de dígitos escritos na
mão Entre várias outras coisas e cada vez mais novas aplicações estão surgindo dentro de planner vou deixar aqui também alguns links na descrição da IBM da Amazon falando um pouquinho sobre esse assunto e se vocês quiserem comenta aqui embaixo que a gente pode fazer um passo a passo da aplicação de dipillary no caso real Então é isso espero que vocês tenham gostado desse vídeo até a próxima semana e tchau