Olá todo mundo vamos falar mais um pouquinho de física né mais um vídeo que eu tô postando e dessa vez um vídeo pra gente falar sobre o prêmio Nobel de Física Hoje dia 8 de outubro de 2024 foi anunciado os laureados com o prêmio Nobel de Física desse ano de 2024 né então a ideia desse vídeo daqui é apresentar né quem foram os laureados e falar um pouquinho sobre o trabalho deles né que fez com que eles fossem laureados Claro com prêmio Nobel de Física desse ano mas antes de começar a falar sobre esse tpico
porque você deve ter percebido que olha só eu estou com uma camisa muito bonita camisa da lagrangiana do modelo padrão né Essa camisa assim como diversas outras camisas com temática de física você encontra na lojinha do canal Wi fisica.com.br baroja lá além de você encontrar essas camisas você também vai encontrar canecas com temática de física por exemplo olha só aqui tem né a caneca com o buraco negro também tem caneca do gato tiró enfim tem um punhado né de do modelo padrão também né Tem um punhado de estampas Diferentes né de forma que eu tenho
certeza que se você gosta de física vai ter alguma lá que vai te agradar e também claro aproveitando esse momento do vídeo se você gosta do canal a física e gostaria de apoiá-lo mais ativamente não deixe de fazer parte do clube de membros aqui do canal fazendo parte do clube de membros você tem acesso a diversos benefícios como por exemplo acesso a todos os cursos que eu já gravei no canal mas ainda não coloquei publicamente Como por exemplo o curso de eletro do o curso de quântica 2 o curso de álgebra linear tem minic curso
de latex né além de você também ter acesso aos conteúdos exclusivos dos cursos já postados como resolução de questões né enfim mais aulas ali pra gente poder discutir e claro né além de você ganhar desconto na lojinha do canal e ajudar tremendamente à continuidade Desse Canal Se hoje eu consigo né publicar regularmente aqui no canal né Depois desses 4 anos e meio de existência do canal e física isso só né só é possível por conta do apoio de vocês por conta disso fica aqui o meu sincero agradecimento a todos os membros do canal mas então
vamos lá né nesse ano em 2024 dois físicos foram agraciados com o prêmio Nobel né no caso os dois físicos foram o John hopfield e o joffrey hinton espero ter pronunciado corretamente os dois nomes e no caso né eles foram agraciados por abre aspas né fazendo aqui uma tradução livre por descobertas e invenções fundamentais que tornaram possível o aprendizado de máquinas com redes neurais artificiais ou seja o prêmio desse ano foi dado para uma aplicação envolvendo física e não para uma descoberta na física estritamente falando como por exemplo a descrição de algum fenômeno que antes
ninguém conseguia explicar ou então né a descoberta de um fenômeno antes não conhecido ou alguma coisa do tipo mas então vamos lá pra gente entender o contexto dos trabalhos e qual que foi a contribuição de cada físico Vamos pelo menos entender o básico do básico de maneira geral o uso clássico do computador para fins acadêmicos ou paraa produção de novas tecnologias segue sempre uma lógica de receita que a gente acaba fazendo é a gente tem o computador a gente fala pro computador o que qu é para ele fazer né em forma de uma lista mesmo
de uma receita digamos assim faça isso Faça aquilo Depois faça isso Faça aquilo manda ele fazer ele faz o que você mandou e cospe o resultado né esse é o uso clássico do computador que até hoje tem a sua utilidade né absurda Toda vez que você quer resolver por exemplo alguma equação que você não consegue resolver na mão é assim que o computador resolve né existem algoritmos que você monta e tudo e que enfim são amplamente utilizados por todo Tod mundo no meio acadêmico né E no meio profissional que você pega as equações a serem
resolvidas pede pro computador resolver e ele aplica métodos numéricos para poder resolver né mas toda essa lógica clássica do uso do computador é em termos de fala que que pro computador fazer e ele executa exatamente o que você pediu para fazer E aí o processo do você né começar a programar Envolve você pedir pro computador fazer as coisas que você quer Apesar desse uso clássico do computador ser extremamente útil ele acaba só executando tarefas pré-determinadas o computador não pensa quando ele vai fazer ele simplesmente né no caso vai cumprindo uma série de ordens que você
passou para ele ele não tem um raciocínio em torno daquilo que você passou e é aí que entram os laureados com o prêmio Nobel de Física desse ano porque se hoje é muito natural a gente pensar em inteligência artificial em computador aprendendo e interpretando as coisas é por conta de primeiros trabalhos nessa área né de aprendizagem de máquina que foram né no caso desenvolvidos pelo hopfield E pelo hinton o trabalho dos dois envolve evolvem aprendizagem de máquinas usando o que a gente chama de redes neurais artificiais ou seja redes neurais que não são feitos pelos
nossos neurônios então levando em conta que né os dois trabalhos carregam essa mesma base Vamos só entender bem por alto né a motivação para redes neurais no contexto de aprendizado de máquina a lógica das redes neurais Como o próprio nome sugere é simular né para o contexto de uma máquina o funcionamento da nossa rede neural né biológica de fato feita pelos neurônios quando a gente olha os neurônios de um ser humano eles formam uma rede sendo que dois neurônios podem trocar sinais entre si através da sinapses sempre que a gente aprende alguma coisa algumas dessas
conexões entre os neurônios são fortalecidas enquanto outras são enfraquecidas então o processo de aprendizagem envolve ele no caso né uma conexão mais intensa ou menos intensa entre os neurônios dessa rede a forma como isso é adaptado para o contexto de máquinas ou seja as redes neurais artificiais que eu vou passar a chamar só de redes neurais para poder ficar mais rápido né a lógica delas funciona de uma forma semelhante à da nossa rede de neurônios n no caso ao invés dos neurônios a gente tem nós e as conexões Entre esses nós é feitas a partir
de retinhas né Então as redes neurais acabam tendo um aspecto de um grafo né que é um conjunto de nós e conexões no caso que a gente chama de links né Aí no caso né as informações que são colocadas na rede neural elas são colocadas nos nós né e esses caras né esses nós vão se comunicar um com o outro a partir dessas conexões então a ideia seria em um processo de aprendizagem de máquina né a gente teria as informações ali no caso né nos nós e algumas dessas conexões sendo fortalecidas e outras né enfraquecidas
De acordo com a informação que a gente tá querendo ensinar para a máquina apesar de parecer uma ideia bem recente né a utilização de redes neurais para poder ensinar as máquinas essa ideia na verdade não é tão recente Assim vocês terem noção na década de 60 já tinham trabalhos acadêmicos Nesse contexto a questão é que nessa época existia uma certa descrença de que fosse possível ensinar máquinas de Fato né utilizando redes neurais na vida real né então por conta disso o assunto foi meio que congelado por um tempinho né até que chegou na década de
80 né E nós tivemos um dos trabalhos do de um dos laureados com o prêmio Nobel daciano que foi o do John hopfield o trabalho do hopfield consistia em utilizar as redes norais para poder criar uma espécie de memória associativa para as máquinas a memória associativa é Aquela nossa memória de acordo com a proximidade dos Tópicos por exemplo você está querendo lembrar alguma palavra você não lembra qual é a palavra porque você tá querendo lembrar dela mas você lembra de palavras que são parecidas E aí você fica pensando nas palavras parecidas até você meio que
chegar na palavra que você estava querendo lembrar de fato sabe ou seja você acaba lembrando de alguma coisa né puxando na sua memória a partir de associação com conceitos que são próximos a premissa básica para você construir uma memória associativa é você conseguir aprender alguma coisa coisa se você não aprende nada você não consegue lembrar baseado né nos seus conhecimentos prévios Então você tem que conseguir aprender alguma coisa para poder construir essa lógica de memória associativa o que o hopfield fez para poder gerar esse aprendizado né E essa Memória associativa foi pensar nas redes neurais
de forma análoga a uma rede de spin que a gente tem na física e é por isso que ele ganhou o prêmio Nobel de Física porque ele usou física para poder fazer essa construção da memória associativa em máquinas o que ele fez foi ele começou com uma rede em que que cada um dos nós poderia ter o valor zero ou o valor um né de forma que nessa rede a gente poderia né Por exemplo construir alguma imagem preto e branco Ok imagina que cada um dos Nós corresponde a um pixel zero é branco e um
é preto né então com essa rede né em que cada um dos nós ou é zero ou é um né a gente consegue construir imagens preto e branco por exemplo consequentemente para poder ilustrar aqui a situação uma das imagens que ele poderia construir com essa rede é essa imagem daqui um J né em que os elementos do do J em né seriam colocados por exemplo com um nos nós e o resto seria zero a partir disso O que o hopfield fez foi tratar essa rede como se fosse uma rede de spin né ou seja né
zero e um estando relacionados com os valores de spin de forma que a conexão entre os nós estaria relacionada com o acoplamento Entre esses spins né e a ideia no caso de fazer nessa relação com os spins É porque quando a gente pega materiais magnéticos por exemplo a gente tem exatamente um comportamento coletivo né geral D Por um punhado de enfim momentos angulares de spin né no contexto da Física em que o movimento de cada um influenci no outro então a gente tem exatamente uma ideia de rede evidentemente tratando essa rede como sendo spins em
que as conexões entre eles correspondem a um acoplamento né desses spins obviamente existem muitas formas diferentes de você acoplar uma rede de spins né no caso como é que o computador aprendia aquela imagem né no caso nesse meu exemplo esse J daqui né o que ela aprendia era quais tem ser as conexões a serem colocadas aqui que vai minimizar a energia da minha rede o computador né para salvar imagem ele resolvia esse problema quando ele tinha a solução ele guardava aquilo como a imagem a rede com as conexões assim se você desse para o computador
uma outra imagem diferente da primeira mas que é parecida como por exemplo essa aqui né que eu tô colocando agora que é aquele J basicamente com um ruído o computador conseguia se lembrar da imagem inicial a A partir dessa a partir né claro fazendo ali no caso A análise da energia dessa rede no caso né então usando um tratamento né de estatística de Fato né mecânica estatística a partir de rede de spin né enfim com acoplamentos né você consegue né conseguiu no caso né o hop fez isso né consigo de alguma forma começar a ensinar
alguma coisa para a máquina de forma ela ter uma memória associativa né no caso percebam essa é uma aplicação muito simples quando a gente compara com o que a gente tem hoje de machine learning né aprendizado de máquina mas lembre-se que o prêmio Nobel foi dado para os trabalhos fundamentais que estão nos fundamentos então Esses foram foi um um dos percursores de tudo isso no caso esse tipo de aprendizado de máquina ele é extremamente útil e eficiente quando você quer tratar algum sinal que tem ruído né Por exemplo quando a v gente pega né a
detecção de ondas gravitacionais que tiveram alguns anos né no caso quando você pega o sinal de fato aquele sinal que a gente viu né da da da detecção das onas gravitacionais que seria né relativa ali no caso a fusão de dois buracos negros que se colidiram e tudo aquele sinal que a gente viu já é o sinal tratado o sinal Inicial é cheio de ruído você precisa ter formas inteligentes de tratar o ruído e um dos precursores para os tratamentos de ruído mais né sofisticados que a gente tem hoje né no caso esse trabalho do
Hop enfim ele é muito útil No caso quando você quer tratar ruídos ou quando você tem alguma imagem alguma informação que tá levemente fragmentada como se tivesse algumas partes apagadas né Por conta né dessa desse trabalho ser relacionado a memória associativa ensinando coisas pra máquina ela consegue por Associação meio que construir ou entender ali de Fato né Qual que é a imagem por trás daquele ruído ou a partir né daqueles apagados que deram Então esse foi o trabalho do hopfield década de 80 o segundo laureado com o Nobel desse ano o hinton aparece alguns anos
depois na década de 90 N no caso o a utilização de redes neurais para aprendizado de máquinas né o trabalho que ele fez nesse nessa linha Foi no que diz respeito à memória interpretativa das máquinas a memória interpretativa é aquela associada à identificação de padrões por exemplo pega uma criança qualquer que nunca viu um elefante E aí você pega três fotos de elefante e mostra para ela se você for num zoológico que tem um elefante e você perguntar que animal é esse ela vai falar é um elefante por quê Porque ela pegou as três imagens
que você mostrou para ela ela a partir dali ela fez uma interpretação naquelas imagens de forma que quando ela viu o elefante no zoológico foi a primeira vez que ela viu aquele elefante ela olhou para ele e conseguiu interpretar esse animal é aquele animal que eu havia visto antes Essa é a memória interpretativa nesse sentido o trabalho do hinton foi um trabalho direcionado para ensinar às máquinas esse tipo de memória interpretativa para fazer isso ele utilizou técnicas que vem da Física em cima de redes norais por isso que ele ganhou o prêmio Nobel de Física
pelo uso da física né nesse tipo de procedimento para ser mais específico ele utilizou o contexto de mecânica estatística mais especiamente equações de boltzman né equação de boltzman que fala pra gente basicamente probabilidades de determinados padrões serem encontrados da uma energia desse padrão como o método utilizado consistia na utilização da equação de botsman em cima de redes neurais né essa esse método no caso né desenvolvido é ganhou o nome de máquina de botsman esse tipo de método normalmente utiliza redes neurais com dois tipos de nós dois tipos de nós diferentes os primeiros né que são
os nós que a gente chama de nós visíveis e os outros que são os nós invisíveis sempre que você quer ensinar alguma máquina a partir de redes neurais você tem que pegar a informação que você quer ensinar para máqu máquina e introduzir nas redes norais no caso desse método a informação ela é colocada nos nós visíveis então os nós visíveis são aqueles que recebem a informação além desses nós né os visíveis e os invisíveis também existem conexões entre eles né ligando tanto os invisíveis entre si os visíveis entre si e os visíveis com os invisíveis
Então tem um punhado de nós ligados entre si de forma que desses nós Alguns são aqueles que recebem informação e outros não recebem informação direta quando você tá querendo ensinar alguma coisa pro computador no caso dessa rede Cada nó pode receber mais do que somente duas informações que seria o zero e um da rede do hopfield aqui a princípio poderiam ter mais você poderia por exemplo atribuir 0 1 2 3 4 enfim o que importa é cada Nó pode receber mais do que somente zero ou um existem mais informações né mais números digamos assim que
você poderia colocar em né Em cada Em Cada nó de forma que as informações a serem passadas pra máquina seriam mais complexas do que se fossem somente zero e um para o modelo físico por trás dessa rede Cada nó é vista como um sistema físico e cada informação que é colocada no nó corresponde a um valor diferente de energia para aquele sisteminha físico representado pelo nó Além disso se dois nós estão conectados Isso significa que os sistemas físicos Associados a esses nós são acoplados ou seja né no caso um comunica diretamente interage com o outro
Isso significa que quando você vai pegar a informação e vai colocando nó a Nó quando você pega a informação que você tá querendo ensinar pra máquina e você coloca no primeiro nó Isso vai ser visto como uma quantidade de energia para aquele sistema físico que interage com os nós vizinhos com os sistemas físico os vizinhos na qual ele está conectado consequentemente cada vez que você vai colocando a informação em um nó ele modifica também a informação dos Nós vizinhos então o ato de você né passar a informação para essa rede para os nós visíveis faz
com que a informação dos próprios nós visíveis e invisíveis vá mudando a medida que você vai colocando informação nó a Nó apesar disso vai chegar algum momento que quando você colocar informação em um nó o padrão da rede vai mudar mas as características físicas da rede como um todo não modificam né o análogo a isso só para deixar claro o que que significa Pensa num gás ideal Ok um gás ideal é um gás formado por diversas particulino né e tem as regrinhas do gás ideal né o gás ideal ele tem as características microscópicas são dos
seus constituintes que é por exemplo velocidade Eh sei lá massa de cada constituinte por aí vai mas também tem as características do gás todo que são as características do Sistema completo Conjunto das particulino né temperatura e pressão imagina que você tem um gás ideal e você vai modificar as velocidades de todo mundo certo você consegue modificar as velocidades de todos os constituintes sem mudar por exemplo temperatura e pressão o que que eu quero dizer mudar o padrão dos constituintes de uma de um sistema composto de vários né de vários constituintes né não implica em você
mudar as características todas você pode mudar as velocidades de um gás das partículas de um gás ideal sem modificar temperatura e pressão ou seja o conjunto tem a mesma informação apesar de você ter mudado o padrão dos constituintes aqui a mesma coisa quando a gente pega essa rede toda essa rede neural ela pode ser vista como um sistema físico que tem as suas características gerais certo quando você coloca uma informação em um nó você vai est mudando a rede mas vai chegar um momento que apesar da rede mudar você não vai mudar as características gerais
daquela rede isso na prática né acaba implicando que você chegou numa configuração de Equilíbrio na prática de forma muito simplista para Pelo menos dá para pegar um pouco da ideia né pegar essas configurações de equilíbrio são importantes porque seria equivalente ao seguinte por exemplo pega uma imagem de um macaco Ok você consegue mudar alguns parâmetros da imagem do Macaco e mesmo assim continuar vendo o como um macaco certo Toda vez que você tem alguma alguma foto de algum animal de alguma coisa você consegue né gerar pequenas variações naquela coisa e mesmo assim você identificar aquela
coisa como tal qualitativamente a lógica dessa rede é a mesma né Toda vez que você muda o padrão da rede mas você mantém as características gerais da rede como um todo isso seria equivalente num aprendizado de máquina a você mudar um pouquinho as informações daquele sistema né das das pequenas informações mas a informação geral é a mesma ou seja sei lá você mudou alguns aspectos da da imagem mas continua sendo aquela imagem identificada como sendo uma imagem x ou como sendo uma imagem Y sempre que isso acontece esse método da máquina de botsman pega essa
essa configuração da rede esse padrão da rede né vê qual que é a energia desse padrão e a partir da equação de boltzman calcula a probabilidade associada com esse padrão né dado enfim né os os infinitos padrões que são possíveis de de estar naquela naquela rede E aí no caso para esses padrões que não modificam as características gerais da rede né os que são mais prováveis vão aparecer mais vezes né à medida que a rede for né modificando pela introdução de informações novas na rede enfim a comunicação né dos Nós entre si né E aí
no caso né aparecendo mais vezes o computador vai interpretando aquilo dali como sendo no caso né mais provável de estar semel de ser semelhante né ao ser um padrão semelhante àquela informação que foi passada né para ele aprender no caso levando em conta que nesse método da máquina de boltzman né acabam aparecendo novos padrões das redes neurais né que não foram ensinados antes né eles acabam aparecendo por conta da dinâmica de como vai funcionando o passar da informação pra rede né você acaba tendo padrões novos baseados naquela informação que foi passada mas são padrões novos
né e por conta disso né esse tipo de modelo é chamado de modelo de modelo generativo né nesse sentido os trabalhos do hopfield e do hinton foram essenciais para que a gente começasse a pavimentar essa estrada no caso né rumo a aprendizado de máquinas né de forma que hoje a gente só tem o que a gente tem com toda essa questão né de Inteligência Artificial por exemplo por conta de trabalhos precursores Como por exemplo o dos dois laureados com prêmio Nobel de 2024 se você gostou do vídeo Não deixe de dar o seu gostei certo
se inscreva no canal e não deixa de ativar o Sininho para receber as notificações dos próximos vídeos no mais seu comentário achou legal o tema gostou desse prêmio Nobel tava esperando outra coisa enfim deixa aqui seus comentários e use-os a seu favor vamos trocar uma ideia aqui beleza no mais né obrigado Você que ficou até o momento um abração para vocês e até o próximo vídeo