é pessoal parece que o dar am está falando sobre a inteligência artificial já entrar naquele nível super avançado e na mesma onda o Kevin Will disse algo muito parecido e mais ou menos na mesma época vamos entender o que que tá acontecendo vamos dar uma discutida Conversar o que que tá rolando vem comigo é isso aí vamos lá pessoal Sempre agradecendo a todo mundo que deixou seu like a todo mundo que se inscreveu um agradecimento especial a todos os membros do canal que patrocinam esse canal de Inteligência Artificial sempre lembrando que os membros têm acesso
a vídeos exclusivos aqui do canal principalmente sobre agentes inteligentes então gente a polêmica do momento é aquela que sempre volta a final os programadores vão ser substituídos o que que vai acontecer o que que estão planejando no mundo da ia se esse papo é realista se esse Papa é alguma coisa fora da caixa quem tá acreditando nisso quem não tá acreditando porque os rumores estão chegando e vamos começar ali com o Dario amodei ele tá propondo assim ó parece que pelo que a gente tá olhando aquilo que a gente achava que ia levar um tempão
na verdade vai ser mais rápido ele tá imaginando ali entre TR a 6 meses a inteligência artificial já vai estar escrevendo 90% do código e que mais ou menos daqui 12 meses vai est escrevendo o código inteiro se a gente for assistir a entrevista inteira em que ele fala sobre isso ele continua dizendo na verdade o seguinte Ah mas o programador vai continuar ali olhando dando uma assistência pro código explicando que a ia tem que fazer em outras palavras é como se tirasse o programador ali do operacional e deixasse só com a parte de arquitetura
segurança e outras coisas quando eu vi essa postagem aqui fica sempre aquela briga de pessoas dizendo que já tá tudo perdido não tem o que fazer mesmo programadores Senior estão falando sobre isso e por outro lado tem aquela galera que vai dizer assim Ah a hora que a opena demitir todo mundo ali da empresa deles aí sim a gente conversa de verdade sobre esse assunto porque o que a gente tá vivendo hoje do ponto de vista prático a gente tá percebendo sim uma evolução da Inteligência Artificial na codificação e eu lembro bem nas primeiras vezes
que a gente pedia código eles vinham cheio de erros eles iam todos bugados era uma dificuldade para você fazer o joguinho da minhoca depois os modelinhos que começaram a fazer o joguinho da minhoca certinho aí o joguinho da minhoca ficou um joguinho fácil aí eles começaram a fazer o Tetris aí o Tetris já começava a dar erro mas aí chegou o momento que o Tetris começou a ficar bom as interfaces começaram a ficar melhoradas surgiram sistemas como bols cursor que começaram a colocar agentes ali para fazer a programação isso melhorou a qualidade do código Melhorou
a própria arquitetura interna dos programas eles já estão agora com uma arquitetura um pouco melhorada a parte de segurança também melhorou mas na prática na prática no dia dia ali o programador ainda sente aquela dificuldade percebe que o código não vai sozinho que se você quiser fazer um trabalho do início ao fim ali ele não dá conta e que aparentemente as coisas não estão nesse nível que eles estão falando do ponto de vista prático em relação a isso que o almodi falou ele deu um prazo de 3 a 6 meses Então vamos entender estamos agora
em 17 de Março lá em setembro então se não tiver 99% do código ali automatizado aí a profecia do dar começa a dar errado e mais ou menos lá em março de 2026 é mais ou menos quando o dar tá entendendo que 100% vai est automatizado mas para essa discussão ficar mais interessante vamos dar uma olhadinha também no que o city da Open ai falou porque ali complementa muito bem isso que o dar tá dizendo Do you have timelines on that you have a Theory on Where code Goes because you write this on a Daily
basis and you work on You work with the research teams and you build product you have a timeline in mind I would surprised when it launched our first like real launch of a coding Model was something like the thousandth best engineer in the world O3 which is coming soon is the 175th best competitive coder in the world and as we are starting to train you know the successor models they're already better and so I I think This is the Year that at least by the competitive coding benchmark This is the Year that that ai becomes
Better Than humans at competitive code forever right in the same way that computers pass humans at like então aqui ó Nessa fala do Kevin Will ele vai mais ou menos nessa linha né Ele tá dizendo assim ó bom tinha o modelo ow que tava no nível ali do milésimo programador do planeta aí fizeram o A3 que tá nessa escala aí do número 175 melhor programador do planeta o falou que nos testes internos ele já quo lugar e muito provavelmente agora nessa entrevista que o Kevin deu já deve estar no nível ainda mais alto mas tem
uma palavra aqui que ele falou que tem tudo a ver ó melhor na programação para humanos para sempre mas ele tá falando nas competições especificamente nas competições que tem a ver com isso aqui com essa prova do COD forces que são seres humanos que fazem essa prova e aí eles pegam Por exemplo essa prova e colocam para Open ai fazer pro O3 para algum modelo de a fazer esse teste o open ai O3 fez 27 pontos então aqui Eles olharam aqui ó quem fez 2700 pontos ficou no lugar 175 então basicamente foi isso que eles
falaram E aí ele comentam esse aqui é um nível super humano porque esses testes eles são bastante difíceis pros seres humanos mas ainda assim é um teste isso aqui por exemplo não é como colocar um servidor da Google para oferecer Gmail pro planeta todo que é um problema real difícil de resolver de escala de tamanho de complexidade de arquitetura que é simplesmente surdo e prático então tem algumas pessoas que estão olhando meio torta em relação a isso porque na verdade eles estão falando de um contexto específico de provas e testes que são aplicados em humanos
e isso é uma das coisas que o próprio Dario amodei lá que falou primeiro ele até critica porque ele fala assim A Iá tem que resolver problemas práticos do dia a dia e não só ficar fazendo prova e bmk por outro lado a gente não pode deixar de perceber que ela tá conseguindo evoluir que tem um caminho que tá sendo percorrido e em relação a isso ó o que que dizem ó a maioria dos pesquisadores de ia são céticos sobre os modelos de linguagem que alcançam a ai e tem um robozão aqui falando um blá
blá blá bem grande um novo estudo indica que os pesquisadores de a duvidam que as abordagens atuais de Inteligência Artificial levem a inteligência artificial geral que a tal Idi mesmo que a tecnologia continue avançando é gente porque o que tá acontecendo hoje é que a técnica não tá melhorando tanto ela não tá modificando tanto ela tá basicamente sendo otimizada cada vez ficando mais eficiente mas a essência dela ali permanece a mesma de acordo com o estudo da a a a i ou talvez a ai sobre o estudo da pesquisa de ia mais de TRS qu4
dos pesquisadores acreditam que escalar sistemas de a existentes provavelmente não produzirá Adi então aqui é aquela palavrinha que jornalista Dora provavelmente supostamente Teoricamente porque eles nunca vão afirmar assim que não vai conseguir atingir a Idi mas supostamente provavelmente não produzirá Idi E aí ó o estudo descobriu que 76% dos entrevistados classificam essa possibilidade como Improvável ou muito improvável que é mais ou menos o seguinte né é pegar esse modelo aí e colocar dados melhores é colocar mais computação é colocar mais tempo de computação é colocar mais tempo de inferência é fazer reflexão é melhorar os
prompts e num sentido de melhorando escalando em dados escalando em tempo de computação E esse monte de coisas e aparentemente assim Nem todo mundo tá feliz com isso a pesquisa destaca for consenso sobre o papel da Inteligência simbólica que a inteligência simbólica para quem não é da área de ia é o que a gente chama que tem o conhecimento representado que na prática significa que a hora que o programador tenta escrever como Aquela solução tem que funcionar na teoria ao invés de deixar a ia encontrar a solução sozinha mas pensa o seguinte como que você
faz para encontrar um caminho de uma cidade a até uma cidade B um cara que vai fazer uma solução simbólica Ele vai tentar criar um programa em que ele conhece as regras em que ele sabe como tudo aquilo funciona em que ele vai modelar o conhecimento ali Ah ele vai medir o caminho de todas as cidades depois ele vai ver qual que tem o menor tamanho e aí quando ele encontrar o menor tamanho ele vai isso daí seria uma solução simbólica em que ele conhece o que tá acontecendo em Oposição a simbólica seria conexionista que
são as redes neurais em que você monta um sistema que faz conexões e deixa que as conexões aconteçam e você não diz quais são as regras e você nem sequer entende realmente Quais são as regras que ela encontrou para conseguir chegar naquelas soluções Então quando você parte para i simbólica seria mais ou menos você começar a se meter ali e dar bedelho no que que a inteligência artificial tem que fazer ou tem que deixar de fazer e aqui Eles continuam né mais de 60% dos pesquisadores acreditam que qualquer sistema que se aproxime do raciocínio humano
precisará ser pelo menos 50% simbólico que significa que 50% ali foi o ser humano que falou assim ó tem que acontecer isso depois Acontece aquilo depois Acontece aquilo outro entra na rede neural faz lá a mágica dela depois sai da R neural faz aquilo aquilo outro aquilo outro aquilo outro esse seria um exemplo de uma solução simbólica né 5050 No entanto o campo ainda carece de definições formais e critérios de testes acordados para Adi Eu tenho um Pitaco pessoal eu tenho um palpite pessoal eu vinho da psicologia e a psicologia é 100% simbólica São pessoas
são seres humanos tentando descrever Quais são as regras que o ser humano segue para tomar as decisões para viver a vida dela ali e começam a criar teorias em cima disso essa ideia simbólica de tentar descrever o mundo segundo a nossa própria percepção ela acontece em cima de padrões ilusórios que a nossa humanidade passa e por isso eu particularmente não sou o cara que vai defender a simbólica e para mim é sempre o contrário Todo modelo de a que tem um grande percentual de A simbólica tá indo no caminho errado mas isso é conversa para
um outro vídeo mas isso é um exemplo para vocês entenderem que não é porque tem uma maioria que pensa uma coisa que todo mundo concorda Eu por exemplo sou um cara que discordo e principalmente porque o meu mestrado foi a simbólica e eu já sei as limitações da simbólica gente a gente não tem cérebro para resolver um problema realmente com complexo e aqui continua né apesar dessas dúvidas os pesquisadores são fortemente a favor da continuação do desenvolvimento que seria mais ou menos o seguinte né a gente não sabe exatamente se é simbólica se é conexionista
ou sei lá o que mais se vai continuar com o aprendizado por reforço mas de certa forma seja qual for o caminho o que a gente tem agora é continuar melhorando isso que já tá pronto 70% se opõe à pausa da pesquisa até que mecanismos de segurança estejam em vigor Então aquela coisa a maioria não quer parar as pesquisas não quer fazer pausa por conta de questões de segurança embora 82% acreditam que potenciais sistemas de Adi desenvolvidos por empresas privadas devam ser controlados publicamente porque essa é a verdade tem um risco intrínseco ali e é
um risco que a gente ainda não conhece porque é uma coisa que a gente nunca viu na vida não existe nenhum ser mais inteligente no Mundo pelo menos nesse mundo que a gente conhece e portanto a gente não sabe o que fazer o dia que tiver alguma coisa mais inteligente que a gente e essa parte aqui tem uma coisa bastante interessante que vale a pena pontuar bem agora uma das coisas que eu fazia na época da Psicologia era estudar uma coisa que a gente chama de comparativa animal ou etologia que é comportamento animal e por
exemplo o TIM panzé é considerado um dos ataques mais violentos e mais devastadores quando ele ataca contra um ser humano porque justamente ele ainda é um animal e ao mesmo tempo justamente ele já tem uma inteligência muito mais avançada que todos os outros animais e tem o terceiro item na conta ele é muito mais forte e para completar ele tem dois braços mas ele tem duas pernas que também trabalh como se fossem braços porque ele utiliza o pé para pregar as coisas então quando tem um ser humano contra um chimpanzé ele consegue prender as tuas
mãos com as mãos dele e ele consegue segurar as tuas pernas com a perna dele coisa que a gente ser humano não consegue fazer E aí sobra aquela boca dele com aquele dente afiado e eu nem vou te dizer onde que ele morde e é isso aí mesmo onde você pensou é lá onde mesmo ele morde porque ele é inteligente e sabe que ali é teu ponto fraco é muito doido muita inteligência associada a burrice dá esse negócio do chimpanzé aí isso para concluir que existe um momento da Inteligência Artificial que ela já vai est
inteligente o suficiente para fazer um monte de coisa mas não madura suficiente que é o nível chimpanzé da ia que esse momento aí que eu quero ver o que que vai rolar os cientistas vem um potencial significativo de sistemas de I especializados eles apontam o Alpha Ford do Google Deep Mind como um exemplo de a que pode acelerar a ciência como um sistema especialista em um campo específico que representaria uma vantagem significativa entre atingir a Edi isso é interessante né porque o alfa fod é bastante ya simbólica e ele serve para interpretar ali os padrões
e as geometrias das proteínas do nosso corpo que ajudam a prever o que que vai acontecer quando um gene tá construindo alguma coisa e esse é lado da i muitas vezes fica oculto quase ninguém fala mas que tem um baita potencial os modelos de raciocínio mostram limites apesar dos avanços recentes apesar dos avanços recentes tem algoritmos de tempo de teste para modelos de raciocínio que é aquela ideia do reasoning né do raciocinar do frinking alguma coisa assim os pesquisadores do estudo identificam deficiências fundamentais nas arquiteturas atuais de ia os sistemas lutam com planejamentos de longo
prazo não conseguem aprender continuamente e não tem a função da memória episódica estruturada que os humanos possuem é gente essa aqui é aquela coisa Aquela Velha História né A Iá tem os seus limites mas o que eu não consigo concordar é essa mania de ficar comparando com os humanos Por exemplo essa ideia de não ter a memória episódica tá interessante gente mas até quando a gente vai voltar nesse papinho Ai não é igual ser humano não é igual ser humano aí vira aquela diga né se fala que é igual você toma bronca se fala que
não é igual você toma bronca também aí não faz sentido né gente aa tem o caminho próprio dela muito provavelmente ela não vai seguir o caminho humano ela começou inspirada ali mas ela em algum momento pode tomar seu caminho próprio mas essa questão aqui ó de não conseguem aprender continuamente essa aqui é um problema que a gente não vai chegar ainda agora tão recentemente por conta de infraestrutura o que que ele tá dizendo por exemplo o chat GPT ele tem o p que é de pré treinado Isso significa que tem tem um momento que a
inteligência aprende e depois tem o momento da inferência Ali que você Testa o modelo e que você faz as perguntas Isso significa que enquanto você tá ali interagindo com a inteligência artificial ela pode até aprender a partir dos prompts ela pode até aumentar o contexto dela baseado no que tá sendo conversado mas ela não tá alterando os neurônios internos dela ela não tá fazendo um aprendizado da mesma forma como ela aprendeu e ela chegou naquele cérebro digital que a gente chama de llm isso aqui para mim faz todo sentido aprender continuamente é uma coisa que
tem que acontecer em algum algum momento eu acho que isso não vai acontecer agora porque a gente tá sofrendo horrores com milhares de dólares para conseguir fazer treinamento no nível que é feito hoje e isso aqui para mim parece mais aquela coisa algum dia no futuro quando os hardwares forem melhores quando o processamento for melhor por exemplo a computação quântica pode ser uma solução para isso de repente a gente consegue fazer um aprendizado contínuo e aqui a parte do planejamento de longo prazo faz sentido né que é o que acontece hoje na programação quando você
tá num programinha pequeninho ali ele vai bem quando o programinha começa a ficar médio às vezes ele já começa a se perder de médio paraa frente ele já se perde ele não dá conta e a coisa vira uma confusão sem fim mas do meu ponto de vista é como se fosse uma evolução desde o início lá da rede neural desde as primeiras redes neurais que tinham três 4 cinco neurônios 10 neurônios quando tinha uma camada só depois quando surgiu a segunda camada terceira E aí até surgir as camadas de Deep learning até surgir os Transformers
tudo isso é uma evolução Então para mim isso não é um problema significa que agora a bola da vez é resolver raciocínio de longo prazo mas que o problema que a gente acabou de resolver foi o problema do raciocínio de curto prazo então deu um cheque a mais ali nos problemas que a gente tinha os pesquisadores também apontam para lacunas significativas no raciocínio causal e na interação com o mundo é gente tem mais problema do que solução isso daqui não é ainda uma inteligência como a humana não é isso é uma inteligência artificial que aprende
e funciona de outra forma embora o processamento de fala e imagem tenham visto avanços impressionantes os sistemas ainda carecem de uma compreensão mais aprofundada da realidade física e não só da realidade física né falta uma compreensão profunda das próprias palavras e do próprio sentimento das coisas e das consequências das coisas uma coisa interessante que tem a ver com isso é que quando eu fiz esse projetinho aqui do chatbot de Minecraft é interessante perceber que nós seres humanos a gente quando tá vivendo no mundo a gente tem uma percepção ali sensorial muito poderosa do que que
a gente encostou do quanto a gente tá longe das coisas do quanto a gente está perto das coisas O que que a gente está ouvindo nas três dimensões Então realmente esse mundo físico para nós é muito inteligente e quando eu colocava o chatbot ali para jogar e o que ele tá enxergando ali é o que o próprio joguinho fornece para ele por meio da api dizendo a distância quais objetos que estão perto quais objetos que estão longe e isso é bem interessante de você perceber como essa dinâmica da física interfere no chatbot ele ainda é
muito mais texto e muito mais verbal do que sensorial mas isso tem solução né gente a questão é que hoje a gente já tem uma grande quantidade de dados que estão na forma de texto na internet e de vídeos também mas esses dados sensoriais do que que um ser humano sente enquanto ele tá vivendo a vida isso não tem ainda as descobertas vem do ai 2025 do President pen on the future of ai research liderado pela presidente do ai Francesca Rossi o estudo reuniu 24 pesquisadores experientes em EA entre o verão de 2024 e a
Primavera de 25 examinando 17 tópicos diferentes de pesquisas de a incluindo descobertas científicas E ai uma pesquisa complementar de 475 participantes principalmente da academia 67% e da América do Norte 53% forneceu uma perspectiva adicional sobre a direção do campo então é isso né gente tem bastante polêmica tem bastante coisa o que eu acho que tem a ver em relação ao Kevin Will e sobre o Dario modei ali da antropic é que o que tá acontecendo hoje na ia em relação especificamente à programação é que parece que a automatização da programação e fazer uma codificação automática
é o melhor cenário para um cientista de ia aprender a criar uma ia autônoma 100% autônoma porque é o seguinte quando você vai treinar uma inteligência artificial se você vai trabalhar num campo que você não conhece por exemplo fazer uma ia para cuidar de cavalo a primeira coisa que o pesquisador vai ter que fazer é estudar ali como que cuida de cavalo Porém quando o pesquisador faz uma ia para programação o pesquisador já é programador ele já trabalha na área de TI Então isso é um ponto positivo outros pontos positivos quando se trata específicamente de
código se o código quebra se o código não funciona se ele não chega no objetivo final dentro de todas as atividades que o ser humano faz ela é relativamente fácil de você detectar se deu certo se deu errado e por isso aprendizado por reforço funciona muito mais fácil e essas Coincidências e tudo isso que tá acontecendo faz com que as equipes de ia possam escolher a programação como o primeiro caso em que uma Idi possa realmente funcionar no mundo prático no mundo físico e muito provavelmente por isso que talvez a automatização e a compreensão da
Inteligência da máquina vai começar justamente nessa área da programação a tematizando a geração de código e uma vez que essa parte de programação tiver muito bem resolvida e muito bem consolidada só aí então que vai começar uma expansão a partir dos aprendizados que vão sendo adquiridos nesse tipo de automação para aplicar em outras áreas para aplicar em medicina em Biologia Psicologia matemática e por aí vai comenta aqui o que você tá pensando que eu quero saber você tá mais propenso em acreditar que vai dar certo esse negócio de automatizar a codificação ou você tá mais
cético dizendo não não vai dar certo esse negócio aí é só conversa de ctio eles estão querendo vender o peixe deles e por isso que eles estão falando isso essa conversa ainda vai dar muito o que falar se você quiser apoiar o canal para continuar vendo vídeos como esse seja membro os membros têm acesso ao grupo do WhatsApp e vídeos antecipados É isso aí deixa aquele like valeu