te liga na evolução dele no Cold forces cara na na na competição de de gerar código né ah GPT 4 o olha o quão o quão mais alto foi o ow One cara a espera pelo morango finalmente acabou e muitos de Vocês perguntaram para mim Lucas por que que tu tá usando morango no título morango na tamb e não sei se tu percebeu O o padrão Mas eu sempre usava morango quando eu ia falar de algum Hype qual que é esse Hype é o Hype que foi criado em volta do novo modelo da Open eii
o novo modelo Acaba de ser lançado ele foi lançado ontem de noite e a Open Ei me liberou hoje pela madrugada então eu já tô conseguindo utilizar o novo modelo deles que seria aqui o famoso morango né que muita gente estava falando então se especulava que o o Sam altman tava aí trabalhando na horta de morango dele e ele pensou nesse modelo aí que poderia raciocinar mais em cima da tua Pergunta antes de te dar uma resposta eu gravei um vídeo sobre isso se tu não viu o vídeo eu vou colocar aqui na descrição mas
esse era o Hype eram boatos esse boato envolvia muito também aquela treta que aconteceu na Open Ei alguns meses atrás onde o Sam alom ele foi meio que expulso da empresa pelo board muito por conta do que o Willi teria visto e finalmente então a gente botou a mão no que o Willi supostamente viu lá dentro da Open ai e que levantou digamos assim preocupações a Open ai então não lançou o GPT s né a gente a gente vinha sempre imaginando Nossa imagina Lucas como que vai ser daqui alguns anos porque a gente tem o
gpt3 que já era muito bom aí veio o GPT 4 um crescimento absurdo imagina como que vai ser quando vier o GPT 5 né e bom eu desculpa eu na verdade quebrar um pouco a tua expectativa mas a gente foi do GPT 3 pro GPT 4 pro o 1 então eles basicamente renomearam Normalmente quando uma empresa renomeia assim o nome de um produto é que ela quer de novo gerar uma nova expectativa né ela quer que tu pare de comparar numericamente o crescimento a evolução e passe a esperar pelo novo Hype vamos dar uma lida
Hoje no Que que é o open aio o1 eu usei Hoje eu fiquei digamos durante a madrugada aqui ó a gente acorda bem cedo aqui em casa 5:30 eu tava de pé aí eu saio dou um passeio com a Chloe aí depois a gente vai pra academia eu fiquei com a clu em casa a Sara foi pra academia e nesse período eu fiquei programando cara usando o novo modelo da openi fresco para vocês tudo que ele é capaz de fazer e eu fiquei bem impressionado e se tu agora vai me perguntar Lucas tá mas a
ia vai roubar o nosso emprego como programador eu entendo a tua preocupação e eu posso dizer que eu até compartilho da tua preocupação então eu não tenho uma resposta para ti e eu sei que tu deve ter ouvisto também de outros influenciadores eu até preciso trazer aqui no caso ah várias frases e e e explicações que a gente ouviu no nos últimos meses ah de pessoas dizendo que não cara tipo o crescimento não é exponencial do do do dos modelos outras pessoas falando sim tu vai perder o teu emprego ou tu vai virar um mero
programador de prompt e eu posso te dizer provavelmente todos eles estão errados provavelmente a gente vai chegar no meio-termo e ninguém sabe qual que vai ser esse meio-termo a gente também imagina que o modelo né então a gente tem um modelo aqui que é o o gpt3 a gente teve um modelo maior que era o GPT 4 e aí agora a gente vai ter um muito maior e é o tamanho do modelo ou a probabilidade a a capacidade dele de entender a próxima palavra é que torna ele inteligente e útil E pelo que eu tô
vendo já utilizando o o morango aqui não é bem isso deixa eu te dar um exemplo deixa eu abrir aqui e depois a gente vai ler Ah o artigo oficial da da Open ai mas eu quero te te mostrar como que basicamente o modelo funciona eu pedi para ele criar uma versão client do do do que a gente tá lançando aqui no canal né não sei se vocês sabem mas aqui no canal a gente lançou o Tony então a gente deu vida ao Tony basicamente a gente tem o streaming de um áudio que é o
Tony respondendo as perguntas que vocês mandam no chat da Live Então essas perguntas que estão sendo viadas enviadas aqui eu tô pegando do chat da Live que tá programada para hoje então Aqui nós temos o chat da Live eu mandei várias perguntas ali de teste durante a madrugada e essas perguntas são respondidas pelo GPT e depois a resposta do GPT ele é sintetizado em áudio e esse áudio eu crio um broadcast dele e faço streaming desse áudio então É como se eu conseguisse ter o GPT respondendo com a minha voz as perguntas de vocês em
tempo real durante uma live esse projeto a gente desenvolveu aqui no canal e agora a gente tá na parte do front end dele o backend tá todo pronto só que eu fiz a seguinte pergunta pro pro pro GPT 4 pro GPT 4 o e pro Cloud sonet tá o que que eu pedi para ele criar eu quero criar um projeto com react react com Shed CD Shed CN ui ah manualmente adicionado porque eu odeio frameworks né Eu falei que o projeto ele vai listar mensagens que estão vindos do websocket da aqui eu dei o endereço
do websocket e essas nós vamos chamar isso de perguntas e também tem uma outra lista de mensagens que vem de um outro web socket que a gente vai chamar de respostas e vai ter um áudio sendo tocado que vende tal endp aí eu coloquei requisitos de interface eu pedi me dá todos os comandos que eu preciso rodar e os arquivos que eu preciso criar ele levou 44 segundos o que que ele fez primeiro ele tentou entender o que que eu tava criando ele colocou aqui montando o projeto Estou construindo um projeto react ajustando manualmente o
Shed CN ui e evitando frameworks vamos ver se isso realmente aconteceu depois desenvolvendo o projeto estou trabalhando em um projeto que consome dados do websocket para exibir pergunt perguntas respostas e uma interface de áudio centralizada desenvolvendo fluxos estou listando perguntas e respostas e E por aí vai configurando ambiente evaluando alternativas Então olha só depois que ele desenvolveu o projeto desenvolveu o fluxo configurou o ambiente ele dá uma olhada para ver se teria outra alternativa estou mapeando o uso do Shed CN com next GS ou react manualmente buscando evitar frameworks isso sugere que estamos considerando abordagens
flexíveis e sem vinculação a um Framework específico então ele entendeu o que eu queria de fato quando ele começou a fazer evaluação aqui evaluation evaluando alternativas considerando opções estou pensando em usar componentes shedy com react vamos verificar a documentação para saber se é possível sem o nextjs te liga ele entendeu então que na grande maioria das vezes as pessoas estão usando react com nextjs E como eu falei para ele que eu não quero usar nenhum Framework ele colocou essa consideração então Aqui começa a parte que o some altan Diz que esse modelo é capaz de
raciocinar o que que isso quer dizer quer dizer que muito se fala quando a gente diz Ah Lucas Ah o o modelo é só um autocomplete e eu concordo entendeu tu tem as tuas palavras e esse modelo ele vai pegar cada palavra quebrar em tokens então uma palavra pode virar múltiplos tokens ou uma imagem pode ter milhões de tokens e ele pega basicamente isso ele cria um contexto Então tudo isso está dentro de um texto e esse contexto ele é colocado Então como input pro modelo que vai tentar prever o próximo token o attention is
all you need era sobre o contexto que é gerado com os tokens então tu tem uma janela de Window que ele chama de contexto o context Window que é o quanto de token ele consegue manter em memória para saber o contexto do que tu quer quando alguém falava assim o o modelo ele é só um aut complete eu vi uma explicação muito boa do FBI aquita por exemplo que ele foi no Flow foi na inteligência limitada e cara o Fábio aquita ali ele explicou de uma maneira muito simples e ele contou toda a história tá
ligado até chegar ao Modelo E por que que esse crescimento da Inteligência entre aspas do modelo não vai ser exponencial e eu concordo com ele mas eu tenho que discordado da conclusão que eu chego a ouvir o que ele falou eu concordo que o modelo não vai fazer isso mas o que eu tô vendo com o lançamento do Open ai o One é que ele não é uma atualiz são no modelo então a gente não tá incrementando na capacidade do modelo ok uma janela de contexto tá sendo cada vez maior Gemini já veio com uma
janela de contexto absurda Mas o que eu tô percebendo é que eles criaram um sistema de múltiplos agentes que fazem prompts para atualizar esse contexto pro modelo então fazer a a conclusão final antes de te dar a resposta é isso que o Sam altom queria dizer quando ele falou que a gente precisa prestar mais atenção nos testes do que no treinamento o treinamento do modelo tu pegar a internet inteira e zipar isso num llm a a gente já chegou no no num tamanho OK tá ligado a gente não precisa de um modelo maior agora como
é que a gente testa o resultado disso e a gente faz o feed de novo pro próprio modelo do resultado do que ele tá fazendo isso é só capaz só é capaz de ser feito cara através de um sistema então não tem por exemplo na minha opinião como tu baixar o openi ou o na tua máquina e usar ele apenas como modelo porque o que tá por trás aqui o que a openi deve estar fazendo e aqui é uma suposição minha é uma hipótese é um sistema de múltiplos agentes que vão guiando tá a tua
da tua pergunta até quebrar ela em requisitos mais inteligentes então como eu tava falando cara ela tá quebrando aqui o que eu falei em múltiplos prompts e eu acho que cada prompt desse tá gerando um resultado e ela tá olhando o resultado para gerar um próximo prompt então É como se eu estivesse usando ela centenas de vezes para chegar na minha conclusão então sabe quando tu manda algo para ela e tu chega e ela te dá um código e aí tu roda o código e não funciona daí tu fala ó não funcionou Aí ela te
dá o código certo e tu pensa por que que tu não me deu o código certo de primeira Bom eu acho que fazer ela interar em cima das próprias respostas vai fazer a gente ter a percepção de que ela é muito mais inteligente usando o mesmo modelo Vocês estão entendendo o o que que eu tô explicando aqui não coloca lá no chat vê se ele te explica Ah é que eu tô eu tô confuso na verdade talvez o GPT te explique melhor mas aí o próximo passo aqui configurando um projeto react estou começando a criar
um projeto react usando Vit configurando Twin CSS com post CSS e Auto prefixer agora estou ajustando PFS no meu no meu templates desenvolvendo a configuração importação de arquivos estou pensando em importar os arquivos manualmente cara olha olha is olha olha isso aqui estou pensando em importar os arquivos manualmente Isso está me levando a pensar se há necessidade de ajustes adicionais criando a interface estou montando a interface ui reprodutor de áudio Centralizado com listas verticais e horizontais de mensagens e componentes react twind CSS estão sendo preparados para começar configurando inicializando primeiramente estou organizando o diretório de
projetos instalando dependências aí aprimorando conexão então ele pensou aqui estou pensando em aprimorar a conexão webs destacando a criação de variáveis de estado para armazenar as perguntas e as respostas analisando compatibilidade estou refletindo sobre a compatibilidade de shad Y com nextjs e aqui tu já começa tipo assim mas a gente não tá usando nextjs Então por que que tu tá analisando compatibilidade com algo que a gente não tá usando instalando componentes reunindo peças montando a interface configurando o ambiente de novo configurando o ambiente de novo novo estabelecendo conexão Por que que ele configurou o ambiente
múltiplas vezes eu não sei te dizer o que que ele quer dizer com isso personalizando o visual E aí ele me deu a lista de comandos que eu quero executar então npm Create Vit last my app aqui npm install install do tailwind websocket e o Run ok ele não adicionou o nextjs embora ele tenha mencionado que ele tava vendo a compatibilidade com nextjs aqui tá os arquivos que eu tenho que criar Ok todos os arquivos aqui e aí depois ah additional Notes aqui ele colocou anotações finais e como rodar o projeto eu rodei o projeto
e sim funcionou de primeira o áudio tocou a lista de mensagens sendo consumindo websocket tudo funcionou de primeira eu fiquei bem impressionado eu sei que tu ia tu ia falar Tipo tu tava pensando que ia te dizer tipo assim nossa alguma coisa não funcionou mas não literalmente eu só copiei e colei tudo que ele me deu e funcionou de primeira simples assim ele não usou o nextjs Ele usou Vit eu não queria eu queria que ele Us só react Shed CN eu não sei né se se se tem como fazer ou se vocês já fizeram
isso e publicaram na internet porque tá muito difícil convencer uma ia para usar para usar só react Shed CN mas eu quero usar ele para algo mais complexo um sistema completo e eu vou ver se eu faço um segundo vídeo colocando esse sistema no ar tá se eu já coloquei no ar eu vou colocar tudo isso lá no ai kild internet que é o nosso site nós temos o canal de vlog ai kild internet da internet mas tem o nosso domínio também é i kill internet que eu vou colocar todos esses projetos lá se tu
quiser acessar Talvez ele já esteja de pé otimizando aqui para raciocínio né O que que é ser otimização para raciocínio como é que foi a Performance em matemática dele versus o custo de inferência então Aqui nós temos o custo e a performance vocês podem ver que o custo aumentou mas a performance tipo é ridiculamente maior do que o GPT 4 o ridiculamente maior é muito maior vamos ver programação porque matemática ele mandou muito bem então aqui tá a performance deles performando bem melhor do que o GPT 4 o bom quando se fala de ctfs de
segurança cibernética a gente já começa a ficar preocupado né porque ele desempenhou aqui o dobro do que o GPT 4 o tava desempenhando te liga na evolução dele no cod forces cara na na na competição de de gerar código né ah GPT 4 o olha o quão o quão mais alto foi o o One cara e no caso eles nos liberaram só o ow One preview né a gente não tem eu não tenho acesso a esse ow One eu tenho acesso a one preview e ow One mini isso aqui é um pouco impressionante ó isso
aqui São perguntas tá questões de ciência para um nível de PHD aqui tá os experts os humanos experts tá os humanos experts estava pontuando 69.7 acima do GPT 4 que a gente tinha 56.1 e One preview e o One estão pontuando acima de um Expert humano com phd em ciências então o pulo do gato tá nisso aqui ó cadeia de pensamento né o Chain of thoughts semelhante a como um humano pode pensar por um longo tempo antes de responder a uma pergunta difícil o ow One usa uma cadeia de pensamento a tentar resolver um problema
e pelo que eu tava vendo eles também conseguiram resolver a o maior problema de tu ter o Chain of thoughts que é quando alguém te perguntar qual que é a capital da Holanda tu não quer que o modelo comece a desenvolver uma linha de raciocínio Porque isso é uma pergunta direta então o modelo também ser capaz de entender quando tu tá fazendo uma pergunta complexa e quando tá fazendo uma pergunta simples é bem difícil de captar isso entendeu E não depende só do modelo cara por isso tô falando provavelmente é um sistema com múltiplos agentes
com várias etapas digamos de uso desse mesmo modelo por meio do aprendizado por reforço o owan aprende a aprimorar sua cadeia de pensamento e refinar a sua as estratégias que usa ele aprende a reconhecer e corrigir seus erros ele aprende a dividir etapas complicadas em outras mais simples ele aprende a tentar uma abordagem diferente quando atual não está funcionando esse processo melhora drasticamente a capacidade de raciocínio do modelo para ilustrar esse salto adiante mostramos a cadeia de pensamento do One Preview em vários problemas dif difíceis abaixo então codificação Escreva um script B que receba uma
matriz representada como uma string com formato um 2 3 4 5 6 Imprima a transposição no mesmo formato a saída esper entrada para a entrada o script deve gerar um texto simples e esse aqui essa saída representa a matriz transposta usuário né novamente aqui isso aqui foi com isso aqui foi com qu 4 o Então esse é o modelo antigo o modelo antigo errou agora o que que o modelo novo fez o modelo novo basicamente ele gerou o BES e falou salve o arquivo ele colocou o que que ele vai reproduzir e nesse caso ele
acertou Tá OK mas ele não ele não nos disse aqui basicamente qual que foi a linha de raciocínio tá aqui a linha de raciocínio então o usuário está solicitando um script B que pode pegar uma string representando uma como uma matriz ah tal vamos primeiro entender o formato de entrada e saída aqui que tá a entrada então A entrada é uma série de linhas cada uma entre com shat separadas por vírgula a a transposição dessa Matriz seria essa aqui então a saída solicitada seria essa tarefa geral Escreva um script B que pegue um argumento a
string representando a matriz e Gere sua transposição no mesmo formato Ok vamos pensar em como analisar a string de entrada no best construir a matriz Provavelmente em arris transpô-la E então gerar a matriz transposta resultante no formato esperado restrições como é BES temos que ter cuidado ao analisar Strings o script deve aceitar a string de entrada como um argumento abordagem analisar a string de entrada Ok Isso faz sentido construir a Matriz como uma rei de ar Reis transpor a matriz gerar a matriz transposta Ok etapas de implementação capturar a string remover qualquer espaço analisar string
ok daí que ele vai vai vai vai descrevendo que ele vai fazer possíveis problemas o best não tem matrizes multidimensionais nativamente Então precisamos simular precisamos lidar precisamos lidar com números que podem ter mais de um dígito Cara isso aqui é bem impressionante tá ligado ele entender a limitação do BH porque o que acontecia no no 4 o era que ele delirava né quando tu pedia algo que a linguagem o Framework tinha uma limitação Ele criava uma API que não existia tipo Ele criava uma função um método uma estrutura de dados que não existe naquela linguagem
que tu tá trabalhando mas nesse caso aqui esse isso não parece ser mais um problema bom aí o que o some altman fala aqui no tweet dele é o seguinte né Ah ele compartilha aqueles resultados ali e ele diz que é é o começo de um novo paradigma a iak pode fazer raciocínio complexo de propósito geral ou One preview e ou One mini estão disponíveis hoje durante algumas horas no chat IPT para usuários Plus e team e em nossas apis para usuários de nível 5 basicamente ele escreveu Adi de uma forma diferente e fica a
pergunta então a gente atingiu a Adi ou não atingimos porque pelo que ele diz a gente teria atingido certo maak pode fazer raciocínio complexo de propósito geral e isso não significa Adi teve uma outra pessoa que voltou também nessa conversa toda de de ontem para hoje que sim cara o nosso queridinho o mano Devin o dein tá ligado vocês lembram do davin a ia a primeira ia programadora que vai substituir os programadores na verdade é o mayak que é 100% que programa 100% sozinha né da da cognition trabalhamos em em Estreita colaboração colaboração com a
opene nas últimas semanas para avar as capacidades raciocínios do openi o One com dayin ah descobrimos que a nova série de modelos é uma melhoria significativa para sistemas de Agentes que liido com código abaixo está um mergulho profundo com mais resultados de avaliação e como pensamos sobre avaliar agentes de codificação daí aqui ele postou uma uma imagem né do que que o d vin ele ele conseguia fazer com GPT 4 o e como ele consegue fazer com o One preview Então cara o Hype continua a gente não sabe onde isso vai dar não adianta me
perguntar nem perguntar para ninguém porque ninguém sabe essa é Real o que eu de fato acredito que a gente tá vai viver aí o o novo momento de de aplicativos Então vai ter muita gente criando produto com base nessas soluções aí que envolvem deixar ia como backend do teu produto e vender algum serviço ou alguma entrega de valor que alguém vá pagar uma uma assinatura ou fazer um One Time ali payment para ti eu acredito que vai ter uma enxurrada de novos sites novos aplicativos envolvendo Inteligência Artificial e depois de um tempo a gente vai
cansar aente Vai cansar de tudo isso mas confere aqui na descrição então o link para ver se já tá de pé o o o site que que o GPT ow One não GPT não é mais GPT né que o ow One criou para mim morangos