Unknown

0 views10793 WordsCopy TextShare
Unknown
Video Transcript:
Boa noite seja muito bem-vindo a segunda aula do ai Experience para mim é uma honra ter você aqui junto comigo na ciência dos dados Meu nome é Eduardo Rocha e na aula de hoje você vai aprender a construir uma fábrica de Agentes de ia nada de no code nada de ferramenta paga cara nada tudo com o nosso querido Python tudo bem estamos junto então hoje você vai conhecer frameworks você vai conhecer bibliotecas você vai compreender como que você pode transformar isso num grande potencial aí na sua jornada profissional tamo junto beleza Esse é o meu
compromisso contigo aqui no dia de hoje nós estamos no segundo dia do treinamento ai Experience na aula de ontem você aprendeu a criar um ai2 S KL né um Agent to skl a gente desenvolveu uma aplicação ah utilizando ali o próprio L chain utilizando ali modelos ah de linguagem os grandes llms nós utilizamos o stream leit ou seja uma aplicação bem interessante onde você inclusive depois pode fazer um Deploy simples na própria Cloud ali do stream lit eh eh Inclusive essa essa parte de cloud também é uma coisa muito importante é um dos focos ah
da das formações onde eu eh Ministro aqui o conteúdo da ciência dos dados Então isso é muito importante para que você realmente mostre aí a o profissionalismo na hora de construir as suas aplicações de Inteligência Artificial tamo junto Beleza então cara tem um hiper Case na tua mão ah e hoje não será diferente de ontem nós teremos aqui nós já estamos na segunda semana aqui de muito conteúdo eu tenho certeza que talvez a entrega que a gente tá fazendo aqui durante essas duas semanas você não vê de forma ah de forma tão eh despreender Então
aproveita essa parada toda a codificação para quem tá inscrito Ah tá sendo entregue então se você já tá par parpando E você tá inscrito você já tem todos os os scripts você já tem todos os projetos inclusive ontem a gente já teve uma en chorrada de pessoas que inclusive Ah já manifestou ali né Já conseguiu concluir a atividade ah respondeu lá o formulário colocou a palavra-chave lembrando que hoje também temos a palavra-chave Eu falo sempre que a gente termina essa parada eu quero que você acompanhe e desenvolva aqui o raciocínio necessário né para construir as
aplicações de cada dia então eu tô sempre falando uma palavra chave e e você me responde que palavra chave é essa no formulário faz parte do que Eduardo desse Da Lógica do ai Experience né Por que Eduardo porque cara eu quero premiar você por ser um bom aprendiz aí né por ser uma boa pessoa que procura a evoluir profissionalmente que procura aprimorar e fazer com que tenha cada vez mais habilidades e eu quero muito que você realmente Aproveite esse conteúdo e para isso eu tô né sorteando um notebook e aí é claro você tem que
fazer a algumas atividades coisas simples você tem que estar nos grupos de WhatsApp você tem que seguir aí né pô ajudar o perfil também né a ajudar o perfil a a expandir a mensagem então cara se você ainda não segue o Instagram e não segue o YouTube ah eu convido você aqui a participar tá bom das mídias sociais e fazer com que essa mensagem esse ensinamento caia aí e diante de pessoas que precisem aprender esse conteúdo também fazer a sua parte aí de ajudar duplamente a pessoa que vai receber e ajudar o seu parceiro que
tá aqui desse lado também a fazer a mensagem dele chegar mais longe estamos junto então beleza Ah nós temos aqui hoje ah alguns alguma alguns aprendizados que eu tenho certeza que Ah eles eles podem fazer uma diferença muito muito muito grande aí na sua jornada profissional ah ou até mesmo aí na empresa onde você já trabalha esse tipo de entrega que você vai ter aqui no dia de hoje ele também é capaz de clarear um pouco aí inclusive as suas ideias ah de empreendedorismo também porque não né você começa a vislumbrar a um um Horizonte
eh diferente né a a gente que trabalha com o tecnologia a gente tem uma uma oportunidade de trabalhar não só em um empresa para uma empresa Mas trabalhar por meio de consultorias porque o que você aprende você simplesmente pode desenvolver para clientes né como por exemplo esses dias eu mostrei para vocês aqui um aluno meu que pegou um Case Ah bem interessante de de de automação tal pô um projeto 50 R 56.000 então assim e para uns é muito para uns é pouco mas eu acredito que para você fazer um um uma consultoria algo à
parte já é uma grana relativa aí para você fazer aí uma festa de final de ano bem interessante aí na sua família hã Então cara eu quero de verdade que você também tenha essa visão de evoluir profissionalmente para que você consiga aprender outras formas aí de monetizar o seu conhecimento também beleza cara show de bola então Ótimo vamos então adentrar no conteúdo de hoje por quê Porque eu não sei se você viu eu coloquei aqui na na aula a o tema eh o tema fábrica de Iá né ficar um ar condicionado aqui tá fábrica de
ias Por que fábrica de iaz Eduardo bem primeiramente eu quero mostrar Ah uma uma biblioteca para vocês talvez alguns já ouviram falar porque eu já trouxe aqui no canal mas eu não entrei em detalhes Ah que vocês vão ver aqui hoje né então tem algumas explicações um pouco mais pormenorizada nesse Case nesse Framework que a gente vai trabalhar aqui então e se você já viu algo parecido Hoje é a chance de você se aprofundar Ainda mais nessa parada e eu vou trazer também uma uma parada que eu nunca mostrei né uma uma estrutura aqui completamente
uma engenharia muito muito interessante aqui para que você possa a pensar nessa parada que eu te falei na parte mais empreendedor Issa da da da coisa toda aqui tudo bem então vamos lá cara parada é o seguinte então hoje eu queria trazer para você a Uma das uma das bibliotecas que elas ajudam o processo de desenvolvimento de Agentes de ia com alguns focos Como por exemplo o a própria Lead que o a forma de lidar com os dados que um cientista de dados que um especialista de dados precisa ter na hora de desenvolver Ah um
trabalho preditivo isso é muito comum ali na no trabalho do cientista de dados né o analista de dados tá começando a aprender isso aqui também ah D da Necessidade né do contexto atual eh é um conteúdo que ele ele realmente ele tem expandido muito então a gente já já vê aí uma uma grande quantidade de desenvolvedores eh compreendendo né o processo do machine learning tradicional e essa biblioteca ela é uma biblioteca que nos ajuda a criar uma estrutura eh de Agentes para a nos ajudar nesse trabalho nesse trabalho do desenvolvimento de metodologias preditivas tá bom
preditiva De que Eduardo cara um trabalho preditivo qualquer então se eu por exemplo tô aqui num contexto de negócio e quero prever se o cliente vai TR na de implen ou não eu quero prever se o cliente ele tem um tipo uma tipologia de risco uma classe enfim esse esse tipo de coisa né prever regressões prever classificações prever eh clusters agrupamentos E por aí vai tá bom esse trabalho muito tradicional dos cientistas de dados ele é facilitado por meio da criação de Agentes utilizando esse cara aqui que é o bambu ai Tá bom eu não
sei se ó o material dessa parada aqui eu É bom avisar no começo porque eh eu vejo que tem alguns colegas que perguntam né No início eu queria só que você prestasse atenção tá bom não não queira Abrir aí o collab e abrir o o o o o curso o vest code não sei o que que você tá usando aí mas é tipo ao mesmo tempo tá bom eh tenta focar aqui tenta prestar atenção nessa parada Veja isso mais de uma vez se você for olhar aí as aulas anteriores A galera tá detonando milhares e
milhares de visualização né muitas pessoas vem mais de uma vez para poder masterizar esse conteúdo e você tem que aproveitar tá bom porque ele vai ficar completamente ah junto ali com o conteúdo da formação ai Expert né a formação ai pro Expert que eu vou falar sobre ela mais à frente Tá bom mais pro final desse treinamento aqui ah eu falo sobre essa formação Então cara tem que aproveitar enquanto essa parada tá no a cara detona aí beleza então vamos lá essa biblioteca ela é uma biblioteca muito boa para tornar análise de dados mais acessíveis
para quem não tem ali uma um trabalho de codificação mas também para quem é programador e cara não tem ali um um contato muito próximo do que é a o trabalho preditivo como eu havia falado para você né então a gente vai utilizar o poder dos llms é claro você já conhece uma grande quantidade de llms Fala aí né ah a gente viu muito llm já na semana passada passada então a gente viu n hoje lançou mais uma versão aqui do do Cloud né se você for olhar aqui no Cloud ele lançou o 3.5 Então
pode ter certeza que a gente vai fazer um trabalho massa aqui né então eu vou trazer mais conteúdo aqui pra frente Ah eu já trago aqui o que que eles fizeram de novo tem tanto Cloud 3.5 sonet bem como o o o outro que eu esqueci o nome dele uma coisa assim São dois que estão chegando aí com a versão 3.5 também ou seja isso aqui é um conhecimento que ele a você pegou as manhas de como que você lida com o desenvolvimento Cara você não para mais porque você começa a entender como que funciona
o pipeline das coisas né esse é meu grande objetivo que você esteja sempre focado aí no pipeline a desse processo de de construção aí Tá bom então vamos pra frente então o bambua ele é uma biblioteca muito interessante e aqui nessa nessa figura é uma figura que agora de cara pode assustar um pouco porque a gente tá vendo uma uma série de de de de de Agentes aqui E e essa série de Agentes quando a gente tá começando fica um pouco mais complexo né então ah eu eu vou entrar ali nos pormenores de cada um
desses agentes e explicar ali o trabalho deles para que você possa depois ficar um pouco mais mais tranquilo com relação ao trabalho dessa figura aqui mas de cara o que a gente tem é uma um problema um problema específico né da área aí e da área de de ciência de dados por exemplo e nós temos aqui um trabalho com uma dezena de Agentes para nos ajudar a solucionar esse problema da área da ciência de dados da área da análise de dados de uma empresa Então você vai ver que nós temos aqui uma uma entrada de
de de prompt né um pedido ali Opa eu preciso desenvolver uma metodologia com esses dados aqui me ajuda pelo amor de Deus né então é assim que o usuário vai fazer E aí os agentes que você desenvolveu vai começar a trabalhar né então a gente tem o o o primeiro agente ali da camada que é o o selector ele vai descobrir se é um problema simples de análise de dados ou se é de um de um trabalho de de um pesquisador né um trabalho um pouco mais evoluído se for um trabalho de um analista de
dados ele vai passar para um analista né para um analist E aí o o analista vai fazer o quê ele vai receber a informação que a gente fez né o input ah de dados que a gente tá fazendo né o dado tá vindo de uma conexão o dado tá vindo de um arquivo né então ele recebeu esse arquivo aí ele vai passar pro pro planejador né então o analista de dados fez o trabalho passa pro planejador o planejador vai compreender o contexto e vai passar pro gerador de código aí o gerador de código vai fazer
todo o trabalho que precisa ser feito vai executar o código deu bug beleza deu bug a gente tem um cara que vai corrigir ali o trabalho né então tem O Executor mas também tem o corretor dado que o corretor fez a parada ele vai entregar a solução eh a solução sumarizada e vai trazer pra gente uma nota né ele vai trazer pra gente uma nota e aí a gente vai dar o OK ou não nessa nota né Tem um feedback ali ah do do trabalho do do do trabalho do Agente né E aí esse esse
é o Esse é o fluxo Tá bom a gente tem aqui algumas algumas ferramentas digamos assim né Nós temos aqui por exemplo a ferramenta Ah para que o agente tenha ali um search né para que ele busque informações e e coloque aqui nesse contexto aqui do do agente que vai planejar o o o trabalho nós temos aqui também o a figura do vetor né do banco de dados vetorial que é um banco de dados que vai nos ajudar a ter aquela interligação entre o conhecimento prévio do llm e as informações que das informações que a
o os agentes estão buscando das informações que a gente colocou no no na entrada de dados então juntando essas duas informações a gente vai conseguir desenvolver a a aplicação para responder e entregar ali a solução ah final para o o usuário que tiver fazendo o trabalho então assim veja que é um trabalho que foi muito bem desenhado aqui essa estrutura Hoje é a estrutura que foi desenhada dentro da aplicação do bambu né do bambu ai E e essa estrutura ela é praticamente ali uma estrutura perfeita quando a gente olha todo o pipeline da ciência de
dados como eu gosto de falar né Eh você entrega ali você entrega praticamente um um um contexto e um ponto inicial até um ponto final de um excelente trabalho de uma metodologia preditiva Beleza então esse essa é a ura do trabalho dos agentes para isso é claro a gente tem algumas dependências Tá bom então a gente tem algumas dependências a gente vai instalar o bambu ai a gente vai instalar aqui algumas dependências que são ah eh como se fosse eh alguns requisitos Paralelos ali do bambu ai e algumas outras bibliotecas aqui que a gente que
o bambu pode utilizar para fazer o trabalho dele como o plotly ou cbor para fazer um GR Y finance para buscar uma informação na web então o nosso agente cara ele é um agente muito capacitado é um agente que ele é informado e ele é atualizado porque ele busca as informações Ah no contexto que a gente precisa aqui tudo bem então Ó vou instalar essas biblioteca você vai ver que esse processo de instalação ele não é ele não é tão rápido vai demorar um pouquinho então a gente vai passar aqui pro pro pros próximos passos
e ele vai continuar instalando aqui enquanto isso eu queria ia mostrar para você ah o que que a gente vai utilizar aqui como dependência né então a gente vai utilizar a Open beleza nós vamos trabalhar com os modelos ah GPT 4 Omni que são excelentes modelos para esse tipo de trabalho ele ele ele nos permite que a gente sete qualquer modelo Tá bom então esse trabalho aqui você pode ah conectar com qualquer biblioteca então você pode trabalhar com com modelos que são eh modelos da Meta com modelos que são do Mistral enfim você pode trabalhar
com essas bibliotecas que são Ah mais mais abertas tá bom o o banco de dados vetorial que a gente vai utilizar vai ser o pinecone Tá bom a gente vai trabalhar com pinecone e é um dos bancos um das dezenas de bancos de dado vetorial que que vão ah dispor a ali o seu serviço para nos ajudar a fazer esse esse trabalho com llms Lembrando que a figura do banco de dados vetorial hoje ela é imprescindível nesses trabalhos onde a gente ah busca alimentar ali o llm com uma com uma informação adicional de conhecimento né
então ele pega as informações e faz aquela transformação vetorial que a gente conhece como eding cria os vetores e depois a gente consegue fazer a busca dessas informações por meio eh de de Por meio dessa própria busca vetorial que a gente realiza ali e faz ali o deparo com os llms tá bom Por isso que hoje a gente tem aí essa figura do banco de dados vetorial nós vamos utilizar o Picone Que conversa muito bem com com a com o nosso Bambu ai Tá bom então a gente vai utilizar o o Picone aí o Picone
ele ele tem uma alguns locais aqui onde a gente vai trabalhar aqui nessa estrutura fre aqui que eu tô trabalhando num estrutura free Tá bom a gente ele vai est na aws né vai tá aqui nessa região beleza e aí a gente vai falar já sobre alguns detalhes desse banco de dados vetorial como por exemplo as dimensões E por aí vai tá bom métricas ah métricas da da busca né A Busca Ela tem uma uma medida tem uma forma de se fazer essa busca que a gente já vai falar sobre ela e o contexto é
claro da do serper que é o banco de dados que é o banco de dados ó que é o a nossa api a nossa API de busca ah do search né então a gente já trabalhou em alguns cases aqui se você ainda não tem cria uma conta simples aí de boa ah não precisa nem de cartão tal cara você cria uma uma uma conta e depois você vai fazendo aí as suas suas eh o seu trabalho de de busca que a gente vai fazer aqui no search Tá bom você busca S aqui e tanto aqui
do do serper quanto do pinecone também tá bom pinecone Aqui também você consegue gerenciar suas Keys beleza eu tenho uma Kia aqui que a gente tá utilizando já como ela tá sempre aqui oculta nem nem tô trocando ela mas tá valendo beleza cara aqui a gente tem a as chaves eu não vou nem me ater aqui de fazer aquela parada de colocar em ambiente ah variável ambiente chavinha cara não vou fazer na tora porque bora bora eu meu meu caso aqui com vocês nesse nesse problema de hoje é mostrar agentes de Aressa parte de segurança
você sabe que você tem que colocar aqui na chavinha beleza no no numa parte mais segura não colocar cara beleza você tem que cuidar desse desse detalhe aí bora pro desenvolvimento aqui que eu quero mostrar essa parada para você tá bom então ó ele tá terminando o processo de instalação tá vendo ó eu te falei que ele demora um pouquinho né ele tá terminando esse processo de instalação a gente já tá armazenando aqui as informações ah do da api do search da api do pinecone e da Open aiq pra gente fazer esse trabalho aqui beleza
então logo depois a gente vai fazer o importe das bibliotecas que são o próprio Bambu ai e o pandas pra gente trazer ali uma fonte de dados pro nosso trabalho tudo bem agora cara dado que a gente fez esse essa importação é que a gente vai configurar os llms que serão os nossos agentes então Então veja que a gente tem uma uma estrutura aqui onde ele explica o esse processo de configuração eu vou entrar num detalhe maior aqui porque nas aulas anteriores que eu falei dessa biblioteca Eu não fiz esse trabalho então eu vou completar
esse trabalho aqui para deixar ele cara bem claro para você entender tudo que tá acontecendo aqui essa parte do llm config é onde a gente configura cada um dos agentes que são necessários aqui para desenvolver essa parada eu pedi pro Cloud gerar um artefato e ele gerou o seguinte artefato que compõe ali cada um dos dos agentes né então por exemplo eu vou dar um zoom aqui e aí nós temos a estrutura do llm config e para cada um dos dos agentes que trabalham nesse processo aqui de desenvolvimento ah de um trabalho preditivo a gente
tem ali a figura daqueles agentes que a gente perpassou na figura tem ali o o cara que vai selecionar ali se é um trabalho de um analista se é um trabalho de um pesquisador nós temos ali o cara que é o o agente que é o planejador o gerador de código debug ador de código Ah que mais a gente tem o o cara que soluciona os erros o cara que ranqueia depois a o trabalho que foi feito e o outro agente que vai fazer ali o o Sumário a gente você vai ver que tem um
sumário executivo do trabalho não é só simplesmente jogar o código e tá valendo não usa isso aqui como variá dependente faz não ele traz um sumário bonitinho explicando o que foi feito né então nós temos aqui uma série de de Agentes que vão entregar um trabalho completo nós temos a figura do do do query generator que é o a figura do cara que vai fazer a busca e o cara que sumariza a busca então assim você vê que nós temos aqui eh 11 agentes trabalhando nessa nessa nessa empreitada né a a parte da configuração ele
deu um erro aqui deixa só descobrir o que que foi esse erro aqui Ah eu tinha que ter rodado essa parada aqui porque tá os né então eu esqueci da biblioteca e tá valendo nós temos aqui o nós temos aqui a a questão do do llm E aí a gente vai trabalhar eu vou mostrar ele aqui a configuração dele tá exatamente nessa estrutura que ele tá criando aqui se você olhar essa estrutura nós temos aqui dentro de uma lista dentro de uma lista nós temos um dicionário gigantesco aqui com as informações né com com a
a chave valor chave valor chave valor chave valor Beleza então ó eh cada um dos experts que a gente tá trabalhando aqui eu tô utilizando praticamente o GPT 4 tá bom o GPT 4 Ah nesse caso aqui deixa só confirmar se se eu tô usando só o primeiro que é o mini o resto é quatro aqui mini Ah esse aqui é o quatro É Foi isso mesmo eu eu ia colocar todo mundo o GPT 4 mini mas acabar Deixei todo mundo aqui o GPT 4 isso aqui inclusive uma brincadeira que você pode eh aprimorar né
e escolher outros modelos que você tenha disponível aí no seu ambiente você poderia colocar o cloud fazer um teste com o o om One preview você pode utilizar aí uma uma gama muito grande de llms para dar o poder aí do Agente né então então a medida que por exemplo você tem o pesquisador aqui o pesquisador Ah quanto quanto mais amiúde foi o trabalho dele quanto mais minucioso ele for mas ah maiores são as chances dele trazer ali uma uma uma peça importante pro pro analista que vai desenvolver o trabalho Enfim então você tem que
pensar nessa nessa estrutura de ah de hierarquia de conhecimentos também você pode trabalhar com outros outros modelos Tá bom você vai ver ver que a gente tem a estrutura o modelo e o provedor né então por exemplo a a gente tá utilizando aqui duas features que praticamente são da mesma da mesma da mesma classe né então se você tivesse utilizando o cloud seria antropic né que é o o o provedor aqui do do do GPT 4 Ah se você tivesse utilizando o o Lhama 3.2 aí seria o qu Eduardo aí depende né ele poderia estar
hospedado em um em uma em uma daquelas empresas que que eu apresentei para você que também são provedoras de llms né Como por exemplo o grock com Q né Afinal de contas eu tenho que deixar claro isso o grock com Q Porque a gente já tem o grock com K que faz parte ali da da da das iniciativas de de inovação e inteligência artificial do grupo do Elon musk né então a gente tem tem que ter esse esse cuidado ó nome ruim né grock com Q grock com K tudo misturado né mas enfim eh Então
essa Essas são as características dos agentes que a gente vai desenvolvendo aqui tá bom então Ó a ao rodar essa célula eu configurei o os os agentes com cada uma dessas características que eu coloquei aqui embaixo só para você visualizar de uma forma um pouco mais ah Clara né do que que é é o modelo né O Google é o Google Search summarize é o modelo GPT 4 o provedor openi o máximo de tokens que ele vai trabalhar aqui que isso também limita o custo limita processamento lembra aquelas aquelas decisões na aula de llms que
eu falei para você aquelas decisões que a gente tem que ah tomar e E você tem que avaliar os os requisitos né então esse Max tokens aqui ele vai influenciar diretamente no custo e no tempo de processamento ah da da iniciativa tá bom Então essas são as características aí cara eu a gente vai só avaliar aqui embaixo se as chaves elas foram carregadas de forma correta e agora a gente vai adentrar no agora a gente vai adentrar na parte da codificação que é preparar o banco de dados vitorial para receber a informação do dataset que
a gente vai colocar ali pro llm criar o modelo preditivo Tudo bem então ó Nessa estrutura vetorial ah a gente vai criar um índice a gente vai criar uma como se fosse uma tabela dentro de um banco de dados né se você vai criar uma tabela num banco de talvez você já eh já esteja muito acostumado né você tá fazendo um Create table dentro de uma tabela Só que não é um Create table né é um é um é um vetor né você tá colocando um vetor dentro que que a gente chama de índice aqui
dentro do pinecone então por exemplo se você for olhar aqui o Database né no Database eu tenho aqui o quick Start eu tenho a o tbin eu tenho TBA A2 o bambu eh q& retrieval então assim tem alguns algumas alguns índices que a gente chama dentro desse desse banco de dados que a gente vai trabalhar tá bom nesse caso aqui eu vou colocar o A3 aqui só para você entender a eh que é o que que é esse índice que a gente vai tá colocando lá dentro né a gente vai preparar esse índice para receber
as informações ah do dataset Tá bom então o que a gente vai fazer é o seguinte ah a gente vai utilizar a Bíblia Teca pancon a gente vai criar o índice a gente vai trabalhar com esse índice que é esse nome aqui né a tb traço A3 e nós temos aqui duas features muito importantes que eu deixei elas bem documentadas aqui para porque eu acredito que talvez aqui sejam a as features que você mais tivesse dúvida na hora de escolher qual qual quais seriam as opções né Então a primeira coisa é a dimensão né então
Eduardo que inclusive muitos de Vocês me perguntaram né ah Eduardo como é que eu escolho a dimensão né Então na hora de você escolher a dimensão uma coisa que vai influenciar diretamente é qual é o a dimensão que o modelo de embedding que você vai utilizar eh cria para salvar ali o o banco o a o índice né então o modelo de llm dependendo do modelo ele tem uma ele cria o próprio modelo de embed cria uma dimensão específica e então isso vai variar muito de acordo com o llm que vai gerar ali os vetores
para serem armazenados no nosso caso a gente vai utilizar uma dimensão de 1536 e depois é claro tem tem formas mais evoluídas aí eu eu tenho que deixar claro o conteúdo para você aqui nesse contexto né e eu sei que existem por menores E aí vai ficar uma pulguinha atrás da sua orelha de como que você descobre o exato valor né mas mais à frente você vai você vai aprender essa parada toda mas o fato é aqui você precisa dizer exatamente qual é o valor da dimensão que o seu llm ah gerador do edging e
é cria né Qual é o tamanho da dimensão no nosso caso a gente vê aqui eu até trouxe a explicação ó e dimensões dos vetores gerados pel LM como GPT por exemplo né os os os modelos de Ed da Open ai pode variar né então se você tiver utilizando o um modelo como o embed Eida 002 eu nem sei se ele tá ainda eh habilitado né mas enfim o Geralmente os modelos de eding eles eles não são tão trocados assim mas que nem esses grandes modelos né mas o modelo de embed Ah eles eles têm
1536 dimensões Então você percebe que você tem que fazer uma pesquisa direitinho para você informar qual é a dimensão e uma outra coisa é a métrica né então por exemplo o banco de dado vetorial ele tem uma estrutura onde depois ele vai fazer a a a pesquisa né a pesquisa semântica que a gente que a gente você deve ter ouvido já de alguma forma né então para fazer essa pesquisa ele tem que olhar uma métrica para saber o quão próximo ele tá de trazer a informação que a gente quer e a métrica que a gente
vai utilizar aqui é a cosseno a medida de distância né ah poderia ser Ah tem o Ceno tem uma tem outras tradicionais cara deu um branco na minha cabeça aqui agora mas enfim geralmente para quando a gente vai desenvolver eu vou lembrar e aí eu vou voltar aqui e vou falar geralmente quando a gente vai fazer esse trabalho aqui aqui no nosso caso né a gente vai pedir para ele criar um modelo preditivo assim assim assado com algoritmo assim assim assado a a quando a gente vai fazer a comparação dos vetores a o cosseno ele
é uma escolha uma escolha digamos assim boa tá bom não é só não gosto de falar ideal porque eh é tão relativo isso né mas ele é uma escolha boa para você fazer ali o seu trabalho tá bom ah ademais aqui cara as outras features a gente tem algo que é muito padrão do próprio Pine conon a gente sabe que a Cloud que que ele vai tá hospedado aqui é a WS a região tal que é a região que tudo você configura aqui no no no processo quando você tá criando aqui o seu o seu
ah a sua quando você tá criando a sua a sua estrutura tá bom Ah cara a estrutura do Picone é muito muito muito a a profissional a a documentação dele é muito clara Então cara assim você vai vai não vai ter trabalho para fazer isso aqui não tá bom então cara você tá criando Beleza vou ele reconheceu a chave do Picone apiq reconheceu a dimensão ele salvou a tabela três aqui embaixo Ó cadê A2 Caraca cadê aqui deu um deu uma aqui ó índice criado com sucesso Bora dar uma olhada aqui no banco de dados
para ver se a o índice foi criado vamos ver deixa eu atualizar aqui na verdade a gente criou a gente setou a que tá aqui embaixo né Ele criou aqui embaixo ó tabela A3 agora que a gente vai jogar a informação nesse índice né então ó criamos o índice agora a gente vai jogar a informação dentro dele então eu deixei um link aqui alguns links na verdade e esse link aqui tá no meu github beleza então esse link aqui ah eu acho que eu não copiei direito aqui né Deixa eu copiar direitinho senão falta o
v né csv ele tá no github eu deixei aqui é uma uma uma base de dados aqui de clientes tá bom ah e aí você pode utilizar essa base de dados de clientes aqui mesmo ou pode utilizar uma tua tá bom esse aqui independe você vê que a gente tá usando pandas aqui beleza você poderia estar conectada no banco de dados poderia estar fazendo qualquer outra coisa a a conexão a fonte de dados você setou pronto o trabalho vai ser a eh instanciar e fazer todo esse trabalho a partir de agora beleza aqui tá uma
amostra do que que é esse banco de dados então você vê que tem dados do cliente a o sexo do cliente estado civil quantos dependentes é uma base de dados que eu gosto muito de trabalhar ela porque Ah é tipo clientes de uma empresa clientes de um banco né então fica muito claro saber o que tipo de dado que a gente tá utilizando no nosso processo né Então nesse caso aqui ó você vê que a gente vai fazer um trabalho preditivo onde a gente vai saber se aprova ou não o empréstimo né e aqui tem
os valores que o cara tem aí de prestação de renda e por aí vai beleza tranquilo até agora de boa até agora de boa já joga no chat aí já me fala se até agora tá de boa para eu saber tá bom E aí a gente vai a gente depois eu vou dar uma olhada no chat só para lembrar você que no eu sempre gasto aquele tempinho lá para vocês ah tirarem as suas dúvidas aí Tá bom então se tem dúvida já lembra de já colocar no chat que depois eu vou dar uma olhada bem
nós temos aqui agora o processo de chamar o bambu ai né Nós vamos instanciar ele e ele tem alguns parâmetros eu deixei os parâmetros bem bonitinho aqui bem detalhado aquilo que é o mais importante para você visualizar tá bom ele tem outros parâmetros também mas aqui eu eu coloquei aqui os parâmetros principais depois eu vou deixar aí para você você fazer aí a sua leitura tá bom eh você faça a sua leitura aí você vai ver que eu tenho o dataset né então Ó o próprio DF Deixa eu ver se eu rodei aqui porque senão
ele vai dar ah rodei né porque não não rodei não né Deixa eu rodar aqui agora aí ó marcou o cheque Zinho Verde aqui rodei agora eu vou instanciar então Ó eu vou falar informar qual é o dataset as coisas mais importantes aqui né o dataset a nós temos aqui uma a ferramenta de busca e a exploração habilitada Ah e a gente não colocou o debug aqui beleza não coloquei o debug e tá tudo bem instanciamos aqui a parada agora cara a gente vai fazer o seguinte a gente vai colocar aqui o prompt e nós
vamos trabalhar diretamente com agora com com a biblioteca Bambu nós temos aqui uma a chamada do prompt é por meio dessa função pd Agent converse Tá bom então aqui ele esse prompt vai vir para cá E aí dado que esse prompt veio para cá ele vai realizar iniciar o trabalho dele Beleza eu vou limpar essa parada aqui só para você visualizar ele trabalhando então Ó eu assim já deixei pronto aqui só para não ficar escrevendo aquela coisa toda Tá bom mas ó crie um modelo de previsão de aprovação de empréstimo a gente já viu que
é uma feature dessa base de dados né aprovação de empréstimo com lgbm tá bom Um algoritmo que eu gosto a uso e validação cruzada né o processamento de dados bem robusto né usar validação cruzada ajuda no treinamento dos dados aquela coisa toda de machine learning cara não dá para explicar tudo para você numa aula mas ah isso aí eu vou mostrar para você depois todo o passo a passo para você aprender essa parada aqui mas enfim a gente vai eh usar validação cruzada processamento de dados bem robusto Ah vou pedir para ele dar um Sprint
prints ali nos gráficos pra gente fazer uma análise de correlação das variáveis pedir para ele eh eh informar confusio Matrix AOC Todas aquelas informações que são métricas que a gente utiliza para avaliar o modelo preditivo que tá sendo desenvolvido Tá bom então ao em vez de desenvolver você tá pedindo pro agente desenvolver Olha o trabalho do cientista de dados começando a modificar né então a gente viu até uns dias atrás aí antes do João criar o o o Creo ai e os Agentes de a ficarem muito poderosos e muito difundido no mundo inteiro né o
é claro que a gente já sabia que outras pessoas tinham criado mas o João ele Ele criou uma parada de uma forma muito simples né E foi inclusive Se você olhar outras bibliotecas pegou ali a sacada do CRE ai e desenvolveu a a lógica baseada no no crei então a é um trabalho a gente vai ver ainda até o final desse treinamento eu vou trazer outras formas da gente visualizar essa estrutura de agente também para você conhecer isso aqui então ah a gente vai pedir para ele fazer todo esse trabalho e vou pedir para ele
responder em português você vai ver que isso aqui meio que uma limitação aqui hora ele tá respondendo em Inglês enfim mas aqui é uma interação a gente vai fazendo o trabalho tá bom então ó ele começou né Então o a a primeira estrutura já você vê que é até difícil de acompanhar o trabalho porque ele vai ele vai crescendo de forma muito rápida né as pessoas os agentes eles vão trabalhando de forma muito rápida né Ó o analista Você já tá trabalhando aí ele foi lá o conteúdo é o modelo de aprovação de empréstimo ele
já conheceu Quais são as colunas aí lembra que tem aquela parte onde o o o o planejador vai ter uma noção Clara do que é o problema para refletir sobre o problema e definir Quais são as etapas para se fazer um trabalho ó o pipeline da ciência de dados aqui né então ó ah ele vai procurar os valores missim converter variável categórica em numérica fazer o split ah ver ali fazer uma análise para entender a distribuição dos dados fazer a validação cruzada treinar o modelo lgbm que foi o que a gente pediu avaliar o modelo
e acurácia fazer o plot né que foi aquilo que a gente pediu né E aqui ele traz toda uma uma reflexão né então ele traz aqui toda toda toda a razoabilidade da parada que tá muito bem detalhada né Ele fala ó então para entar isso aqui nós vamos fazer isso o dataset contém várias features e ele tá desenvolvendo Ah o relatório técnico moleque eu já passei algumas horas eh ao longo da minha jornada profissional eh você fazia todo o trabalho todo o modelo preditivo fazia todo o trabalho de análise e processamento de dados e depois
você tem que documentar porque você não vai ficar trabalhando com aquilo pro resto da vida então quando você tá numa empresa né Eh de uma forma bem uma empresa organizada né uma tem tem uma formalização que você precisa cumprir né e no Banco do Brasil nas outras empresas né Por onde eu passei é diferente é um trabalho que é um trabalho que demoraria um tempo adicional para você desenvolver a documentação que hoje você tem aí os agentes para nos ajudar nesse processo Tá bom então cara esse essa estrutura aqui de Inteligência Artificial tá dando uma
balançada muito massa na jornada profissional do cientista de D do analista de dados do cara do bi ah do dba enfim eu venho falando isso para quem me acompanha já mais de de de eu tô aqui desde do ano de 2019 compartilhando conteúdo né eu tenho 5 anos que trabalho com consultorias de ia e machine learning Ah e trabalho com de forma educacional também na ciência dos dados que é a minha empresa Educacional então assim você vê que ah tem 5 anos que eu já tô falando sobre isso né então que eu tô falando que
ah a gente vai a cada vez que o há uma inovação dentro da ia a gente tem que estar acompanhando e compreendendo como que esse processo pode melhorar o meu trabalho Senão você fica para trás Tá bom então assim é muito importante você tá num Hub onde você vai ter informação atualizada onde você vai ter uma metodologia eh que vai te ajudar a resolver esses problemas e que vai e que tá antenado nisso tudo né porque cara eh se você não é uma pessoa que tem uma vive só para isso aqui você realmente Ah tá
Em Maus Lençóis porque você não não não tem uma pessoa que tá fazendo esse trabalho que nesse caso sou eu né Eu tô ali dentro de um Hub onde eu tô sendo disseminador do que tá acontecendo de novo porque na verdade eu só faço isso né então isso aqui ah pode ajudar muito aí no seu desenvolvimento profissional Ah aqui ele traz a parte da codificação né então aqui ele traz ali já a codificação Python que ele precisa fazer então você tá vendo aqui que ele vai importando as bibliotecas traz o código né a estrutura do
código a etapa um do verificar os valores Missing converter as variáveis Ah fazer a decodificação ali do target que é a nossa variável explicativa aquilo que a gente quer prever aí vai fazer os splits Aí depois ele vai fazer a a ele vai trazer a a estrutura ali da Matriz de correlação depois ele vai implementar a validação cruzada E aí ele vai fazer a avaliação e por aí vai então assim todo o trabalho ele fez aqui e ele né traz o print aqui para você ele não só ah a gente não só pede para ele
trazer estrutura mas ele recebeu os dados e trabalhou os dados né então eu não sei se você lembra mas assim que assim que inventaram né E que o chat GPT foi lançado ah a gente não tinha essa estruturação de você ah fazer ali o o o trabalho do hag digamos assim né de injetar informação pro llm e eh acessar e fazer o trabalho né a a gente poderia informar ali como é que era né ó a base tem assim a base tá assado agora não agora você coloca o conhecimento para dentro do llm né entre
aspas né que você sabe que a gente colocou essa informação dentro do banco de dados vetorial e o llm é que faz essa conversa né e busca ali por meio das das da dos modelos de embed ali o que que é a a correspondência mais mais eh afiada para para trazer a resposta né E por aí vai bem aqui a correlação Ele trouxe o mapa de correlação para você fazer avaliação né todo aquele trabalho que a gente fazia de forma manual ele já foi fazendo para você aí Ele trouxe aqui a o código que foi
aplicado Ah que mais e trouxe o Sumário né o resumo dos resultados né então enfim ó o resultado né o relatório final resultado tratamento dos dados durante o processamento foi identificado que tinha valores faltantes né a gente teve problema assim então cara tá tudo aqui né tá tudo aqui ele traz aqui algumas conclusões né o problema principal foi desequilíbrio extremo de classes que impede que o modelo tal então a gente precisou dados balanceados próximos passos técnicas de balanceamento ó ele não colocou técnica de balanceamento Ah e e você poderia né inclusive na hora do prompt
agora a partir de agora pedir para ele fazer isso então quanto mais conhecimento você tem ali do do do processo você vê que isso aqui tá facilitando o teu trabalho também né Tá bom então aqui a gente tem um sumário do que foi feito inclusive o custo disso né que a gente tá utilizando a Open ai ele trouxe aqui pra gente um custo né então Ó a a gente tem aqui Um ID desse trabalho a quantidade de tokens que foi utilizada a o o deixa eu ver a velocidade dos tokens aqui e o custo né
a gente pagou 30 centavos aqui para fazer esse trabalho Então veja bem o tanto que tanto que um trabalho isso aqui um cientista de dados ele ele custa caro Vel cientista de dados é um profissional que ganha bem um especialista em a um profissional que ganha bem e para uma um um profissional trazer esse tipo de trabalho para otimizar um processo dentro de uma empresa ele realmente é um profissional que eh ele tem que ele tem que ganhar muito bem mesmo tá bom beleza nós temos aqui a nossa estrutura e aí cara uma coisa que
é bem interessante é que assim né Eh a gente estruturou ali um prompt e agora eu vou simplesmente trazer aqui a a uma forma diferente trazer aqui uma forma diferente da da gente colocar a chamada do do Agente né Então nesse caso aqui a gente poderia estar eh experimentando aqui um front end diferente para que a gente possa receber a captura da informação né então por exemplo imagina que você já tá ali Ah num sistema onde o a empresa quer fazer esse trabalho preditivo né ele quer só que ele não tem o profissional agora ele
tem você que desenvolve essa parada né que coloca no frontend bonitinho e ele vai agora explicar o case dele né então por exemplo agora você pode colocar né agora a gente colocou o case de forma bruta aqui né agora a gente teria ali uma se você não colocar nada nessa função aqui né do prompt você vê que ela tá vazia aqui né dá uma olhada ela tá vazia né ela não recebeu nada você coloca a questão aqui dentro tá bom ah vou pedir para ele aqui responder agora vou pedir para ele colocar aqui validação cruzada
etc e resolva de alguma forma o problema de desb Lamento da classe né então isso aqui o cientista de dados ele ele tem esse conhecimento Para que Ah ele consiga desenvolver o modelo bem bem tora Tá bom então cara agora Ele tá trabalhando tá fazendo todo o trabalho e no final se vai avaliar de novo né ele tá fazendo todo o trabalho vai gerar o relatório né ele vai gerar ali o o o a o o compilado né a razão aqui eu eu esqueci essa a tradução dessa palavra aqui deixa eu olhar aqui cara eh
tradução tradu traduciones o raciocínio né a lógica por trás do problema né reasoning a o raciocínio E aí ele vai desenvolver todo o trabalho dele agora beleza ah e o que o que que eu posso fazer Eduardo eu posso fazer você pode fazer n outras coisas aqui eu coloquei um trabalho já tora porque o trabalho de dados ele é um trabalho bem avançado é é um trabalho é um trabalho que a gente sabe que existem algumas etapas que precisam ser cumpridas para você desenvolver esse trabalho e eu já coloquei ele de cara para você mostrar
o poder que essa biblioteca tem ao desenvolver ali essa esse essa dezena de de de Agentes para criar ali um trabalho de uma forma completa como a gente viu aqui agora inclusive com sumar e tudo né mas uma coisa que é bem interessante é que não é só para isso que eles serve Tá bom então por exemplo eu coloquei isso aqui né crie um gráfico de bolhas com três eixos usando três variáveis à sua escolha de forma que o gráfico fique efetivo eu vou pedir para ele aqui ó a use o plotly o plotline se
possível beleza vamos ver se ele vai usar o plotly que a gente importou lá em cima né ah responda tudo em português Beleza vou deixar ele rodar isso aqui e vamos rodar isso aqui também beleza E aí cara me diz aí como que tá o nível gostou do conteúdo de hoje a gente ainda tem um tempinho aqui pra gente trocar uma ideia quero já trazer aqui para você uma uma estrutura do conteúdo de amanhã então cara o conteúdo de amanhã vai ser muito tora lembra daquele Saas que eu te falei aquela estrutura de criar agentes
Ah pois é cara Amanhã a gente vai falar sobre ela amanhã vai ser a melhor aula porque você vai realmente ver como que você pode customizar toda essa toda essa estrutura em um em um local onde você já pode ah desenvolver e criar inclusive um Saas Tá bom então se prepare aí tá bom vamos ver o que que ele fez aqui né então insights beleza cadê cadê cadê cadê tá rodando ainda né Ele ainda tá rodando aqui vou deixar ele terminar só pra gente só pra gente visualizar aqui eu acho que ele vai ficar esperando
aqui né Deixa eu dar um um Exit aqui Exit que ele tá rodando aqui né Deixa eu ver se ele as informações que ele trouxe aqui hum Beleza então ele fez todo trouxe toda a história ali né ele ainda tem alguns Alguns algumas coisas que a gente pode melhorar mas enfim isso aqui você vai evoluindo a medida que você vai trabalhando a a a característica do agente também tá bom se você coloca um agente meio mais ou meno então às vezes você não consegue o resultado que você queria e assim vai tá bom então tudo
depende do do agente também bora ver se ele traçou aqui ó nesse caso aqui ele nem conseguiu printar aqui né o o o o gráfico né mas deixa eu deixa eu mudar o prompt aqui para ver se é um problema do prompt Ah printou sim queem disse que não né tá aqui ó ele fez ainda fez com pló do jeito que eu pedi né então ó tá aqui ó gráfico de renda empréstimo e prestação mensal Olha que legal né Então tá aí ele fez a parada né então você consegue dar um zoom né quando você
usa o o plot você consegue ah dar o zoom na imagem né então por exemplo eu quero olhar aqui a faixa que vai de 150 a 250 para eu entender a distribuição aqui da renda o empréstimo e a terceira variável é a prestação mensal Geralmente as prestações estão Praticamente tudo igual né tem uma prestação aqui que é 480 Mas essa aqui é 360 a renda desse cara aqui tá lá na casa dos 20.000 tem uns juízes aqui ó que ganha 80.000 esse aqui ganha 60 esse aqui ganha 50 eh tem as e ali o empréstimo
as prestações de empréstimo ali Beleza cara então Puxa vida eh é bem avançado isso aqui né mas cara pode te dar aí um Insight muito cabuloso em muitos projetos aí dentro da da da sua empresa da sua jornada profissional tá bom ah eu quero responder algumas perguntas e daqui a pouquinho eu vou ah daqui a pouquinho eu vou eu vou trazer já o daqui a pouquinho eu já vou trazer o deixa eu falar a palavra mágica logo né então Ó a palavra mágica do formulário que você vai respond daqui a pouquinho é deixa eu ver
aqui que eu tenho minha minha colinha é llm então quando você receber hoje o formulário você vai olhar lá o formulário E aí você vai colocar lá a palavra mágica llm para saber que você tá concorrendo ao sorteio do notebook tá bom ah tem como saber uma prévia do valor a ser pago dos dados buscados esses 30 centavos e de Dólares Eita é bem eu acredito que não né porque ele depende do tem existem formas eh waa eu não sei se é waa tá bom seu nome ou é vaa desculpa aí tá bom eh eu
não sei qual é eu não sei qual é o o nome agora da ferramenta mas já existem algumas ferramentas que elas tomam a decisão de utilizar a API de acordo com o custo tá bom eh eu vou trazer um conteúdo desse aí também é bom foi uma excelente pergunta sua porque porque aí eu vou eu vou vou lembrar que eu quero trazer para você uma solução que ela olha a api E aí você coloca lá né Quais que você tá usando Então você tá usando antropic você tá utilizando openni você tá utilizando meta aí você
tá é utilizando o grock aí ele toma a decisão de acordo com a pergunta então ele vai otimizar ali o seu trabalho eh vai otimizar o custo de acordo com a pergunta que você tá fazendo ele vai saber qual o melhor llm para para responder tá bom trabalho é de ponta vi poucas empresas aqui no Brasil utilizando isso ainda tá bom mas já existe tá bom e eu acredito que muito em breve isso aí vai est muito bem disseminado exatamente por conta disso né 30 centavos de dólar vai dar R 1,50 né então foi assim
se você for olhar o trabalho que foi feito é uma coisinha de nada né mas Ah cara enfim e para aferir os os custos né você realmente tem que você tem que traquear tudo isso aí né é importante mesmo tá bom e Show de Bola Deixa eu voltar aqui vou responder algumas perguntas aqui a senha da aula de a senha foi divulgada na aula de ontem isso mesmo a senha de ontem foi algoritmo tá bom Alguém saberia explicar por que o o pdf disponibilizado pede a senha de acesso Ah deve ser a senha da aula
de ontem Renatão Beleza deve ser a senha da aula de ontem eu nem sei se o meu time fez isso mas se fez eu achei massa tem que assistir para ver essa parada aí ô que legal gostei Ah palavra-chave da aula um é a mesma da aula dois não a aula um é algoritmo e a aula dois é llm Tá bom mas você vai disputar Ah o link do cab que ele apresenta nas aulas né então cara ó o Cássio eu não sei se você tá participando do ai Experience né você ou se você viu
aqui porque caiu no YouTube né se você tá participando do ai Experience o e-mail que você Se cadastrou você deve ter recebido algum e-mail do @ Cenci dosdados que é a a a a a empresa tá bom Educacional lá se dá uma olhada no spam que a grande maioria das das Ferramentas hoje cara se você não abre geralmente vai pro spam mesmo então dá uma olhada lá você deve ter recebido e-mail da @ ciênci dosdados os links estão tudo lá ou no WhatsApp se você entrou no grupo ah dos do treinamento aí tá bom Ah
então beleza Posso sim tá bom ó essa essa explicação aqui ó uma pergunta excelente da Gisele pergunta excelente né ela falou aqui né poderia explicar melhor sobre as configurações de temperatura designada para cada gente então a temperatura ela é uma uma feature muito muito massa que é o seguinte quando você vai fazer um trabalho onde a sua resposta a resposta do llm né ela precisa se ater ao máximo ela precisa se ater ao máximo a veracidade da da daquilo que você tá perguntando né então por exemplo se você faz uma pergunta assim e me traga
o valor do somatório do valuation das empresas cara ele não pode trazer a média ele tem que trazer o somatório né então cara o somatório é ele vai quando você deixa zero ele ele tá se atendo àquilo que você perguntou se você aumenta um pouquinho ele fica um pouco mais criativo para que que serve isso em contextos mais em contextos mais ah quantitativos esse quanto menor a temperatura melhor mas quando você vai para uma Seara um pouco mais filosófica Ah uma Seara um pouco mais de ah que ele precise de criatividade quanto mais você aumenta
vai de zero a um né Quanto mais você aumenta mais criativo ele fica então isso é muito importante Ah Para para que ele seja um pouco mais criativo né E aí eu vou dar um exemplo bem esdru mas por exemplo se você pede para ele criar um poema se você pede para ele criar uma música né então quanto mais criativo ele for mais a temperatura vai tá próxima de um beleza Gisele me dá um ok aí se eu conseguir te responder tá bom isso é isso mesmo Daniel respondeu aqui embaixo Cadê os links do colab
Marcelo eu vou deixar o link do colab a dentro dessa área aqui ó vou mostrar aqui apresentar Os anexos vão vai Via e-mail assim que acabar a aula o meu time manda via e-mail vai no grupo do WhatsApp e vai estar bem aqui nesse botão aqui da aula dois tá bom se você olhar aqui ó ciências doos dados.com aula 2 do ai Experience essa aula que você tá assistindo agora o script vai tá bem aqui para você fazer o download beleza tá bom ah que mais vamos lá a pergunta Dan cont você costumizar mais hoem
dia an Liste de dados para ele ser melhor lidar com problema de des isso Dani beleza é isso mesmo cara você poderia transformar ele não num analista né você poderia já deixar ele de cara um cientista de dados um um especialista em ia E aí ir pra frente Beleza então a beleza desse desse desse dessa pegada é que você pode customizar ao máximo Tá bom beleza ah hoje eu vi um vídeo falando sobre a a Nemoto da NV poderia falar mais sobre ela show de bola que pergunta massa eu vi tá bom eu vi o
memotron ele é ele é um llm como o GPT tá bom como o cloud e ele Ah ele já chegou detonando né a Nvidia tá entrando no mundo do software também né Ela é que uma empresa do vai eu ia falar empresa do Hardware só por causa das GPU né mas ela também é uma empresa de de software né mas assim o carro chefe dela é hardware mas tá aí né mostrando que ela tá ganhando de todas as pontas né não a toa a empresa que vale um trilhão de Dólares né então Eh alguns trilhões
de dólares né então vamos lá o Nemoto eu ver se eu acho um gráfico aqui ó neotron ah NVIDIA por que que eu tô querendo eu quero mostrar o gráfico que mostra o o o quanto que ela já tá na frente do desses outros modelos né então é um llm como qualquer outro llm e aí eu acho que eu achei né eu vou te mostrar aqui o a as em que que ela foi testada né Então deixa eu compartilhar minha tela de novo aqui e aí dá uma olhada aqui ó dá uma olhada aqui que
a gente tem uma uma comparação né então por exemplo aqui tá o nemon aqui tá a nota que é que ele tirou em várias bancas de de de teste aí Tá bom então essas bancas de testes aí espalhado pelo mundo tal tal tal aí ó o Nemoto sonet que até então Ah era um dos melhores modelos Mas você vê que é uma disputa que eu até brinco né ah hoje é difícil você postar um uma uma estrutura onde esse valor vai ficar por mais de um dia uma semana um mês né porque isso muda muito
velho muda muito a todo instante né eu te falei eu mostrei para vocês no início da aula que já ah a galera do antrop Já lançou o cloud 3.5 sonet né aqui essa figura tá mostrando o cloud 3 ó sonet mas é o três Já tem o 3.5 né aqui ó ele comparou com o GPT 4 preview mas tem o GPT 4 Omni 1 né então enfim fica difícil comparar né Ó tem esse aqui da se eu não me engano eu não sei se é da Baidu é chinesa essa cuen aqui que também ó muito
tora né mas aí chegou aqui ó o Nemoto na arena barrou na aaca né barrou na nesse MT bent né Ele é o campeão aqui mml ele também é oamp ah não mml só ele e o liama 3 da da Meta que foi que foram treinados né mas avaliações humanas aqui ele perde pro pro quen Ah o GPT 4 ganha dele aqui também enfim tá vendo a comparação né então quando você vê aqui o o a estruturação do neotron ele é muito bom nessas classes aqui tá bom ó é é esses esses testes aqui ele
foi muito bom né melhor do que os melhores aqui que nesse caso aqui era o lema 3 Ah o mixt todos eles aqui você já na semana passada se você tá aqui comigo você já eh conseguiu setar todos esses llms aqui tá bom mais um Case aqui para eu anotar para eu trazer aqui né para trazer conteúdo o bom desse trabalho é que é é é uma uma via infinita de conteúdo que para vocês né porque tem tem tem muito conteúdo saindo a todo instante tá bom a galera gostou trabalho de Tecnologia de altíssima qualidade
banco digital com certeza M ah hter hter ai faz essa seleção de api automaticamente É isso mesmo Renato é rter era o nome da parada isso mesmo é rter beleza é isso mesmo tá bom o Renato lembrou da da empresa que eu te falei lá do software que faz o gerenciamento de qual i me usar tá bom ah então é isso aí galera beleza show de bola amanhã tem mais hein Amanhã a gente vai lidar com o nosso Saas com os nossos agentes aí você vai poder desenvolver uma cacetada de Saas tá bom e na
última aula ainda tem mais um só que é um Saas de rag rag Systems também que você pode inclusive fazer para Ah enfim foco na área médica cara tá insano esse negócio tá bom é muito conteúdo que eu tô trazendo para vocês espero que vocês disseminem aí compartilha Já Curtiu o vídeo aí pô vou fazer que nem os YouTube aí compartilha me ajuda a fazer essa parada aí mais longe e também as pessoas que precisam aprender essa parada já me segue pô não segue Então cara eu entro lá e jogo o meu link fica sem
graça né fica parecendo que Tá pescando em aquário agora se você vai lá e joga esse link como material importante é no Hub Onde você tá é cara é já ajuda PR caramba a fazer esse conteúdo de seminar tá bom galera vou ficando por aqui espero que você tenha gostado as duas últimas aulas são as melhores então não perca e coloca já o lembrete aí sempre todo dia às 8 horas a gente se encontra tá bom um beijo um abraço uma honra fiquem com Deus até amanhã tchau tchau
Related Videos
AUTOMATIZE sua ROTINA com IA: MULTIAGENTES no GOOGLE Calendar usando LANGFLOW e CREWAI
14:30
AUTOMATIZE sua ROTINA com IA: MULTIAGENTES...
YAITEC Solutions
1,278 views
IA Está Eliminando a Necessidade de Programadores Web?
33:57
IA Está Eliminando a Necessidade de Progra...
Eduardo | Ciência dos Dados
33,048 views
AI EXPERIENCE - AULA 3
AI EXPERIENCE - AULA 3
Eduardo | Ciência dos Dados
Agents – Introdução à criação e funcionamento de agentes de IA
1:18:38
Agents – Introdução à criação e funcioname...
Eduardo | Ciência dos Dados
11,494 views
AI EXPERIENCE - AULA 1
1:05:05
AI EXPERIENCE - AULA 1
Eduardo | Ciência dos Dados
10,057 views
Importação e Limpeza de Dados no Power BI: Da Web ao Banco de Dados
1:06:48
Importação e Limpeza de Dados no Power BI:...
Bruno Melo
368 views
LLM (Large Language Models) – Modelos de linguagem de larga escala e suas aplicações.
1:13:26
LLM (Large Language Models) – Modelos de l...
Eduardo | Ciência dos Dados
9,770 views
APIs de Integração para IA
57:19
APIs de Integração para IA
Eduardo | Ciência dos Dados
8,328 views
Criando uma Fábrica de IA's - Analistas + Cientistas de Dados + IA
38:26
Criando uma Fábrica de IA's - Analistas + ...
Eduardo | Ciência dos Dados
3,236 views
RAG Retrieval-Augmented Generation
1:08:25
RAG Retrieval-Augmented Generation
Eduardo | Ciência dos Dados
8,094 views
COMO SERÁ O FUTURO? - SÉRGIO SACANI e CÉSAR LENZI
18:11
COMO SERÁ O FUTURO? - SÉRGIO SACANI e CÉSA...
Cortes do Inteligência [OFICIAL]
246,718 views
BATALHA de INTELIGÊNCIA ARTIFICIAL! - Gemini | ChatGPT-4o
25:58
BATALHA de INTELIGÊNCIA ARTIFICIAL! - Gemi...
CORTES - Leon e Nilce [Oficial]
536,016 views
Como aprendi a programar em 3 meses e consegui meu emprego (mesmo sem faculdade na área de TI)
12:29
Como aprendi a programar em 3 meses e cons...
Code Start
225,565 views
🚀 Aprenda Web Scraping com IA e LLM's 🤖
30:41
🚀 Aprenda Web Scraping com IA e LLM's 🤖
Eduardo | Ciência dos Dados
4,736 views
Productionizing GenAI Models – Lessons from the world's best AI teams: Lukas Biewald
22:36
Productionizing GenAI Models – Lessons fro...
AI Engineer
2,830 views
IA apresenta um comportamento estranho e desobedece cientistas no Japão
20:09
IA apresenta um comportamento estranho e d...
Fatos Desconhecidos
109,370 views
Bolt.new Tutorial for Beginners (the Cursor AI and V0 Killer)
33:31
Bolt.new Tutorial for Beginners (the Curso...
Greg Isenberg
82,412 views
Reinforcement Learning - Aprendizado por reforço e sua aplicação em agentes.
59:34
Reinforcement Learning - Aprendizado por r...
Eduardo | Ciência dos Dados
8,113 views
MIT Introduction to Deep Learning | 6.S191
1:09:58
MIT Introduction to Deep Learning | 6.S191
Alexander Amini
665,097 views
Agentes de IA Poderosos Usando CrewAI, LangChain e EXA – Guia Completo
45:09
Agentes de IA Poderosos Usando CrewAI, Lan...
Eduardo | Ciência dos Dados
2,435 views
Copyright © 2024. Made with ♥ in London by YTScribe.com