Unknown

0 views11807 WordsCopy TextShare
Unknown
Video Transcript:
[Música] Opa boa noite seja muito bem-vindo a mais uma live aqui no canal ciência dos dados uma honra est com você aqui mais uma vez meu nome é Eduardo Rocha nós estamos aqui na semana de aquecimento pro ai Experience que vai ser uma experiência completamente diferente daquilo que você já viu quando o assunto é inteligência artificial com programação Python com criação de agentes inteligentes utilizando grandes modelos utilizando apis que transformam esses modelos em verdadeiras máquinas né em verdadeiros agentes que vão aí dominar o próximo a próxima geração a próxima geração de a ah dado a
flexibilidade que esses caras ah permitem né os agentes Eles são muito cabulosos então ó beleza uma honra tá sem mais delongas quero ir direto pro ponto contigo já Quero mostrar conteúdo Ah já quero ir para cima aqui pra gente começar a construir tudo que a gente vai construir no dia de hoje ah Eler perguntou se tem Git cara todo todo material tá sendo encaminhado ah por e-mail Tá bom então o e-mail de quem tá inscrito lá no no treinamento no ai Experience Isso aqui faz parte do treinamento gratuito então eu peço para você né se
você não tá inscrito clica aí no em algum link aí da bildo Insta ou no próprio YouTube deve te encaminhar aí para que você possa e fazer sua inscrição E aí cara no e-mail você vai receber aí todo do material tá bom ontem eu enviei o material no e-mail dá uma olhada na caixa de spam Tá bom então ontem a gente já fez um trabalho cabuloso né ontem eu já recebi muitos e-mails de vocês aqui que criaram ali os seus seus primeiros agentes de ia ali e aquele agente raiz mesmo né aquele agente que você
tem o poder de customizar aquele agente que você tem o poder de a desenvolver de acordo com as necessidades empresariais mais diversas que você vai encontrar por aí né não é engessado não é que nem aquelas ferramentas no code que te dá alguns espaços para você configurar o que que o cara vai fazer o que que o ag gente vai fazer Qual modelo vai usar Não a Liss tá com o pacotão open source aberto para você customizar da melhor maneira Inclusive eu Trago essa essa abordagem Exatamente porque acredito que essa é a abordagem que vai
fazer diferença aí no seu perfil no seu aprendizado E é claro no seu portfólio profissional tá bom Por quê exatamente porque você tem liberdade para customizar Eu repito isso muitas vezes porque as pessoas me perguntam ah Eduardo e no code e as ferramentas tal tal e tal e eu falo cara ferramenta que não dá liberdade para você customizar ela acaba te engando né e ferramenta que te ina é um problema tá bom então aqui você tem todo o material compartilhado aí eu tô compartilhando com todo mundo que tá inscrito não só aqui o material desse
aquecimento que a gente tá tendo aqui mais o material do treinamento mesmo né o treinamento tor a semana que vem né é o ai Experience é semana que vem essa semana só só Tô aquecendo você trazendo os principais tópicos né do que a gente vai desenvolver lá na semana né eu preciso fazer aquele nivelamento também né eu sei que tem muita gente nova eu sei que tem muita gente que tá começando né então eu tenho que trazer ali a uma abordagem bem bem mais genérica ali para que todo mundo compreenda né mas nem por isso
apesar de trazer uma abordagem genérica a gente vai deixar de ter mão na massa né então ontem a gente já teve ali a criação dos nossos agentes né a gente criou agentes que explica pra gente desenvolve projetos sobre agentes né a gente criou agentes que explicam o processo de Agents ai né do que que é e o que que são os agentes de ia então um projeto bem mão na massa é um projeto bem a com uma vertente bem bem prática né o o muita gente diz que conseguiu desenvolver eu eu fiquei muito feliz saber
que com esse material simples a gente já conseguiu fazer muita coisa né então ontem aqui eu tô com uma pauta do que que vai ser essa semana de aquecimento né Essa semana de aquecimento eu tô trazendo os principais conteúdos que a gente vai eh trabalhar nos projetos lá no ai Experience Tá bom então ó ontem a gente falou de Agents né a gente falou dos agentes a gente eh fez um overview dos agentes criamos agentes Ou seja já foi n bem mão na massa falamos do L chain a gente utilizou o l chain junto com
o cre ai né Falei das Ferramentas no code ah do por que eu não uso e existem outras ferramentas de criação outras bibliotecas e frameworks de criação de Agentes mas ah no momento eu falei para vocês que a a biblioteca né o Framework Python Creo ai ele tem sido mais utilizado no mundo inteiro né é um é uma biblioteca muito conceituada que cresceu muito nos últimos anos ah principalmente aí por conta desse dessa criação de Agentes estamos junto Beleza então ontem esse foi o o o o a nossa pegada a nossa toada aqui tá bom
hoje a gente vai falar sobre llms né e eu trouxe aqui uma gama de llms uma cacetada de de projetos pra gente fazer aqui um um overview desses projetos e além disso ah compartilhar contigo né então todo esse material Ah vai est disponível né nesse link aqui que eu vou mandar para vocês assim que acaba a Live aqui dá uma olhada no e-mail porque eu já vou encaminhar aqui vou pedir paraa minha equipe também mandar via WhatsApp né eu vou mandar o link desse colab que tá aqui para que você possa eh receber tudo que
vai tá aqui todos os anexos todos os ah Os projetos que a gente vai trabalhar aqui nessa parada estamos junto Beleza então ó de forma bem simples e direta a gente vai falar hoje dos nossos llms amanhã de haag vamos falar de aprendizado por reforço e as principais apis que a gente precisa ali conhecer para desenvolver o nosso projeto na semana que vem ou seja é muito mão na massa né não sei se você tá acostumado a ter tanto mão na massa assim mas cara aqui a vai ser muito mão na massa eu até coloquei
uma postagem no Instagram falando sobre isso né que muitas vezes a gente acaba eh a a gente acaba procrastinando deixando de aprender muita coisa exatamente pelo fato de não ter muita coisa prática né e sabendo disso porque eu também sou um procrastinador Nato eu trouxe essa parada bem prática para você querer eu fiquei até feliz que teve muita gente que pediu o código e eu falei cara eu mandei por e-mail dá uma olhada na caixa de spam tal ou seja a pessoa manifestou ali a vontade de acessar e desenvolver né então isso é muito bom
para mim fiquei muito feliz porque eu sei que a galera tá colocando em prática para valer esse trem aí Tá bom então vamos lá cara parada é o seguinte hoje nós vamos falar dos llms llms nada mais são do que grandes modelos de linguagem Lar language models né ah é uma é é uma um ramo é um ramo aqui da Inteligência Artificial que ele foi ele foi estreado pela galera da do rugen Face a galera do rugen Face desenvolveu um Framework uma estrutura um template de processamento de linguagem natural conhecido como Transformers e na verdade
não foi a galera da rugen face né foi a galera do Google né os assim do artigo ah do artigo Como é que é o nome do artigo mesmo cara é atenção né o mecanismo da atenção eh attention Easy atenção é tudo que você precisa é o nome do artigo que os caras apresentaram para o mundo o que seria a nova arquitetura ali a nova estrutura de a conhecido como Transformers né Eh foi utilizado e compartilhado com a galera do rugin Face que era um Hub né era um Hub onde havia já muito compartilhamento de
n outros ah modelos e estruturas ali para trabalhar com processamento de linguagem natural ah eu ouvi esses dias em um podcast que talvez Ah se isso não se o Google não fosse tão burocrático Ah no processo de inovação olha olha é até um absurdo vi isso né Mas foi o que aconteceu né o Google talvez Tinha alguns entraves burocráticos lá e quando a gente olha o Quem assinou esse artigo Inclusive eu tenho até ele aqui deixa eu compartilhar com você aqui eu usei ele num Case aqui ah esse artigo ele esse artigo ele foi assinado
por era era assim de oito pessoas Acho que sete era do Google saca então o que que isso significa né que foi um artigo que foi publicado a pra comunidade né que foi aberto mas eram de pessoas que se você olhar no e-mail eram pessoas que trabalhavam no Google por que que isso aconteceu né os caras deviam est ali bicho louco para compartilhar com o mundo e talvez não era o momento certo eles falaram cara pera aí deixa eu Compartilhar esse negócio aqui e aí foram e compartilharam criaram mostraram essa estrutura para o mundo e
daí o que aconteceu foi que uma enxurrada de desse esses grandes modelos desenvolvidos em cima desse dessa nova estrutura conhecida como Transformers Ah começou a mostrar para o mundo uma nova forma um novo mecanismo para trabalhar com grande volume de dados textuais E aí o que que aconteceu né a gente vê que o chat PT ele foi desenvolvido pela openi que era assim para ser aberta né uma uma uma comunidade né a Open ai nasceu com o intuito de ser aberto né de de não ter de não deixar na mão de uma pessoa só um
conhecimento que talvez seria muito grande nem imagina o chat GPT eh era para ser do Google né olha aí né o chat GPT era para ser do Google porque todo mundo que tava lá desenvolvendo essa parada assinou como ah como Google né e deixa eu até pegar esse artigo a atenção atenção atenção é tudo que você precisa eu esqueci o nome do do do artigo Ah tá aqui ó attention is all you need Esse é o artigo Esse é o artigo original que trouxe essa parada dos transformadores E aí deixa eu fazer o download dele
aqui só para mostrar para você o que eu te falei agora dá uma olhada aí ó Olha o nome da galerinha que fez essa parada eh vaswani Google Ahã noan Google Nick Google Jacob Google Ah Lucas Google tá vendo Google E aí tem duas pessoas aqui então cara isso aqui o chat jpt né que é claro nasceu com com em cima né o GPT eh o GPT ele já nasceu com uma com uma pegada de o GPT é uma evolução dos transformadores né eu explico isso paraa galera lá na formação de ia eh o GPT
ele é uma evolução do dos transformadores e Que por ventura o o GPT GPT 3.5 ali que foi o primeiro chat GPT que surgiu né ele já era ali Arquitetura em cima dos transformadores Então cara pensa o Google deve ficar assim muito muito p da vida né mas ainda bem né Tem males que vem para bem pra gente né pelo menos mas vamos lá cara então qual é a lógica dessa estrutura aqui né como como que a gente conversa hoje ah tem algumas figuras né Deixa eu eh com eh Vou colocar aqui direto que aí
eu quero mostrar para você eh ia E aí eu vou dar espaço vou colocar CNN vou dar espaço rnn vou dar espaço vou vou colocar Transformers vou colocar L GPT GPT vou colocar llm Deixa eu ver se eu acho uma figura aqui tá bom então Quero mostrar uma uma figura para vocês para vocês entenderem como e e em que lugar aqui da Inteligência Artificial que a gente tá vou ver se eu acho essa figura tá bom só para que você compreenda né Nós temos aqui a deixa eu ver se esse aqui tem ó nós temos
aqui uma uma estrutura onde eu vou pegar e vou vou vou usar deixa eu ver vou usar essa aqui deixa eu usar outra aqui deixa eu ver se tem outra aqui legal né ah não vai ter mas tá tudo bem então vou usar essa aqui mesmo ó então o que que a gente tem a gente tem uma uma parada que é o seguinte né Nós temos a ia como sendo o Grande campo né O Grande campo dentro da ia aí imagina aí que a gente tem aqui Desculpa aí meu meu desenho bonitão mas mas tá
valendo dentro de ia a gente tem o machine learning tradicional aprendizado de máquina beleza dentro dos dentro de Machine learn a gente tem ali os algoritmos que algoritmo a gente tem os diversos algoritmos tá bom Pensa aí no KNN Pensa aí no Navy base Pensa aí no ac Boost E aí a gente tem as redes neurais neural Network tá bom neural Network dentro das redes neurais a gente eh descobriu uma parada conhecido como Deep learning Deep learning é o aprendizado profundo né o aprendizado de máquina profundo que foi desenvolvido em cima das redes neurais Então
a gente tem aqui dentro do Deep learning a cnns a lstms as Gun rnn mlp e os Transformers então Ó você veja que a gente tá tem um Campo Grande começou lá em 1950 o estudo da ia depois a gente foi avançando machine learning aí chegamos ali no no na na ideia de transformar os neurônios a de transformar né de criar a estrutura do neurônio humano né fizeram o neurônio matemático o neurônio matemático conhecido como perceptron né ele ele foi evoluindo né a gente conseguiu depois fazer o multilayer perceptron que é esse carinha que tá
aqui e aí foi evoluindo a gente conseguiu depois desenvolver as cnns as rnns E aí os Transformers depois dos formas aí veio os GPT E por que que eu tô falando tudo isso Eduardo porque as llms nada mais são do que a evolução desses carinhas aqui então nós estamos no mundo onde o poder Ah computacional a internet a o poder o poder de processamento tá fazendo com que a gente consiga evoluir Ah no no na Inteligência Artificial como um todo e llm é exatamente isso uma coisa que é bem interessante é que hoje nós temos
um mundo de llms que ele é mais ou menos assim ah eu vou deixar esse esse link aqui pode ficar tranquilo que eu vou mandar por e-mail tá bom Ó nós temos aqui o seguinte eh eu deixei esses links aqui para mostrar para você Ah nós temos uma quantidade infinita de larg language models de llms uma quantidade gigantesca por quê Porque depois desse artigo a gente gente vê uma a grande maior a grande A grande maioria vai das empresas de tecnologia utilizando essa estrutura para criar os seus próprios modelos algumas saem na frente e acabam
ah tendo mais acesso a investimentos mais acesso a dados e criam coisas melhores né mas nem por isso as empresas pararam e simplesmente usam os modelos do Google os modelos da Meta as empresas vão evoluindo e vão descobrindo Business que funcionam em cima desse próprio Business vou te dar um exemplo a gente vai entrar aqui em contato com um modelo que é o modelo do grock se eu não me engano ele tá bem Aqui é o grock não tá nem aqui como a uma empresa que desenvolve llm aqui eu coloquei as principais a gente vai
trabalhar com cada um deles daqui a pouco mas o grock o business dele é compartilhar né Sem um provedor desses grandes modelos em especial aqueles modelos que são abertos nós temos aqui ó um esse site chamado llm mods.org nós temos aqui uma uma uma ele fala que é a maior curadoria ali né de de modelos né a maior lista de modelos llms né Ele é desenvolvido por essa pessoa aqui é um grande nome no mundo da ia e ele coloca aqui ó tenho todos os modelos e eu tenho os modelos que são abertos né então
ele fez essa curadoria aqui e ele lista aqui a quantidade né dos mais diversos modelos modelos multilingua modelos que são sequen sequen text based transformed based enfim tem ele ele fez uma uma lista aqui tá bom ela é uma lista completa cara nem sei te dizer por quê Porque esse é só um dos sites que fazem esse compilado eu só tô trazendo para você ter uma ideia da quantidade de modelos eh conhecidos como llms que já existem por aí tá bom Eduardo me fala um negócio quando você fala modelo eu ainda fica um pouco confuso
né Eu não sou da área de de de de ti eu não tenho um viés ali estatístico matemático tem como você explicar para mim de uma forma bem simpl o que que é modelo tem então vamos lá pensa na calculadora aí tá bom o que que a calculadora faz ela é um algoritmo né a calculadora é um algoritmo Onde você coloca um número aperta ali uma uma um comando né dizendo que qual é a operação matemática que a gente quer o outro número que é o outro parâmetro e depois você manda rodar dá o Run
né Você dá o Run no negócio e a calculadora devolve pra gente né a continha então consegue consegue identificar que isso é uma um algoritmo né Ele tem alguns passos pré-determinados se você for um pouco além você vai pensar na função matemática quando você tava lá de segundo grau né tinha o Y igual Ax + B né não tinha lá os parâmetros o x né o y era o que você queria encontrar o b era o coeficiente aquela coisa toda essa função como um todo ela também é um algoritmo Então pensa lá em probabilidade quando
você tá estudando a probabilidade né O Teorema de Bas cara você estudou o teorema de Bas nev Bas em cima do do Teorema de Bas que é nada mais nada menos do que esse trabalho de de computar alguns valores que nesse caso são probabilidades para chegar num valor frigid os ovos Olha só cara o que que a gente tem os llms eles também estão querendo de chegar no mesmo resultado assim como a gente estava querendo chegar num resultado quando a gente tava usando a calculadora esse processo evolutivo veio ali com as funções aí a gente
veio para algumas coisas eh mais matemática estatística como as equações as regressões E aí depois a galera começou a desenvolver as as árvores de decisão depois foi evoluindo para aqueles algoritmos mais tradicionais e hoje a gente tem os llms Então o que a gente tem é exatamente a mesma a mesma a mesma ferramenta para fazer um trabalho preditivo é isso no frigido dos ovos llm é isso tá bom cara vamos começar aqui eu quero trazer essa brincadeira para você começando com modelos do Google depois a gente vai falar com o modelo da Meta depois a
gente vai falar com o principal modelo do antropic do mistra e do próprio ren Face eu nem trouxe openai porque eu gosto muito do openai A grande maioria dos cases que que eu desenvolvo aqui ah eu tô trazendo Open ai por quê Porque cara custo benefício facilidade né tô sempre analisando tudo isso custo benefício e facilidade tá bom ótimo Eduardo você explic fou aqui a estrutura dos llms só que antes de você falar desses aqui eu queria ver por exemplo de uma forma comparativa ah como que eu decido qual que eu vou usar né como
que eu decido qual que eu vou usar e essa é uma pergunta bem ah eh Ela é bem específica quando você tá querendo avaliar alguns parâmetros que são como qualidade eh a velocidade de de de de de desenvolvimento e o preço né o custo que você vai utilizar se eu posso utilizar tudo isso aqui ah eu consigo dizer para você qual é o melhor modelo que você pode utilizar agora eh é só isso que interfere qual llm que eu vou utilizar para fazer o meu o meu chatbot para fazer o meu agente de ia para
fazer o meu trabalho preditivo para fazer o o meu Ah analista de dados eh com inteligência artificial é só isso não aí tem e outras coisas então eu tô trazendo aqui para você alguma alguns dos parâmetros que eu acho que são os mais utilizados tamo junto Beleza tô indo rápido tô indo devagar já fala no chat aí se tá de boa que a gente já vai entrar nos cases Eu só preciso mostrar para você o que que cada um é pra gente começar a fazer tá bom Aproveita e já dá o o like aí no
Facebook ou no Facebook no YouTube e bebe uma água show de bola Então vamos lá isso aqui é um outro site que também tá aqui nesse nesse material tá bom ah é uma uma comparação né um site que faz um estudo de comparação desses modelos então o que que eu quero trazer para você aqui né Bora olhar a qualidade e quando eu falo qualidade eh Pensa aí que existem alguns ah parâmetros né Então como que o cara eu vou vou só dar um exemplo bem bem bem simples para você entender como que eles comparam né
pensa que existe um teste de QI né então ele coloca todos os modelos para fazer o teste de QI para ver qual é o melhor ah pensa que tem o vestibular mais difícil do mundo as questões tal tal tal eles colocam todo mundo para fazer isso aqui ah visão computacional Ah tem um banco de dados de visão ali bora ver qual modelo que acerta mais as imagens Então é assim que a galera faz essa mensuração Tá bom então ó ah o Highlight que a gente vai fazer desses modelos desses grandes modelos é o seguinte Ah
nós temos aqui a qualidade e a qualidade é isso que eu tô te falando né com relação a a qual que é o melhor né preditivos temos como os melhores Aqui de acordo essa de acordo com essa análise os Omni da Open ai beleza Omni One preview e o Omni One mini se eu for olhar o custo você vê que hoje ele é bem caro né então para se usar esse esse esse modelo aí nos seus projetos ele ainda é muito caro mas quando você olha para outros modelos que são aberto né que são ah
compartilhados aí de forma aberta ó o Google Gemini 1.5 pro que a gente vai brincar com ele hoje também aqui o flash Eh ele também tem quase a mesma a mesma potência e junto com o próprio GPT 4 o cloud 3.5 sonet que é o último modelo aqui da Open da da antropic é muito bom hoje eu vou fazer um overview também desse cara aqui com você então você vê aqui ó de acordo com a qualidade nós temos aqui ó Open ai Google antropic é Mistral meta né hoje a gente tem aqui engraçado né que
o o o lama 3.2 que é o mais novo que foi desenvolvido tá abaixo do do anterior Mas ele também tem muito menos parâmetros né Esse aqui foi treinado com 90 bilhões e esse aqui foi com 405 né então Eh aqui você consegue olhar os principais eu trouxe todo todos eles aqui na codificação para você rodar aí todos eles acessar todos eles alguns é claro você vai precisar dar daqui mas do jeito que tá lá você faz aqui rapidinho no site de cada um lá e tá valendo não precisa nem gastar tá bom ah beleza
velocidade aí a gente olha aqui vê o Google cara esse aqui voa né o gemina 1.5 Flash se a gente vai brincar com ele daqui a pouco ele é muito veloz aqui o mais veloz né mais veloz do que o GPT 4 Mini Preço Ah esse aqui o o a gente já viu que o preview ele tem um valor a o cloud 3.5 sonet também e por aí vai tá bom o Mistral o larg que a gente vai trabalhar hoje aqui também então assim você vê que todos estão ali mais ou menos e esse último
que saiu do do da Open ai é mais caro geralmente quando quando sai assim ele ele fica muito caro né então ó essa é uma comparação que você pode fazer analisando essa a três fatores para saber qual que é o melhor para você usar por que que eu tô te falando isso porque você vai ver que você pode utilizar todos eles em vários projetos né de forma de forma bem de forma bem livre nós temos ainda uma coisa que é interessante que eu já fiz ali uma uma introdução que é o seguinte nós além dos
desenvolvedores de llms nós temos o além dos desenvolvedores de llm nós temos a os provedores e os provedores são os caras que ah criam toda a estrutura né Toda a infraestrutura de cloud de máquina de GPU de tudo que precisa para rodar um modelo como esse né e e assim uma coisa muito clara assim você não roda qualquer modelo desse aqui com uma máquina muito simples então por isso que a gente usa as apis pra gente rodar Ah fazer todo o trabalho e e receber só o retorno do do trabalho preditivo que a gente quer
né E não rodar na nossa máquina por quê porque existem empresas que elas não não desenvolveram esses modelos mas ela como existem modelos que são abertos elas pegam esses modelos e utilizam eles dentro da sua infraestrutura e compartilham com a comunidade E aí você pode pagar api dessa provedora simplesmente pelo uso né então você vê como infra é uma parada que dá dinheiro né você olha aí o o o a maior fonte de receita da da daws por exemplo né da amazon É exatamente de de a da área de cloud né Então tá explicado porque
que tem muitas provedoras né porque geralmente as empresas elas conseguem faturar bastante vamos dar uma olhada em algumas então Ó a própria Open ai ela é uma provedora e ela tem os seus próprios modelos né então Ó a Open ai ela é uma provedora Ela tem os seus próprios modelos porém hoje a gente vai trabalhar com uma aqui bem interessante que é a grock e a grock ela tem alguns modelos também mas ela hospeda os modelos abertos nesse caso aqui o modelo do da Meta né é um que a gente vai utilizar hoje aqui que
ela hospeda lá dentro ela provê ali o a esse grande modelo esse llm mas ela não não não vai compartilhar o seu próprio modelo em vias de regra tá bom existem a outras Fireworks também é uma que ela é uma provedora a a própria WS que a gente acabou de falar esse lapton ai aqui esse link aqui você vê a infinidade de provedoras né Ó você vê que o grock também tem da Meta mas também tem a do Google né a antropic antropic tem aqui os os Cloud né os modelos Cloud né 3.5 sonet ah
a Mistral e Microsoft também né a Microsoft ó o wer Ager tem lá dentro a Mistral né a o próprio Mistral ele produz aqui esses a replicate se eu não me engano a replicate foi comprada pela hotmart aqui do Brasil né do Brasil né a hotmart é holandesa se eu não me engano né mas enfim eu não sei é o certo mas a replicate se eu não me engano ela foi comprada pela hotmart a corar galera do R perplexity enfim tem uma uma lista gigantesca aqui depois para você a visualizar aí né Nós temos uma
infinidade de provedores de llms E hoje nós vamos trabalhar aqui com os mais importantes que são os os grandes modelos aí dessas empresas tá bom Ah cara só fazer uma pausa aqui pro PR pro andamento do nosso evento semana que vem eu quero que você participe e participe na Vera então ó já foi no primeiro anexo para você as regras do de participação Para você ganhar um notebook tá bom então Ó essas regras aqui vai aqui dentro do material do aquecimento também tá bom regra do sorteio do notebook cara na hora que a gente sortear
a gente vai olhar e vai ver cara você fez isso fez aquilo fez aquilo a galera traqueia tudo isso aí pode ficar de boa então então se você quiser ganhar o notebook tem que fazer tudo que tá aqui na regra porque senão você não vai ganhar essa parada e já pensou cara sai lá o você é sorteado pua vida aí deu ruim né Mas vamos lá primeiro modelo que a gente vai trabalhar aqui vamos lá trabalhar com Google Gemini aqui essa estrutura eu vou trabalhar somente aqui no CAB Tá bom a gente vai trabalhar somente
aqui no CAB para você eh ter essa facilidade de abrir armazenar os seus tokens aqui Tá bom então Ó eu tô com todos os tokens que eu tô utilizando aqui ultimamente para que você eh consiga desenvolver né então por exemplo o Google API Key né como que eu vou fazer Eduardo token cara Eu deixei esse link aqui ó ai Studio você entra aqui no ai Studio você vai ter a opção lá de ó fazer o get api Então você vai conseguir desenvolver ali o seu a sua a sua i e você vai armazenar a sua
I aqui nessa chavinha tá bom ah coloquei o nome aqui Google API ke e o nome que tá aqui tá bom o nome o nome da da da nossa aqui que a gente vai utilizar Por que que você tá falando isso Eduardo porque eu quero mostrar para você a estrutura para você entender como que a gente eh acessa utilizando o cab essas esses grandes modelos né então ó a gente vai no primeiro modelo né como que a gente acessa essa parada aqui dentro do Python ele tem uma estrutura muito simples né a gente tem o
o grande se você já é Dev você já trabalha com com com node por exemplo né você já já faz a importação dos pacotes o npm aquela coisa toda cara aqui a gente usa o PIP é a mesma coisa não tem nada de diferente né as bibliotecas do Google aqui né de de generative ai né de A generativa tá aqui nesse Geni Ah é o generative ai a gente renome renomeou aqui como J esse user datate é para ele trazer a a Google k a gente vai est trabalhando e e a partir desse momento aqui
isso aqui a gente ah a gente vai isso aqui é só pra gente utilizar aqui aqui eu quero mostrar para você como que a gente usa o modelo né então aqui configurou aqui aqui eu quero mostrar para você como que a gente usa o modelo né é eu deixei assim para ele ficar todo todo textual todo todo organizadinho aqui saca tipo ah deixa eu limpar aqui limpar essa saída aqui só para você visualizar direitinho ó a gente consegue por exemplo ó Qual o nome da do da sua api né então você coloca aqui Google apiq
e aí você manda rodar aqui simplesmente Opa já fez o que que você precisa aqui agora o que que você quer uma mensagem de exemplo eu coloquei aqui né O que é o que é o Ah o l chain o leng graph vamos ver se ele leng graph leng graph do L chain e aí eu vou rodar essa parada aqui quem vai responder vai ser esse carinha aqui ó o Gemini 1.5 Flash Então como que eu uso esse cara né tá aqui ele é um modelo que tá dentro da estrutura do Google né a estrutura
conhecida como a e gen tá aqui em cima Deixa eu lembrar aqui né Deixa eu ver se é o generative ai a gente aqui chamou de Geni né então então ó generative ai tem uma funcionalidade dentro dele que é o generative Model Qual é o modelo que você quer usar nesse caso aqui a gente vai usar o 1.5 Flash né a gente viu que ele era rápido e tá aqui ó ele criou a estrutura de criação ah de utilização do modelo tá aqui nessa linha tá bom nessa linha de codificação aqui a gente já tá
habilitando o chat e aqui a gente tá eh imprimindo a resposta é só é de forma bem simplona mesmo tem como você customizar tudo isso colocar no chat bonitinho Eu Só Quero mostrar para você o meu objetivo hoje é Eduardo eu sei como usar cada um desses modelos que você falou no meu código na minha aplicação Ah no meu site enfim por quê Porque a partir de agora você sabe como setar Qual é o nome que você precisa setar tá bom E aí a resposta tá aqui né um llm que tá aqui o lank graph
long chain O componente chave dentro do Framework que permite a criação de sistemas de ia Av assados conhecido como agentes de linguagem em poucas palavras ele é um mapa que representa a estrutura de conexões de um agente de linguagem então por aí vai ele vai explicar o que que é cada um dos componentes do l graph a gente vai ter oportunidade de trabalhar com esse cara aí também tá bom que faz parte ali do da estrutura do Lang chain eh então você vê é simples né assim a a a chamada do modelo ela é muito
simples você sempre coloca uma API você tem um promp para fazer a pergunta você pode customizar né e colocar algumas regras né aqui nesse caso aqui tem o sistema de instruções Você pode falar né ah você é uma um assistente de de um hospital Então as pessoas estão querendo marcar consulta faça assim assim assado e aí você configura tudo velho olha que massa né esse aqui eu configurei pra gente pegar aqui três modelos ó o pro o Flash e o e 1.5 pro né então a gente tá trabalhando com Flash aqui lembra que eu te
falei dos parâmetros a temperatura a gente pode falar que o modelo eh tem que se ater estritamente ao que é perguntado ele pode ser um pouco mais criativo e por aí vai né eu posso delimitar uma um uma sequência né uma um ponto de parada né para ele não falar muito né Por exemplo se eu fizer o mesmo prompt aqui perguntando o que que é o long chain ele vai explicar para mim aqui de acordo com né com com que ele vai explicar então Ó você vê aqui que ele falou coisa para caramba do mesmo
jeito que o outro né aqui eu tenho um Stop se posso colocar um ponto final aqui para quando ele enxergar o ponto final ele parar e não não responder mais tudo isso é customizado tá bom isso aqui é só para para você visualizar Ah tá aqui ele criou parou no ponto exatamente né L uma estrutura de código aberto que facilita a criação de aplicativos baseados em linguagem de forma eficaz Como que eu faço tudo isso Eduardo tá aqui nessa codificação Tá bom é só ele tá oculto aqui ó mas se você clica na setinha aqui
ele vai abrir tudo para você você né que que é a pq que que é o prompt tudo feature que eu vou ah e meio que organizando né eu vou organizando Cada um ia falar instanciando mas não tá certo falar instanciar mas eu vou organizando cada um dos componentes aqui do que vai ser esse sisteminha aqui de teste do do modelo tá bom esse if aqui é só pra gente escolher os modelos e aqui a utilização como você já viu pega ali o o a biblioteca do Google Geni generative Model traz o modelo traz as
a os parâmetros E assim a gente vai utilizando Esse é o primeiro que tá aqui dentro do documento Bora pro segundo que é o lamat o lamat não lama 3.2 lama 3.2 a gente vai utilizar ele hospedado lá no provedor lá no grock Eduardo não não tem uma senha no grock onde que eu faça a senha no grock Chega aqui velho grock api aí vamos lá console grock tá aqui ó esse primeiro link aqui ó vem aqui no grock E aí aqui é porque eu já tô logado né ele já me reconheceu eu já tenho
as apis que eu fiz aqui pro nosso aquecimento tá vendo ó eu fiz agora à tarde essa essa aqui que eu tinha uma outra aqui que eu fiz que eu usei outro dia mas eu fiz essa aqui pronto você vem aqui Create api coloca aqui no coloca aqui na chavinha e tá valendo beleza instalamos como que eu vou fazer a mesma coisa cara a gente vai nesse caso aqui a gente vai trabalhar mais parecido com a estrutura de api né eu vou falar aqui o o qual é o end Point digamos assim né não é
bem o end Point mas o comps que a gente vê lá na Open ai é mais ou menos a mesma coisa vou pegar o comps e vou trazer o quê modelo Qual modelo eu vou trazer o modelo lama 3.2 que é o modelo mais novo do do da meta e que tá lá hospedado no provedor no Brock Tá bom eu vou criar um um um um um chatz inho simples Tá bom um chatz simples onde eu vou perguntar por que que long chain é necessário Explique como se eu tivesse 10 anos e aqui você pode
eh Enfim fazer tudo que você faz no no num num num chatbot qualquer tá bom eh como o próprio chat GPT É claro aqui você tá usando o modelo tão bom quanto e completamente aberto aí para você rodar na tua estrutura tá aqui são as features aqui você delimita a quantidade máxima de token eh enfim você você escolhe uma porrada de coisa né aqui ele vai explicar de acordo com o que você pediu né imagina que você tem um amigo muito inteligente que sabe muito sobre tudo você perguntar qualquer coisa ele vai responder tal tal
tal e aí ele vai explicar naquela mesma pegada vê que a estrutura é bem simples né a estrutura Ela é bem bem direta né aqui eu eu coloquei aqui um uma um resultado um pouco mais mais bonitinho para ele trazer a história né Sem aqui ficou numa linha né aqui ficou numa linha eu ten que ir pro lado aqui eu só Formatei o o markd aqui para você ver a resposta de forma completa tá bom Beleza então cara aqui tem mais uma forma né E você vê que não tem tanta Ah não foge muito do
do do ah do padrão né vai ter uma estrutura Inicial e geralmente essa estrutura inicial a própria documentação mostra como que você chama né a a a Como que você cria Como que você faz ali a a busca da a busca do do do o código você vê que o código praticamente o mesmo código que eu peguei aqui na documentação né tá aqui eh e a gente só escolheu um modelo diferente é claro para escolher o modelo mais novo tá bom esse é o Lhama 3.2 é o mais novo da Meta que foi lançado esse
di Se não me engano Tá bom agora O antropic O antropic ele é sensacional cara por ele tem a galera da antropic eles fizeram o cloud né Não sei se você já usou o cloud ai mas o cloud é aquele que renderiza a as aplicações ele renderiza as aplicações no no próprio no próprio browser né então vou entrar aqui no Cloud para você talvez Alguém já entrou talvez alguém não mas vou mostrar para você né esse aqui é da antropic tá bom ele é da antropic Ah eu vou pedir para ele ó me dá um
exemplo um exemplo Ops um exemplo ah de app com react e deixa eu ver aqui ó T Wind que você possa renderizar e renderizar renderizar renderizar eh use modo Dark vou pedir para ele criar um site assim n um modo Dark e passa como se fosse uma Landing page de um Saas de ia E aí ó ele vai criar toda a estrutura de código para você e vai colocar aqui do lado para você né então eh ele é o que a gente chama de artefatos né é o mesmo do GPT engineer né que eu mostrei
para você em algumas aulas aí para trás que é o software que faz software então mesmo você não sendo programador O que que tá rolando aqui ele tá criando uma Landing page o utilizando isso que eu pedi para ele que é react e tailwind que é uma estrutura ali que trabalha com o JavaScript e Ah e CSS né na verdade pensa no no no JavaScript eu pedi para ele ó um fundo Dark né ele não colocou o fundo Dark eu vou até Ah tá aqui ó ó a Luizinha aqui ó que massa então ó ele
renderizo o site aqui na tela né Ó que fera né Então pense que hoje na nossa mão a gente tem uma ia que tá desenvolvendo a praticamente aí a a parte né do front end aqui não só o o o o back end né O que a gente usa muito aqui na no desenvolvimento do Python mas o front end também né Ele criou um aqui né um e Zap potencializa seu negócio com ia até criou um problema de negócio ali que ele resolve né bem interessante Então isso aqui cara foi desenvolvido com esse cara que
cara esse carinha aqui ó o cloud 3.5 Cadê o cloud 3.5 esse aqui que eu tô eu nem usei o 3.5 né aqui nesse caso não usei só o três Olha só por quais são os modelos né Deixa eu ver se eu acho aqui deixa eu ver se eu ah deixa eu perguntar para ele mesmo né quais os modelos da anop e eh Cloud 3 Cloud 3.5 E aí ele vai listar aqui né vamos ver se ele foi treinado com os próprios dados né eu lembro que tinha uma época que o chat PT não foi
eh não foi treinado com os próprios dados né aí tá aqui ó o cloud 3 heiko Cloud 3 Opus e o cloud 3.5 o mais inteligente aí é esse carinha que tá fazendo aí esse essa renderização Ah então tá aqui esse é um exemplo aqui utilizando o antropic né eu vou vou encerrar uma vou encerrar aqui que ele tá eu não tô usando colab pro aí ele tá reclamando que a gente tá usando muita coisa né vou encerrar esse vou encerrar esse aqui pronto Beleza pode rodar aí vai lá então ó ele vai instalar a
biblioteca né do próprio antropic e aqui né eu peguei aqui do mesmo jeito que eu fiz aqui da do mesmo jeito que eu fiz aqui do do grock beleza ó tenho aqui ó api console E aí eu vou achar minha api aqui de alguma forma tá bom Ó get api Keys ah ótimo aqui ele vai ele tá instalando depois que ele instala Como que eu faço aqui o trabalho cara a mesma estrutura né eu crio um cliente tá que o cliente utiliza na própria biblioteca ela pega api usa lá a mesma estrutura que a gente
faz lá do endp bonitinho tem parâmetros do mesmo jeito eu escolho o modelo né Deixa eu ver se ele vai rodar aqui deixa eu até pegar esse cara aqui ó ah me dá um dá o nome oficial e completo para para usar a api do 3.5 3.5 Sony é gente escreve errado escreve o contrário e aí tá tudo bem Vamos ver se ele vamos ver se é isso aqui mesmo ó Cloud 3.5 sonet vou pedir para ele usar esse aqui eu quero usar esse cara aqui beleza Vamos ver se esse aqui vai usar se não
for a gente procura a forma de usar ele deu ruim nesse aqui acho que é porque esse nome não é esse nome né ele me deu um nome que não é o nome de verdade eu vou achar esse nome eu lembro que eu separei aqui pra gente ah os Cloud com os nomes bem bonitinho Então vamos lá deixa eu ver se eu acho aqui o cloud antropic deixa eu ver se esse aqui e se bem que o que eu usei aqui foi esse cara aqui né é o mesmo que tá rodando Ah deixa eu ver
aqui deixa eu ver na documentação se eu acho aqui vou abrir a documentação eh Como eu posso usar Prom Cloud o nome deixa eu ver aqui ó Cloud 3.5 Son ele me dar o nome direitinho aqui vai trazer o conteúdo relevante é eu lembro que ele tem eu lembro que o nome tem essa data no final saca eu usei esse nome esses dias aqui tá então vou abrir aqui 3.5 aí ele mostra que o cloud 3.5 é tora tá vendo ó o custo eh o preço por milhões de token é alto não tão quanto o
cloud 3 Ops mas a inteligência dele é cabulosa Deixa eu ver se eu acho aqui só tenho 3.5 o nome dele não vai tá certinho aqui né enfim cara a gente depois a gente acha aqui o nome deixa eu ver se eu tenho Quero mostrar aqui um uma parada massa também então não vou ficar demorando muito nisso aqui não Tá bom então vou dar um cont control Z aqui só para ele voltar pro pro Opus E aí ele vai rodar direitinho porque o nome do modelo tá certo aqui Eu só errei o nome tá bom
Mas qualquer coisa a gente vai achar esse modelo aí em alguns dos outros cases que a gente fez aqui para baixo tá bom Ah aqui ó que que a gente fez né eu pedi para ele criar uma app usando o react e o cloud 3.5 Ah tá aqui deixa eu ver se ele se ele criou o nome do Cloud 3.5 se ele trouxe o o nome do Cloud 3.5 oficial não trouxe mas tá valendo Beleza então ó ele trouxe aqui o exemplo react simples e esse código aqui embaixo é só para ele trazer o a
estrutura deixa eu ó ó só sacanagem né eu vou abrir o GPT o chat ah me dá o nome da do modelo do modelo CL 3.5 sonet completo vamos ver se ele vai achar não não é também infelizmente não é tem uma tem eu vou colocar aqui ó tem um nome mais completo com a data que é a data de criação Esse é o nome Ah ele vai saber né enfim ele é bem novo essa parada que decho deixa eu ver no chat aqui se alguém alguém sabe aí no chat alguém Ah tá aqui boa
Luan Valeu Luan tá aqui ó Luan trouxe aqui ó 2024 0620 então ó Cloud 3.5 sonet 2024 Cadê Bora PR 3 5 Son cadê cadê você L 3 2024 0620 2024 0620 show de bola ainda não é he ainda não é clud deixa eu ver se eu cop errado CL 3.5 Ah tem do n sonet show de de bola agora vai show de bola agora foi então tá aqui o nosso modelo sonet vou fechar aqui o chat GPT Ah eu quero mostrar isso aqui para você também a gente vai chegar nesse cara aqui eh beleza
aí cara vamos lá Bora pro próximo que que a gente tem mais aqui o cloud 3.5 tem o Mistral e tem a o rugen Face que é o último que eu vou te mostrar ali que ele é muito tora velho é o rugin Face é mais um provedor onde a gente consegue desenvolver as paradas né então ó tá aqui ele criou toda a estrutura né veja como ele ele ele fez uma parada completa né primeiro configure o novo projeto eh react né a ele fala lá use o npx Create react Cloud app entra na pastinha
Cloud app instala as dependências né npm install axios que é o o o PIP install ali do do do coisa aí tá lá a estrutura da codificação né então a gente vai colocar dentro da pasta src um aplicativo que é o app.js Né JavaScript E aí ele vai lá e traz aqui toda a estrutura tudo que precisa ser feito se você fizer essa parada do jeito que tá aí cara vai dar um erro ou outro você usa o próprio a própria ia para te ajudar a corrigir mas ele vai vai criar um código que vai
renderizar ali a parada né que é o o o software do mesmo jeito que a gente fez direto no site do do Cloud então isso aqui é muito poderoso o Mistral é mais um também eu vou fechar aqui o Mistral é mais uma da dos provedores mas que também tem modelo né você vê que a gente tem um modelo chamado larg latest que é o o o larg language Model a mesma estrutura né C client coloca ali o o a biblioteca que é a o nesse caso aqui é o próprio o próprio a própria biblioteca
dentro do mistra ai a estrutura do end Point bonitinha chama o modelo e aqui dentro a gente tem a a minha interação né Eu fiz uma pergunta aqui qual o melhor estado do Brasil né e ele falou aqui né Ah depende qualidade de vida segurança educação só para fazer esse teste aqui né E também tem outros modelos né A gente trabalha muito com os modelos de embedding né que são os modelos Ah pra gente desenvolver estruturas como os rags Amanhã a gente vai falar de rag a gente vai criar alguns rags aqui bem interessante que
kag Eduardo amanhã cara você tem que vir pro nosso bate-papo porque você não só vai saber como você vai desenvolver e os bancos de dados as estruturas de modelos Ah que foram desenvolvidas na estrutura de eding né que é uma estrutura vetorial ela nos ajuda a criar esses rags eh que ah Ela traz uma resposta muito muito mais veloz digamos assim né porque ela transforma a estrutura do eu vou até copiar aqui para você ver ó ela transforma a estrutura ah em vetores né então ela pega a estrutura de dados e transforma em vetores né
eu vou pedir para ele renderizar isso aqui ó renderiza renderiza vamos ver se ele vai se ele vai entender aqui Ah Entendeu copiei a saída só só copiei a saída do modelo para você ver aqui a estrutura vetorial tá bom eh me mostra de forma de forma mais visual é uma saída né não tô pedindo para ele rodar nada né então por isso que ele deu pala aqui né ele vai mostrar aqui pra gente agora não não é isso não f não não é isso não só quero que você mostra essa saída aqui bonitinha cont
control c Vou colocar aqui me mostra de forma que eu veja melhor ó esse output só isso que eu quero só que eu não tô sabendo te perguntar Fala sério isso é isso mesmo agora ele vai mostrar bonitinho Então tá aqui ó ele tá mostrando pra gente ali que que ele criou né Então tá lá os vetores né os vetores numéricos é claro né de cada uma das saídas aqui né então ó ele o que que que que esse modelo fez né um modelo de de de Vetor Ele pega a sentença e transforma num vetor
né Isso é muito importante pra gente fazer o rag que é a consulta né então ele fez exatamente isso aqui para mostrar pra gente cadê cadê cadê code E aí ele vai mostrar pra gente aqui a estrutura visual né bonitinho os embeds que ele criou tá bom aqui ele render que ele enfim ele tá mostrando ele tentou colocar num gráfico que eu pedi para ele fazer E aí por último e não menos importante tá aqui o rug Face cara o rug Face eu eu quero trazer para você a a cara bonitinha do rugin Face mas
você vai ter uma oportunidade de conhecer isso aqui de forma completa e profissional mais à frente mas eu quero trazer e mostrar para você simplesmente a estrutura Inicial dele que é o seu grande provedor de modelos tá bom tem centenas de milhares de modelos aqui dentro e eu tô falando dos modelos dos llms tá bom tem centenas de milhares de datasets você tem espaços aqui dentro a galera lá que eu falei que criou o o os transformadores utilizaram esses espaços aqui para para fazer ali o seu trabalho lá e fazer o seu teste enfim tem
muita coisa aqui dentro você consegue ver os modelos mais usados os modelos mais utilizados enfim tem muita coisa aqui dentro e eu quero trazer um Case bem interessante para você aqui agora eh que ele ele é como se fosse um rag a gente vai fazer ele e esse rag amanhã mas eu queria te mostrar Ah o quão poderoso nós nós estamos chegando né que olha só o seguinte que Case É esse aqui nós temos uma estrutura eh utilizando o o Lhama que tá lá dentro do do regen Face é o lemma 3.1 não é nemum
mais novo Ah eles estão usando aqui o provedor da Fireworks a gente viu né o o provedor um dos provedores né grock Fireworks estava lá no meio ah e o que a gente vai fazer é o seguinte eu poderia colocar o site mas eu coloquei um documento de um Fundo de Investimento aqui que eu tava estudando eh que é um PDF simplesmente Deixa eu ver se eu acho esse PDF aqui só para te mostrar é um PDF que tá trazendo um fato relevante de um Fundo de Investimento tá bom Um PDF Pensa num PDF qualquer
com conteúdo qualquer então eu tô vendo aqui um fundo chamado vbi E aí ele tem um fato relevante aqui falando sobre a alteração de controle né ele fala que ah esse eh a BRL trust tal tal tal foi comprada Ali pela galera do do Pátria E aí o Pátria investimento agora é a gestora lida e comprou essa parada toda esse é o Esse é o é o pdf tá bom é um E aí cara olha que fera nós estamos criando aqui uma estrutura onde a gente vai alimentar o llm 3.1 aqui o Lhama 3.1 e
transformar o pdf num podcast olha que massa num podcast Então você vai ver que a gente vai a gente tem alguns parâmetros né então você pode colocar aqui se vai ser engraçado ou se vai ser formal né Qual é o o tópico específico principal que a gente quer informar o tamanho do do do podcast eh qual é a língua né Então aqui tem suporte é um modelo multilingual né então a gente vai usar aqui o português a gente tá usando aqui a geração avançada de áudio não tá tão avançada assim né Nós estamos utilizando uma
parada aberta mas eu quero mostrar para você a potência que é e que e que tá eh ficando alcance de todo mundo e de toda a empresa né E você é claro que tá aprendendo os caminhos né para utilizar essa parada toda aqui também acaba se tornando profissional muito valioso eu vou eu já fiz esse processo Ele demora um pouquinho quando a gente clica em submit ele demora esse processo um pouco mas ele acaba criando aqui o podcast e cara eu vou eu vou rodar aqui só para você ver ali ter uma uma noção inicial
do podcast que foi criado por esse llm para você me dá o feedback no chat aí se vocês estão conseguindo ouvir direitinho tá bom vou dar um play eu vou olhar no chat aqui para saber se vocês estão ouvindo direitinho Ah que D Então beleza sque eu vou eu vou dar se porque eu não sei se é porque eu não tô eu vou fazer o o download Tá bom vou fazer o downlo do áudio e vou colocar o áudio também para que você escute aí né o áudio de acordo com isso com o que a
gente viu aqui tá bom eu não sei se é um problema entre a entre a mesa aqui e o e o e o teclado né provavelmente deve ser mas eu tô utilizando o streamyard que é para fazer essa transmissão né então talvez Eu precisaria compartilhar alguma coisa aqui do áudio da do meu notebook para para você ouvir mas o fato é cara p o o podcast foi criado né somente com esse com esse PDF e a gente vê a a conversa né do da pessoa entrevistando e o entrevistado né o cara falando explicando né O
que que é o fundo Pátria eh explicando o quais são os impactos Enfim tudo que tava lá naquele documento ele ele transformou num PDF então assim veja que a gente tem aqui de uma forma eh eh bem direta e e e usual uma estrutura onde a gente consegue eh facilitar muito a a esteira de produção de conteúdo cara é isso aqui quando eu quando eu paro para pensar tanta tanta empresa pode usar isso aqui que não tá no papel né que nem chatbot né Tem um é uma geração de conteúdo infinita que a gente pode
fazer com isso aqui tá bom cara olha só que tora a gente chegou ao fim do nosso segundo aquecimento eh a gente amanhã vai falar sobre rag Systems né que é são os agentes que recebem como input assim como isso aqui isso aqui foi só um esquenta para você entender isso é um mecanismo Ah isso aqui é um mecanismo de rag também onde a gente acaba colocando uma uma um conteúdo adicional pro llm responder de forma mais completa né a gente vai trabalhar com alguns amanhã bem interessantes né vai fazer parte do projeto que a
gente vai desenvolver ver eh na no ai Experience e e a gente vai vai terminar a nossa aula de hoje vou parar aqui para responder o chat vou ouvir agora as Vou tentar responder as principais perguntas e aí você já pode mandar ver aí as perguntas Não esquece dá um um likezinho no vídeo aí para ele chegar em mais gente tá bom não esquece de dar o like Ah não esquece de fazer o case da aula anterior cara você tá com conteúdo tor a na tua mão aproveita n Fica de olho no teu e-mail tira
do spam lá cara tenta achar lá a ciência dos dados Ah que aí você vai achar o e-mail né geralmente é suporte @cidades lá porque eu tô mandando essa parada por e-mail porque é bom que fica bonitinho fica traqueado e você consegue achar Depois manda no WhatsApp o que que acontece a gente acaba né deixando Às vezes você sai dos grupos e enfim eu não mandei ainda nos grupos porque ainda tem gente entrando em vários grupos então se eu mando agora depois eu tenho que mandar de novo aí eu fico enchendo o saco eu fico
enchendo o saco de vocês mandando toda a hora no WhatsApp né e eu prometi para vocês que eu não ia fazer isso que eu ia só me comunicar para falar tô ao vivo eh aula liberada script Exatamente porque eu sei que tá todo mundo de saco cheio de grupo no WhatsApp então para não perder a funcionalidade eu mandei no e-mail tá bom meninos Então beleza Eh vamos lá deixa eu responder aqui beleza show de bola ornan galera dá uma olhada no e-mail mais uma pessoa reforça aí no e-mail sim só que muitos foram pro spam
ó aí ó Rodrigo Calé acabou de me falar ó recebeu no e-mail muitos foram pro spam então é importante que vocês vão lá e tire o e-mail do span senão vocês vão não vão receber a documentação hoje em dia as ferramentas de e-mail são feitas com ia você não dá atenção para e-mail cara ele já bota no spam e acabou velho Cláudia Cláudia saiton eu ia mandar no WhatsApp eu acabei não mandando por causa disso que eu expliquei tem muita gente entrando no grupo ainda se eu mandar agora quem tá entrando agora já perdeu né
Por quê Porque não tava no grupo antes não fica o histórico não é que nem o telegram né tá bom Por que que eu não fiz no telegram Por que vocês não usam o telegram se vocês usassem o telegram fazendo telegram Você só usa o WhatsApp attention is you need o site do rugin Face funciona como um um github de repositório de modelos sim coca sim não só de modelos né mas lá também tem uma comunidade gigante eles também trabalham com a própria infraestrutura para eh você trabalhar com de forma profissional colocar os modelos que
você vai utilizar os cases as aplicações da sua empresa lá dentro tá bom eh Bert T5 é esses carinhas aí já ficaram para né galera esses aí já tão já ficaram para trás Edu na aula passada você usou o crei em Python meu vs code não consegue instalar o Crew ai pelo PIP e dá um erro de chroma tem alguma dica de como resolver cara não não lembro de ter tido esse problema que você teve não tá bom talvez se você colocar essa pergunta que você fez desse jeitinho aqui para mim no chat IPT ele
deve ter lá um banco de de dados lá de de erro e deve te responder tá bom ele é o stack overflow do do presente né me joga lá que ele vai te falar Ah o que eu vi do crei dando um problema lá era uma dependência que faltava cara eu instalei a dependência junto também E aí deu bom se você rodar a os requirements que estão lá dentro lá do do código Cara você não vai ter problema e usar o Python 3.12 que foi o Python 3 12 que eu utilizei então cria um ambiente
virtual lá utilizando Python 3.12 com as bibliotecas que estão no requeriment que vai rodar tá bom ah vamos ver mais aqui tomando como base a visão de qualidade velocidade e preço Gemini Flash é o melhor destes depende né Men se for olhar só isso mesmo Talvez sim mas você não pode olhar só isso né Por quê Porque você tem que olhar pro seu então isso aí foi só um parâmetro né ainda que a gente Olhe só esses três Talvez para o seu Case né vou te dar um exemplo um case de de programação né um
case de programação Talvez o cloud responda melhor do que o g mesmo considerando velocidade preço se fosse tudo igual pega um que é tudo igual qual é o melhor é aquele que vai responder melhor o seu problema com ah dados os mesmos parâmetros Tá bom então olha sempre para isso eh precisa fazer a tarefa de ontem Rodrigão É isso aí beleza Qual a qual a diferença o Lucas Lopes perguntou aqui ó Qual a diferença entre Word tvec e as llms Boa pergunta Cara excelente pergunta as llms usam o Word to vac de alguma forma ou
não tem nada a ver não tem tudo a ver o Word to vac ele é nada ele nada mais faz do que ah o o que beding faz hoje em dia né O que que im bed faz ela pega as palavras e transforma numa estrutura vetorial as llms de certa forma o processo de Treinamento dela também passou por isso só que quando a gente olha Eh se você for olhar uma um uma estrutura né um próprio um é é porque eu não posso chamar de modelo Mas pensa que a gente conseguia também fazer esse trabalho
de processamento de eh de processamento de linguagem natural com o Word two do né true vc que é um um um um modelinho vai esse modelinho ele foi desenvolvido para fazer esse mesmo trabalho de processamento de linguagem natural qual a diferença que llms eles eh eles têm uma uma estrutura de dados pré-treinos né a gente tá falando tudo de modelo pré-treino o Word tvec permite que a gente pega os nossos dados e faça a essa esse trabalho de vetorizar ali as palavras beleza Lucas Então é isso que o Word tvec vai fazer que que são
os llms os llms já já é isso pronto ué mas eu não dei dado nenhum pro pro llm Não não deu que quem deu né então a própria internet deu assim pensa que o o chat GPT foi criado ah com com dados do próprio Git né O github que é da Microsoft a Microsoft participou do convênio que fez o treinamento aí do do do chat ept Então essa llm né o chat ept 3.5 Turbo bebeu dado da da internet inteira e assim é entendeu as llms são modelos prét treinados posso utilizar o lama 3 localmente
para garantir a segurança confidencialidade sim ah tem uma uma estrutura você tem que ter máquina tá bom Men tem que ter máquina Ah se você tá começando agora tem que ter uma máquina parruda aí tipo de 16 16 mega de Ram para cima sei lá 30 32 de Ram para cima para você conseguir baixar o olama que é o o é como se fosse o o Ah o anaconda né do Python é o olama dos llms né você baixa lá uma uma cacetada né modelos da até da Microsoft da Meta como Lhama o fi3 da
da da Microsoft E aí você consegue rodar lá na na própria máquina Tá bom mas cara tem que ter máquina beleza a Ah pode usar tem que ser isso aí o Luan falou aqui ó o processamento tem que ser topíssimo É isso mesmo Luan Luan tá beleza Ah beleza beleza beleza beleza acho que eu consegui responder quase todo mundo aqui galera falou que o áudio não tava dando para ouvir rugen Face com essa feature de Podcast é open source é você vai receber esse link tá bom tá aqui ó é esse último link que tá
aqui nesse documento aqui a do aquecimento dois doss llms tá bom é o último aqui você vai depois tem como você navegar aí nessa Navegar aí nessa nessa parada aí Ah meu tava no spam Pois é michon kirstein galera tem que tirar do span tá bom ah o material de hoje ainda não foi Tá bom Carlos eu vou mandar agora o discord a gente vai mandar ainda tá bom o discord a gente vai mandar ainda o discord até sexta-feira eu mando por quê Porque o discord é só do evento o discord é só do do
do ai Experience que é semana que vem você sabe como fica a questão de direitos autorais no ring Face nem se é um vespero nem me arrisca a dizer recebi todos os e-mails menos o link dos scripts me dá uma olhada lá Brunão porque o e-mail que eu mandei ontem até tá escrito né scripts dá aquecimento tá bom o discord será disponibilizado nas próximas aulas isso mesmo meninos show de bola SQL a gente vai rolar vai rolar me SQL a gente vai rolar tá bom ah acho que é isso aí galera como participa do evento
michon kisten vai no ciados dados.com coloca o seu nome e-mail telefone lá tá bom precisa ter placa de GPU nem nem sempre mas é importante porque cara você vai rodar modelos que são feitos para rodar em GPU né esses Model modos esses llms aí precisa de aceleração Tá bom Renato mas tem é claro modelo que roda com CPU tem modelo que roda com CPU e você vai e enfim vai demorar vai demorar mas você vai conseguir mas é mais difícil tá bom meninos então ó excepcional Muito obrigado pela sua presença Espero que você tenha gostado
do nosso bate-papo não se esqueça de curtir esse vídeo seguir as regras Fica de olho no teu e-mail que eu vou mandar o script agora para todo mundo que tá inscrito no treinamento Beleza Eduardo não tô achando vai no spam ah Eduardo quero ganhar o notebook tem que seguir as regras que vai est nesse anexo que eu tô te mandando vou te dar um notebook mas você vai precisar seguir as regras para fazer parte do sorteio beleza Ah enfim é isso aí tamo junto galera um beijo um abraço fiquem com Deus amanhã nesse mesmo horário
a gente se encontra Belê valeu l
Related Videos
Agents – Introdução à criação e funcionamento de agentes de IA
1:18:38
Agents – Introdução à criação e funcioname...
Eduardo | Ciência dos Dados
2,202 views
🚀 Aprenda Web Scraping com IA e LLM's 🤖
30:41
🚀 Aprenda Web Scraping com IA e LLM's 🤖
Eduardo | Ciência dos Dados
4,529 views
Bom DEMAIS para ser verdade? INTERCEL está COM TUDO!
6:10
Bom DEMAIS para ser verdade? INTERCEL está...
Alex Coimbra
11,957 views
IA Está Eliminando a Necessidade de Programadores Web?
33:57
IA Está Eliminando a Necessidade de Progra...
Eduardo | Ciência dos Dados
26,176 views
AI CLASS - Criando Agentes de IA que navegam na WEB
1:41:59
AI CLASS - Criando Agentes de IA que naveg...
Eduardo | Ciência dos Dados
6,598 views
[1hr Talk] Intro to Large Language Models
59:48
[1hr Talk] Intro to Large Language Models
Andrej Karpathy
2,261,402 views
Jornada Inteligência Artificial da Hashtag [Aula 1]
2:17:28
Jornada Inteligência Artificial da Hashtag...
Hashtag Treinamentos
90,831 views
Haifa: a guerra chega no coração de Israel
Haifa: a guerra chega no coração de Israel
ARTE DA GUERRA
COMO VIVER DE RENDA PASSIVA COM DIVIDENDOS | ESTRATÉGIAS PARA ALCANÇAR A SUA LIBERDADE FINANCEIRA
25:04
COMO VIVER DE RENDA PASSIVA COM DIVIDENDOS...
Economista Sincero
33,502 views
Como Criar uma IA que Aprende com Seus Próprios Dados Usando ChatGPT e RAG!
43:46
Como Criar uma IA que Aprende com Seus Pró...
Eduardo | Ciência dos Dados
3,867 views
Deep .NET: Let's Talk Parallel Programming with Stephen Toub and Scott Hanselman
1:12:48
Deep .NET: Let's Talk Parallel Programming...
dotnet
22,855 views
2 AÇÕES DE OPORTUNIDADE QUE A LOUISE BARSI ESTA DE OLHO - MÉTODO BARSI
11:47
2 AÇÕES DE OPORTUNIDADE QUE A LOUISE BARSI...
Poder dos Dividendos
11,971 views
The spelled-out intro to neural networks and backpropagation: building micrograd
2:25:52
The spelled-out intro to neural networks a...
Andrej Karpathy
1,960,954 views
A IDE Que Vai Multiplicar Sua Produtividade em IA – Domine Python, LangChain e Claude 3.5!
29:51
A IDE Que Vai Multiplicar Sua Produtividad...
Eduardo | Ciência dos Dados
1,462 views
CS 194/294-196 (LLM Agents) - Lecture 2, Shunyu Yao
1:08:44
CS 194/294-196 (LLM Agents) - Lecture 2, S...
Berkeley RDI Center on Decentralization & AI
9,187 views
Let's build GPT: from scratch, in code, spelled out.
1:56:20
Let's build GPT: from scratch, in code, sp...
Andrej Karpathy
4,790,278 views
Tamay Besiroglu on AI in 2030: Scaling, Automation, and AI Agents
1:30:30
Tamay Besiroglu on AI in 2030: Scaling, Au...
Future of Life Institute
598 views
Stanford CS149 I Parallel Computing I 2023 I Lecture 1 - Why Parallelism? Why Efficiency?
1:12:22
Stanford CS149 I Parallel Computing I 2023...
Stanford Online
18,933 views
Valve CONFIRMS New Hardware
18:35
Valve CONFIRMS New Hardware
NerdNest
15,374 views
LLaMA explained: KV-Cache, Rotary Positional Embedding, RMS Norm, Grouped Query Attention, SwiGLU
1:10:55
LLaMA explained: KV-Cache, Rotary Position...
Umar Jamil
65,837 views
Copyright © 2024. Made with ♥ in London by YTScribe.com