[INSERIR DESCRITIVO DO VÍDEO]
Aqui é o Eduardo e se curtiu o papo, já dá um like, se inscreve e ati...
Video Transcript:
E aí beleza uma honra ter você comigo aqui mais uma vez no canal ciência dos dados para que a gente possa construir aplicações de Inteligência Artificial desde aplicações que são simplesmente a utilização desses llms grandes modelos de linguagem até coisas mais complexas como a criação de Agentes de a aqueles agentes que não só são um chat ept mas são chat GPT Cloud são llms que navegam no Google Search na na vegam na web se mantém atualizados com as notícias informações ou seja com a capacidade com a inteligência ah atual né E se mantém atual e talvez isso seja o grande diferencial desse mercado que tá nascendo agora eu me chamo Eduardo Rocha e no vídeo de hoje nós vamos trabalhar com um comparativo entre alguns llms desses mais novos Ah e dos mais potentes nós vamos utilizar um software e esse software vai nos permitir desenvolver uma aplicação do zero vamos fazer essa parada do zero e juntos não tem nada pronto a gente vai fazer junto para que você consiga mensurar a o quão potente pode ser você desenvolver uma aplicação do zero utilizando aqui o ferramental que a gente tem em nossas mãos com esses grandes modelos de linguagem que hoje estão aí disponíveis para que a gente faça a os nossos Test testes estamos junto então de antemão você não vai precisar utilizar e a sua API de alguns desses modelos a gente vai simplesmente fazer a comparação vou te mostrar o passo a passo direitinho e até o final desse vídeo você vai ter feito uma aplicação um software e você também vai ter comparado esses dois softwares esses dois modelos Ah no ato de te ajudar nesse desenvolvimento isso é importante porque à medida que você vai desenvol vendo você tem condições de encontrar aquele llm que pode te ajudar de uma forma um pouco mais versátil um pouco mais eficiente e isso é de extrema valia para você no nas suas atividades aí como um expert em a como cientista de dados como analista de dados como entusiasta aí um um Dev que trabalha com inteligência artificial e que precisa trabalhar com inteligência artificial estamos junto Beleza então bora para cima antes de mais nada qual é o software que a gente vai utilizar nós já fizemos um vídeo sobre esse software ele chama cursor tá bom cursor Ah e eu gostaria que você entrasse aí nesse link chamado cursor. com tá bom é o software Ah eu vou deixar um card aqui em cima sobre um vídeo onde eu expliquei como que você pode trabalhar com esse cursor tá bom é um vídeo bem interessante onde a gente foi ali ah do zero para você compreender como que você instala Como que você faz todo o processo de utilização das llms tá bom é esse vídeo aqui ó eu vou abrir ele aqui para você vou deixar um card desse vídeo para que você possa utilizar esse editor aí essa ide tá bom que é o curso ai tá bom eh já Deixa aí esse esse czin para você assistir essa aula depois mais tarde tamos junto Beleza então bora para cima bora fazer essa parada aqui acontecer bem se você ainda não fez o download simples next next finish tá bom vai fazer o download aqui dessa parada e aí depois que você fizer o download você vai fazer algumas configurações iniciais enfim de login essas coisas todas e você vai a baixar o executável né ele vai ficar aqui na sua no seu ambiente de trabalho assim como o vs code Tá bom a gente vai hoje utilizar o cursor ao invés do vs code tá aqui esse carinha beleza vou dar um duplo clique aqui agora a gente vai começar o nosso trabalho com esse cara então a primeira coisa que a gente vai fazer é pensar em um projeto para que a gente possa desenvolver esse projeto né Então deixa eu apagar essa parada aqui vou apagar essa parada aqui vou apagar tudo que tem aqui para que a gente possa simplesmente utilizar aqui o melhor do nosso o melhor né começar do zero essa parada beleza Ah vou fechar aqui agora não salvar não quero salvar vou fechar o terminal pronto tá tudo zeradinho vou até criar uma pastinha nova aqui para que a gente consiga setar essa Pastinha Beleza então o que eu vou fazer é vou abrir uma pasta aqui vou abrir aqui o o um uma área Tá bom eu vou até escolher aqui uma área que tá mais limpa que aquela área ali tá um pouco mais cheio de projetos e vou clicar aqui numa pasta chamada cursor Traço Ai Fechou então vou abrir essa pasta vou copiar o caminho dele aqui e agora a gente vai setar o nosso a nossa pasta aqui dentro do cursor beleza então agora estamos dentro do nosso repositório onde a gente vai salvar a aplicação salvar todos os arquivos e a gente vai começar a fazer o nosso trabalho aqui dentro pelo que você pode perceber a nossa aplicação nosso software Nossa ide quer dizer né nossa ferramenta ela é muito parecida com com o vs code a vs code tem algumas aplicações onde a gente consegue utilizar ali extensões para fazer o que a gente vai fazer aqui só que eu acredito pelo que eu tenho usado e testado que o curso ainda tem uma o curso Ele tá um pouco mais à frente né Ele tá um pouco mais conectado ele nasceu para isso né o ves code tá aqui antes dos llms o cursor nasceu depois que os llms já já estavam aqui então a o seu processo de desenvolvimento já veio considerando a estrutura a a necessidade que os llms têm né então isso faz uma diferença completa né você criou uma ferramenta na era da ia não você se adaptou a ia né então isso faz uma diferença muito grande então vamos lá bem o que que a gente tem aqui né se você for olhar a gente tem alguns recursos que são são tradicionais como você tá vendo né o autocomplete aqui que é que já já existe de fato no vs code a a gente pode fazer a edição né por prompt né do jeito que você tá vendo aqui você vai ver que à medida que a gente for atualizando o nosso prompt ele vai mostrando em verde aquilo que ele substituiu em vermelho aquilo que que a a ou melhor ao contrário né em vermelho aquilo que ele tá alterando e e vai apagar em verz aquilo que ele Manteve né porque a gente vai fazer alterações no código ao longo do processo né e o que eu acho que é o o melhor do curso claro que é a gente vai fazer um chat com o próprio código né então a medida que a gente for necessitando ali de de de iteração com a ia ele já vai eh nos dar a resposta a respeito do código já vai fazer a alteração ao mesmo tempo a gente vai escolher os modelos de linguagem vai fazer a comparação para ver quais deles ali e trazem pra gente ali a melhor performance estamos junto Beleza então bora pra frente primeira coisa vamos criar uma aplicação com ia né Vamos criar uma uma aplicação com ia então ah o que a gente vai fazer é bora bora começar com a nossa conversação né se você der um control é o control F é o Crol L vamos lá Crol L é se você você de um control L você habilita aqui o chat né você D habilita aqui o chat para que você e consiga fazer aí a conversação Deixa eu ver se eu consigo destacar Esse chat eu eu fiz foi expandir né eu consigo expandir E aí ficou aqui em cima da câmera mas deixa eu deixa eu começar a minha a minha conversação aqui com ele né então ó eu vou colocar aqui ó eu gostaria de criar Ah um app ah com ia mais stream leit stream leit para que a gente vai fazendo o teste ali em tempo real Ah você pode me ajudar Dá uma olhada aqui ó a gente tá conversando com o llm com a ia e Qual modelo que a gente tá conversando a gente tá conversando com o cloud 3. 5 sonet aquele que veio bateu na chat pt4 e tal depois o qu veio e criou o om One tal ele também tá disponível aqui ó se eu clicar aqui a gente tem aqui o Omni One o Omni preview e a gente vai fazer ali algumas comparações não vamos fazer com todos mas você vai ver que a gente vai fazer algumas comparações bem interessantes aqui tá bom então Ó tem vários modelos aqui o próprio modelo Ah que tá nomeado como cursor small a gente vai conversar e compreender qual desses aqui traz ali de forma comparativa em tempo real criando uma aplicação qual deles pode nos ajudar tá bom então bora para cima vou continuar com o sonet Tá bom vou continuar com o sonet n Vou colocar aqui ó você pode me ajudar dei o enter e a partir de agora ele vai começar a iterar com a gente né então ele vai habilitando aqui a conversa aí ele fala aqui Claro Ficarei feliz em ajudá-la a criar um aplicativo usando a e a stream leit é uma excelente escolha né aplicativo de web de ciência de dados aprendizado de máquina de forma fácil tal tal tal bora começar com exemplo simples né ele vai utilizar aqui o modelo Bert pré treinado tal tal tal e aí ele traz aqui pra gente né já o o PIP install né que você já pode simplesmente eh habilitar aqui no seu código e o a o código em si utilizando Transformers que inclusive é uma uma uma das bibliotecas mais importantes para você que tá querendo ah trabalhar aqui como ah com aplicações né desenvolver aplicações de A tá bom transformadores é o que há e onde você traz ali grandes modelos que são tão bons quanto esses pagos só que não tem a mesma cidade eu ensino vocês também a encontrarem esses modelos de uma forma muito mais direta tá bom ah vamos lá eu vou dar um apply né vou dar um apply Na verdade eu vou eu vou criar aqui né ele falou assim ó não tem arquivo para para dar um apply Então vou criar um novo arquivo aqui vou dar o nome de app.
py vou dar um Ctrl S Beleza vou salvar ele dentro da nossa pasta e aí a partir de agora ah eu vou cancelar aqui e aí sim eu vou dar o apply Quando eu der o apply e clicar aqui no continue ele vai trazer o código para cá né então você vê que ele trouxe a codificação para cá isso é uma coisa muito massa né ah você vê que ele ele tá conversando com a gente e muitas vezes a gente tinha interação tinha que copiar no chat IPT joga para cá fica aquela coisa assim bem mais eh eh dinâmica a partir de agora né porque você já aceita ali as alterações a medida que você tá desenvolvendo o seu projeto tá bom ele tá vendo uma linha com erro aqui eu vou só apagar essa parada eh vou só aceitar aceito E aí beleza não é porque eu tava aceitando ainda né então ó nosso app agora já tá aqui né Tem uma biblioteca aqui ao invés de rodar essa parada lá eu vou só copiar e vou abrir o nosso terminal então eu vou ali em v e vou abrir o terminal vou criar um ambiente Beleza vou manter aquelas as mesmas práticas Beleza vou abrir aqui vou criar um um um Python Men MV vou abrir criar um ambiente virtual para que a gente possa separar ali as dependências e não ficar com erro né criar a nossa aplicação ah de forma correta já vou procurar aqui e o Activate aqui pra gente fazer essa parada E aí cara uma coisa que é bem interessante Cadê Deixa eu achar aqui né a preguiça de achar um um activate né mais fácil ficar apertando para cima aqui mas vamos lá Pronto activate achou ele deu ruim aqui né que que houve aqui né V scripts activate ele deu achou um um um um um erro aqui tá tudo bem achou um v do né Não era isso né então vamos lá a preguiça né is isso muitas vezes acontecer com você cara não vou negar activate você vai querer economizar E aí enfim é melhor você ir escrevendo perde tempo com essa parada não vamos embora Bora com o básico que o básico funciona muito bem então beleza agora que que eu vou fazer eu vou copiar essas bibliotecas aqui porque a gente tem que instalar essas essas aqui pra gente fazer funcionar né eu vou instalar O tort que é o o Framework e de Deep learning para você rodar essas aplicações isso aqui ele tá Ah sugerindo que a gente utilize aqui um um um modelo né que tá aqui dentro do do que é um modelo um transformador que tá que é a gente vai utilizar aqui com o Framework conhecido como tor né que é o p tort ah a gente vai também utilizar o próprio streamlit e os transformadores né Então tudo isso aqui Framework de Deep learning Ah que é praticamente ali o o o a base para o desenvolvimento desses grandes modelos que você vê aí hoje tá bom precisa saber isso aqui para você compreender como utilizar da melhor forma os llm senão você fica preso refém Só aprende aquilo que é o trivial Só aprende o cloud Só aprende o o GPT Só aprende o llm ou o llm Só aprende o Lhama E por aí vai só que existe uma infinidade e se você trabalha em empresa cara nem sempre todas as empresas vão querer a e desenvolver a sua estrutura a sua a sua aplicação em cima desses modelos proprietários né Por quê Porque cara tudo tem custo né então quanto mais você souber utilizar a o caminho que esses caras também percorreram para criar essas aplicações mais munição mais conhecimento você tem aí para criar aplicações na empresa tá bom esse processo de de instalação de bibliotecas dependendo das bibliotecas demora um pouco bem o que que ele faz aqui né que que ele ele mostra pra gente aqui que ele desenvolve então Ó esse código cria um aplicativo stream Lead simples que carrega um modelo de análise de sentimento pré-treino né então são modelos prét treinados assim como os outros ah cria interface de usuário né com campo de texto pré-entrada A gente vai ver ah quando o usuário clica no botão analisar o aplicativo realiza A análise de sentimento e exibe o resultado aplicativo bem simples só pra gente fazer o teste sugerido por eles se der ruim a gente pede um outro mais simples ou pede um outro mais avançado se ficar muito bobo e a gente vai a nossa aplicação beleza para executar o aplicativo né salve o arquivo PP e Execute o comando no terminal streamlit Run app. py então a gente já tá aqui com o terminal ele tá terminando de instalar eh eu vou perguntar para ele aqui ó Qual foi o modelo que você escolheu bora ver aqui o que que ele vai falar do modelo né Ele já falou aqui em cima se eu não me engano foi um Bert né deixa eu dar uma olhada aqui em cima analisar Cadê ficou para para cá né Deixa eu ver se eu acho aqui deixa eu ver se eu trago para cá não aqui ficou só o ícone é um sentimento analizer cadê o modelo né o modelo nem tá claro aqui né Ah tá aqui ele utilizou um pipeline chamado sentiment analyses né Ele trouxe já um modelo conhecido como sentiment analyses que já tá dentro do pipeline né o o o a biblioteca rugin Face né que é a biblioteca o Hub o Framework responsável pelo desenvolvimento dos transformadores né os transformadores uma classe ali de Deep learning eh Eles foram eh desenvolvido pelo pela galera do rugin Face né rugin Face que fez essa essa parada aqui e ah o rugen Face é uma coleção de especialistas em do mundo inteiro né se você for olhar a biblioteca transformadores Ah ela foi desenvolvida por vários profissionais que eram do Google Inclusive tem um artigo chamado eh o mecanismo da atenção se eu não me engano que foi o grande precursor aí desse avanço da ia quando você olha lá a maioria das pessoas né eram do Google eram profissionais do Google que tava lá tava meio engessado os caras fizeram uma publicação publicação pode fazer qualquer uma né Por mais que ele esteja trabalhando no Google fizeram a publicação e aí tornou público algo que talvez eh eh fosse Talvez uma uma das coisas mais cabulosas Se se isso fica somente na mão do Google moleque hoje o chat PT ser seria do Google né já já parou para pensar então esses caras que eram do Google foram pro ali pro meio acadêmico publicaram os transformadores e hoje os transformadores estão aí hospedados no rugin Face que também é uma Startup aí bilionária que recebeu aporte de várias empresas pelo mundo e que também eh serve aí a comunidade com modelos de Inteligência Artificial Tá bom então Ó bora rodar agora o stream leit Run app. py E aí a gente vai ver a nossa aplicação tá bom bora ver se ele trouxe aqui uma aplicação completinha mesmo se não tem erro ele já abriu aqui e aí a gente tá criando aqui uma uma aplicação de ia sem necessidade de de de aprender e codificação né Assim você com conhecimento básico você tá a consegue criar essas aplicações aqui Seguindo aqui o pipeline que a gente tá tendo até agora abrir um um software e escrever ali uma codificação seguir a orientação isso é muito importante is aqui vai ser Ah vai ser talvez o diferencial para você avançar é você ter essa Skill de de querer desenvolver projetos de ser curioso de ser ah antenado tá bom ah inclusive cara você ser antenado Talvez seja uma das principais características Porque tudo que tá acontecendo graças a essa galera que foi lá e publicou da forma como publicou a esses transformadores hoje ah você tem condições alguns vídeos anteriores aí você viu o que eu mostrei para você por exemplo ypson combinator que é um Hub de startups principalmente de Inteligência Artificial que tão aí pelo mundo criando aplicações E você tem acesso aí em tempo real a essa galera beleza então ó tá aqui a nossa aplicação Eles criaram uma aplicação simples análise de sentimento com ia Digite o texto para analisar o sentimento né então vamos lá deixa eu escrever alguma coisa aqui né Eh acredito que o Brasil está eh numa situação eh preocupante pois eh políticos políticos eh brigam pelo poder e etc Então vamos enfim vamos colocar qualquer coisa aqui né só só só aproveitar o o o cenário atual da nossa política que estamos vivendo agora aqui em 2024 né e vou clicar aqui para analisar E aí ele vai e soltou aqui pra gente né Ó o sentimento classificou o sentimento da aplicação né sentimento negativo confiança de 97% Então beleza ótimo criamos uma aplicação aqui quando você olha por trás né dessa parada toda eu gostaria que você tivesse sempre um pensamento de Business tá bom Inclusive eu foco muito no Business no nos projetos que eu trago aqui para vocês porque é isso que vai fazer a diferença né quando você tá dentro de uma empresa e você vê uma aplicação prática dessa parada no negó negócio da empresa num Case que você precisa resolver e isso te torna muito valioso né e acho que o grande que disso tudo aqui é você se tornar valioso né o meu grande compromisso contigo aqui é trazer conteúdo para que você aprenda mais e para que você evolua para que você aprenda cada vez mais e se desenvolva por quê Porque aí você vai ser mais eh avaliado vai ser melhor avaliado você vai ter um salário melhor você vai poder ajudar sua família você vai poder já vai poder cuidar curtir dos seus filhos enfim toda aquela aquele ciclo de coisas boas podem acontecer então cara utiliza isso aqui pensa em como você pode utilizar isso aqui para ajudar a empresa cara a gente acabou de criar um pipeline onde o reconhecimento textual ah Apresenta pra gente aqui uma uma característica geral do contexto né e Imagina aí a sua empresa quantas notas técnicas existem quantas Eh quantos quantas apresentações são envolvidas quantas reuniões Quantas coisas são desenvolvidas e que cara muitas vezes você precisa entender Qual é o tom do que tá acontecendo né Principalmente pro board pro estratégico né que que tá acontecendo o que que a galera tá que que a nossa empresa tá passando Qual o momento que a nossa empresa tá passando a maior parte das coisas que a gente tá fazendo é apagar apagar incêndio ou é criar coisas novas né E como que eu posso ter ver isso de uma forma um pouco mais genérica dado que sei lá por dia e a gente Analisa sei lá centenas de notas técnicas Ou seja que são eh decisões que são tomadas aqui no bord estratégico da minha empresa não sabe então tá aqui a ia ela tem condições de pegar aí todo esse conteúdo em texto e ser eh um o o dado de entrada o input para que você tenha aí uma análise de uma forma mais genérica mas que cara com um percentual de confiança bem elevado você pode sentir aí o drama de como é que tá essa parada toda isso aqui nasceu Como nasceu da necessidade de se varrer o stream de dados que acontece na timeline das redes sociais principalmente essas redes sociais como Twitter e Red it que são ali paraa pessoa ir lá e manifestar mesmo o que tá acontecendo né Então você vai lá xinga o político fala xinga o outro que é vermelho o outro que é azul e aquela coisa toda E aí cara como é que tá sua marca envolvida nisso né o pessoal tá com a sensação boa ou ruim da sua marca boa ruim do seu do seu Ahã político enfim e aí tem um contexto geral de se analisar muitos dados para ter um uma nota e isso é muito importante tá bom beleza acho que você entendeu você é muito inteligente Bora paraa frente porque a gente tem muita coisa para fazer então ótimo voltamos aqui pro cursor a nossa aplicação já tá rodando só que é o seguinte eu usei o cloud certo nós estamos aqui ó usando o cloud nós estamos usando o cloud agora eu quero mudar essa essa parada tá bom Vou fazer alguns testes eu vou mudar pro GPT 4 normal tá bom vou mudar pro GPT 4 normal vou perguntar para ele aqui ó você eh sabe do contexto do que a gente está fazendo antes de mais nada eu vou agora dar um eu vou apagar isso aqui a gente vai fazer essa pergunta mas só para você ver que realmente ele troca de modelo Tá bom vou perguntar para ele aqui ó eu vou de devolver pro Cloud né vou devolver pro Cloud e vou perguntar aqui ó ah Qual modelo você é né vamos ver o que que ele vai responder aqui ó ah ele tá indo aqui ó eu sou o Cláudio modelo de linguagem Inteligência Artificial criado pela antropic né especialmente sua versão 3.
5 sonet né não sou um modelo específico de análise sentimento eu sou um assistente de a de proposto geral e blá blá blá Beleza então ó ele sabe quem ele é agora eu vou trocar eu vou pro GPT 4 Tá bom então eu vou perguntar de novo ó Ah você sabe que modelo você é então vamos lá vamos ver o que que ele vai responder agora né então ele tá fazendo aqui uma atualização ele como ele pega o contexto e a gente trocou modelo ele colocou aqui ó Peço desculpa pela confusão anterior Na verdade eu sou modelo baseado na arquitetura GPT 4 desenvolvido pela Open a acho que eles depois vão precisar trabalhar o curso para entender que eu mudei de modelo né e não que e não que agora ele ficou confuso e agora ele não sabe quem ele é né porque a galera que desenvolveu o curso né não não pensou nessa nessa parada né talvez fica aí a sugestão a galera do curso atualiza essa parada para ele entender que saiu um personagem e entrou outro né então agora não é mais o cloud que tá fazendo né mas mesmo assim a gente vai perguntar você sabe o contexto do que a gente tá fazendo agora sim eu vou dar um enter E aí ele vai fazer aí a sua iteração beleza ele vai falar assim ó sim estou acompanhando o contexto da conversa estamos discutindo a criação de um aplicativo web usando stream leit que incorpora um modelo de ia para análise de sentimento eu forneci um exemplo de código que utiliza a biblioteca Transformers para carregar um modelo prét treinado e blá blá blá então Ó você vê que ele recuperou o contexto apesar da gente trocar de modelo e isso é muito bom né então vou pedir para ele assim ó e gostaria que você alterasse alterasse o app o app E sugerisse algo mais efetivo mais veloz Talvez né porque não sei se você lembra mas o nosso demorou um pouquinho ali a carregar né Então bora ver se o modelo GPT 4 agora vai melhorar Realmente o modelo o modelo que a gente tá utilizando aqui que é o cloud 3. 5 o sonet Né isso é muito importante para que você saiba Qual é o pipeline que você vai utilizar né então pô beleza O O ele trouxe para mim uma solução eu olho aqui pra solução e vejo pô beleza Eh ele né fez uma um contexto legal usou um pipeline de análise de sentimento legal ah mas talvez Demorou a carregar Ou demorou a fazer a análise e me dar o resultado tudo isso é muito importante né e não só a a precisão não só a velocidade mas todo o contexto e aqui você tem a chance de fazer esse Test né então beleza aí ele fala assim ó então para melhorar a eficiência e a velocidade do seu aplicativo Ah podemos considerar algumas abordagens Então vamos lá o modelo mais leve então ele vai usar o modelo mais leve de inferência rápida cash de resultado para evitar a recuperação de resultado de entrada repetida assíncrono ou seja o se o aplicativo for usado por muitos usuários considerar um processamento assíncrono E aí ele vai a aplicar aqui né algumas alterações eu simplesmente vou dar um Play e a gente vai fazer então o que que ele fez aqui né cash de resultado modelo leve utilizou um outro modelo não saiu do pipeline né tá indo pro dis Bert vamos ver aqui se ele ó ele trocou aqui né trocou aqui um get stim analy o modelo distilbert base a fine tuned english bora ver se ele vai compreender direitinho né dado que a gente fez eu vou até perguntar aqui ó eh nossas iterações são e em português br e isso vai funcionar de boa vamos ver o que que ele vai falar né Ó o modelo que estamos usando tal tal tal é treinado para inglês para t em português é melhor usar o modelo com suporte então a gente pode utilizar o modelo multiling e tal toal tal vou ajustar então ele já trocou não tá usando mais o distilbert continua ali no sentiment anal mas ele vai utilizar o nlp Town ber base multilingual Tá bom então agora ele trocou que que eu vou fazer simplesmente dar um apply Tá bom vou dar um apply você vê aqui que ó de vermelhinho o que ele tá trocando lembra que a gente estava utilizando só o pipeline puro né e agora a gente não vai utilizar o pipeline puro a gente vai utilizar agora esse nlp Bert é multilingual que tá aqui né Bora ver o que que ele vai fazer agora vou clicar aqui em accept cliquei em accept E aí ele já trocou essa parada aqui pra gente agora eu tô só com o nlp Town que é o ber mul ual então ótimo agora que que eu vou fazer vou dar um c control s para salvar essa parada e vou ah dar um F5 aqui na nossa aplicação para ver se ficou tudo direitinho Se eh vai dar bom né porque ele trouxe algumas dependências aqui né Eu não sei se Ah tem aqui ó umas funk Tools né funções aqui de umas uma biblioteca de funções eu não sei se ela tá aqui no ambiente default ou se a gente precisa instalar né vou até perguntar tá para ele aqui ó ah isso precisa ser instalado via PIP vamos ver o que que ele vai falar né Eu acredito que não mas vamos ver deixa eu ver se vai dar erro ó esse aqui né apesar de tudo tá demorando que nem o outro né o outro também demorou um pouco a carregar apesar da resposta ter sido rápida Ah ele falou que não beleza ó faz parte do padrão Python né como era de se esperar o modelo funk Tools já tá já é aqui que na hora que você instala a biblioteca ela já tá praticamente fazendo aqui o o a instalação dessas atualizações tá bom ah já tá para abrir abriu aqui o sentimento e análise né então vamos lá vamos vamos utilizar um texto qualquer aqui também beleza acredito que nosso país Ah terá uma safra de pessoas de bem e que estão preocupadas com valores como integridade família paz e etc bora ver aqui vamos clicar na analise bora ver que que esse cara vai falar aqui agora já demorou um pouco mais a resposta você vê né Então olha só ele trouxe aqui um sentimento de confiança beleza um sentimento for Stars né que é um sentimento de confiança Ah não um sentimento de confiança não né um sentimento quatro estrelas que cara Sinceramente não sei é quatro de 10 né Quatro de 15 né então eu vou perguntar aqui pro cara né ó vamos ver aqui né e a confiança foi baixa né então assim ele sugeri um modelo né Voltei pro GPT 4 ele sugeri um modelo que cara não foi lá essas coisas né confiança do Cloud foi muito maior nesse caso né então vamos vamos vou perguntar para ele aqui ó vamos deixar ele dar resposta né então vamos ver aqui ó ah como você avalia a resposta do modelo sugerido sugerido ó sugerido dado que a sentença foi aí vou colocar a sentença que eu coloquei aqui também né porque a gente tá usando o GT4 Omni e ele trouxe pra gente um outro modelo que a gente tá testando na nossa aplicação né a gente não tá nem usando o próprio GPT 4 Omni né A gente só quer testar o modelo GPT 4 em nos ajudar a desenvolver aplicações comparado com o cloud né então vamos lá vou dar um enter vamos ver o que que ele vai falar então ó ele vai falar a resposta do modelo sugere que o sentimento desses quatro est com conf Bora analisar o modelo tá classificando o texto como predominantemente Positivo já que quatro aí sim agora tá claro quatro de cinco né então beleza né não mais positivo que seria cinco estrelas mas beleza né então a só que a confiança 27 é relativamente baixo indicando que o modelo não tá muito seguro sobre a classificação em geral uma confiança mais alas seria desejável para ter mais certeza da precisão da classificação Então vamos lá avaliação a positividade Beleza quanto a positividade apropriada né dado que eu fiz uma tive um sentimento positivo agora baixa confiança que ficou ruim né o modelo não tá totalmente certo sobre a classificação né então melhorias possíveis né o modelo específico para português dado que a gente usou um modelo multilingual né então talvez o modelo treinado só para português seja melhor ajuste de Hiper parâmetro né esse Isso aqui é uma coisa que eu bato muito forte no processamento ali ah das aplicações que a gente cria porque isso aqui é como se você tivesse cara e e turnando o motor do carro né você tá fazendo o carro ir mais rápido você tá fazendo o carro ser um pouco mais veloz você tá fazendo o carro utilizar os melhores óleos né então cara você tá fazendo um ajuste o resultado será melhor então ajuste de Hiper parâmetro é isso que acontece Ah isso é muito importante dentro ali da biblioteca dos transformadores e na final de contas dentro do processo de machine learning em si isso é uma coisa muito importante tá bom análise manual né para texto crítico análise manual pode complementar né aqui ele tá sugerindo fazer aquele Human input né da gente colocar uma interação humano para eh talvez fazer um ajuste fino no modelo e por aí vai né então ó se você tiver interessado em explorar modelos mais adequados eu tô por aqui né então pô isso é importante Então cara nós temos aqui uma safra de modelos né eu vou fazer mais um teste aqui pra gente eh concluir a nossa a nossa análise aqui né dado que até agora a gente tá vendo que o cloud Talvez seja um pouco mais efetivo né em sugeri um modelo que talvez seja melhor mais veloz do que o GT4 Claro fazendo uma comparação simples aqui só para tornar a nossa nosso vídeo mais dinâmico mas eu quero fazer uma última uma última um último teste aqui que eu acho que vai ser interessante para você Nós escolhemos aqui a o curso small Beleza então ó um dos modelos tá aqui ó cursor small quero saber que modelo é esse é o modelo proprietário né o próprio cursor que fez esse modelo é um modelo que tá na própria biblioteca do regen Face é um modelo Open Qual é esse modelo né então a gente viu que trocando de modelo ele reconhece quem ele é né então agora a gente vai descobrir quem ele é né que modelo é você né então vamos ver o que que ele vai responder aqui pra gente eu tô trazendo isso aqui porque olha só que massa ele vai falar assim ó eu sou um modelo baseada na arquitetura GPT 4 desenvolvido pela Open Ai sou projetado para entender gerar Ou seja que modelo é esse GPT 4 né mas você é o cursor como é que é curso small não né tipo assim né o seu curso small não né então peço desculpa Na verdade eu sou modelo de linguagem da série GPT 4 mas não sou especificamente identificado como curso small ou seja mais uma brecha que a gente encontrou aqui na aplicação né os caras colocaram como modelo próprio da da do próprio curso mas o que que a gente tá vendo aqui é que o modelo é o próprio GPT 4 né então a gente tá vendo aqui é você é o mini ou somente GPT 4 bora ver aqui né se se a gente tem um detalhe um pouco melhor né Então essa modelo não sou especificamente como mini ou qualquer outra variação interessante né eu vou trocar aqui agora só para ver se o mini se identifica como o mini né vou perguntar agora que modelo você é né trocamos aqui bora ver se o Mini se reconhece como mini né então Ó eu sou um modelo eh de linguagem baseado desenvolvido pelo opena e tal tal tal Ah vou perguntar Ó mas você é o GPT 4 GPT 4 ã mini vamos ver se ele também vai se identificar né desculpe Sim eu sou uma versão do GPT 4 especificamente a versão min Então veja né ah ou de fato todas as outras aplicações é ah é o que a gente pergunta n na verdade a gente viu que não porque ele fala né claramente né ah quando a gente troca ele fala quem ele é né vou posso até perar você é o cloud né vamos ver se ele vai falar se ele é o cloud ou não né que então então ele fala não não não sou Claudio eu sou modelo de linguagem da openi baseado na arquitetura GPT 4 ou seja né os caras colocaram o cursor small como GPT 4 ou o contrário né eles colocaram lá o GPT 4 para dizer que é o curso small mas na verdade eles utilizaram ali a própria interface da openi para fazer a aplicação bem é isso o vídeo de hoje eu espero que você tenha gostado eu queria só fazer mais um convite para você antes de você fechar esse vídeo nós estamos aqui na fase de preparação para o evento ai Experience cujo objetivo é acelerar sua carreira para você conquistar as melhores oportunidades criando soluções de ia especificamente aqui no open no I Experience nós vamos criar agentes de Ea com crei Machine Deep learning e llms que navegam na web Ou seja a gente vai criar aplicações que são atualizadas e informadas nesse evento Então se você não tá inscrito ainda ciênci doos dados.