atualizações do crui atualizações bacana que o João fez aí João Moura nosso amigo aí na crui e olha ficou bem mais leve só que algumas pessoas têm reportado alguns erros e a gente vai consertar com você aqui agora nesse vídeo [Música] beleza Oi tudo bem Eu sou sandeco sou professor e pesquisador pelo Instituto Universidade Federal de Goiás Além disso eu sou embaixador da Campus paro Goiás e meu objetivo aqui nesse vídeo é fazer você usar agentes inteligentes no seu dia a dia antes de qualquer coisa eu queria falar sobre os nossos grupos temáticos no WhatsApp
né tudo sobre a são 14 grupos temáticos aí mais de 8.500 profissionais de várias áreas do conhecimento falando sobre inteligência artificial O link tá aqui na descrição basta você clicar entrar você é meu convidado será muito bom ter você lá tá bom muito bem O João fez uma grande atualização no Crew aí né e a versão 0671 eu tinha colocado 0670 mas alterei pode ver que no início do vídeo tá errado eu sou eu me entrego T aí né mas essa atualização ficou bacana porque aconteceu o João tirou o leng Chin da jogada Tá certo
questão é que o leng Chin é uma ferramenta Claro tem seu lugar fantástica mas se tornou muito pesada então Segundo João essa atualização excluiu algo em torno de 1 milhão e meio de linhas de programação do Creu ai eh dessa versão nova que fez com que ele ficasse mais leve Tá certo e ficou uma coisa mais direta em relação a principalmente à conexão com as novas llm usando um novo uma nova biblioteca chamada llm Lite né que realmente é muito boa e muito Light digamos assim muito boa eu quero mostrar para vocês aí a diferença
né de código como é que fica e também tem uma dica no final um plus digamos assim um melhoramento do melhoramento né não quero ó pretensão de sandeco aqui em relação ao a biblioteca do João mas eu acho que tem uma forma melhor de Poder chamar as llms encapsulando melhor a classe de conexão do João beleza aqui você tem duas formas eu vou mostrar as duas formas como que agora você conecta com seu a sua llm usando essa versão 67.1 né bom antigamente O que que você tinha que fazer você tinha que usar o l
chain Open Eye né com esse chat Open Eye aqui ó para poder você você conectar com o seu com a sua llm usando no agente veja que eu tenho que fazer o carregamento aqui do da minha chave que tá dentro do Dot Envy né meus alunos aí sabem muito bem como é que funciona isso quem participou da mentoria gratuita e tem o livro de crei e e depois você tem que pegar essa chave né e carregar essa chave usando exatamente o l chain certo aqui ó lin aí você cria uma variável né chamada llm e
depois você vai colocar essa llm aqui nos agentes por exemplo eu tenho um agente aqui pesquisador tá E esse agente pesquisador aqui vai receber essa llm específica que nesse caso aqui é o GPT 4 ou mini certo então assim e isso aqui usando o l chain ele é desaconselhável você fazer isso agora agora o que acontece eu vou simplesmente arrancar isso aqui ó vou arrancar tudo isso aqui para simplificar mais e deixar mais leve usando estrutura do João tá então primeira coisa que eu tenho que fazer aqui é importar uma classe chamada llm tá que
é interna uma classe interna da Crew ai então agora não precisa mais você usar essa L chain aqui primeira coisa o pessoal Pergunta assim eu não tenho eu não uso mais o l chain no no no cre e se eu tiver alguns algumas ferramentas né algumas Tools que eu uso do leng chain junto com crei eu perdi isso Claro que não né então você não precisa se preocupar com isso né basta agora fazer o seguinte ó você alterar aqui para llm ó porque agora você vai acessar a classe do João eu não preciso mais passar
a minha chave porque agora a classe aqui vai carregar de forma eh bem intuitiva né Essa essa chave da Open que eu não preciso passar mais que a classe anterior tinha esse problema e agora veja eu eu não alterei nada do meu agente tá vendo ó tá lá LM do mesmo jeito então esse aqui é a forma correta né de você agora é é a forma que ele recomenda você usar né carregar o seu o seu a sua llm vamos rodar aqui ó vou salvar eu tô no vs code vamos salvar aqui vamos rodar muito
bem estamos rodando aqui você veja que ele vai fazer a pesquisa né é o agente vai fazer a pesquisa e vai escrever outro a gente vai escrever exatamente um texto pra gente baseado num tema eu não sei nem que tema que é esse Inteligência Artificial blá blá blá blá blá blá alguma coisa assim veja que o pesquisador já tá pesquisando veja que tá funcionando normalmente tá bom ok agora o que acontece é que eu acho que existe uma forma de melhorar ainda mais isso aqui porque veja o seguinte ó veja que eu tive que escrever
o meu llm aqui mas de qualquer forma eu tenho que sempre escrever o texto né Essa string aqui isso na engenharia do software de certa forma é toda vez que você precisa usar uma string de configuração isso é tendenciosamente ao erro isso vai ao erro certo então o que que eu fiz eu criei uma classe minha chamada my llm certo que usa né importa aqui a llm do João da crei tá bom e aí o o que aconteceu eu cria algumas variáveis tá a gente chama isso aqui de variáveis estáticas tá E e aí ó
eu passei exatamente a mesma configuração né que o da llm aqui do cayi Ó certo aqui em cima tá saneco qual é a vantagem disso vou já mostrar para vocês a primeira vantagem é que você basta configurar em um ponto só a sua llm que é baseado nessa string aqui você fez uma vez só funcionou está dando certo eh basta você usar como é que eu faço para usar Esso aqui então aí beleza agora ao invés de eu importar a biblioteca do João eu vou importar a minha biblioteca Então vamos lá chome certo e aqui
vai tá acho que é canal sandeco isso então aqui ó canal sandec P my LM Import my LM beleza e agora o que eu vou fazer eu vou fazer isso aqui ó em vez de colocar isso aqui aqui eu vou colocar ó é my llm né my my llm certo ponto aí eu digo qual é llm mas você veja que aqui ó é algo que você ele sugere Quais são as llms que eu ativei no meu projeto tá vendo Então eu eu não preciso me preocupar escrever exatamente a stream como ela é porque eu já
escrevi na minha classe então eu posso usar aqui ó a última versão que é a versão mais barata mais barata do GPT que é essa do dia 6/08 de2022 tá bom então assim fica mais interessante porque o que acontece vamos supor que você tá trabalhando lá com com GPT 4 aqui né e de repente alguma coisa muda lá o que que você faz você simplesmente muda aqui entendeu E aí isso reflete no projeto inteiro eu recomendo usar dessa forma porque você não precisa se preocupar você não precisa se preocupar de forma alguma eh se vai
haver mudanças entendeu você meio que desacopla essa que a ideia da orientação objeto né você desacopla o o problema do seu código então pode mudar a forma de conectar né o cru pode mudar do jeito que ele quiser lá o João pode mudar do jeito que quiser basta eu vir nessa classe aqui altera né A forma como conectar E aí eu não preciso nem alterar mais meu código porque vai ser sempre assim sempre nunca mais vai ser alterado isso aqui tá bom isso é uma coisa muito bacana porque eh faz com que você tenha um
ganho muito grande Né Mandei executar aqui agora com minha llm você veja tá funcionando exatamente igual com o GPT 4 mini né então assim e eu só qu quer dizer eu só desacople né a classe A classe fez um desacoplamento em relação à estrutura de como se busca uma llm do Crew Ai que fica muito menos propenso a erro né quando você deixa a pessoa né o programador e ele escreveu o tempo inteiro Strings de configuração estão propensão a erro muito grande então dessa forma aqui fica muito mais limpinho o código e menos propenso a
erro e mais desacoplado beleza Olha só não terminou não eu vou deixar aqui com vocês uma lista né uma lista aqui uma playlist de vídeos sobre o Crew ai você vai aprender cada vez mais a criar agentes inteligentes no seu dia a dia automatizando os seus problemas a os seus processos muito bem é isso eu espero que você tenha gostado desse vídeo Um grande abraço para você e até a próxima