Olá pessoal tudo joia aqui Luiz nesse vídeo eu vou mostrar para vocês o novo recurso que saiu no n hoje que é o suporte aeng chain para quem vai utilizar aí Open ai para quem vai utilizar algum tipo de ai para montar bot para montar algum sistema aí de conversação algum sistema de helpdesk de suporte uma implementação pessoal fantástica fica até o final do vídeo porque eu vou eu vou mostrar para vocês o que que é o l chain e vou mostrar dois exemplos práticos aqui de funcionamento do L chain Então assiste o vídeo até
o final pessoal e não deixe também de dar um like no vídeo se você gostou ajuda muito a promov web a crescer aqui no YouTube tá e comenta pessoal comenta o que que vocês acharam desses recursos aí Tá bom então fica até o final que eu tenho certeza que vocês vão adorar esses recursos aí que saíram hoje do nhn com relação ao leng chain pessoal então o anin lançou esse recurso Fantástico aí de de essa implementação do L chain e hoje de manhã ele lançou uma newsletter anunciando esse novo recurso aqui tá Então oficialmente Ele
publicou aqui no no product Hunt né para você poder fazer um upvt aqui faça o upvt para poder suportar o projeto ele ser mais mais visto né o produo hun é o lugar onde você encontra ferramentas boas boas ferramentas novas ferramentas lançamentos etc né então aqui teve né o Jan que é o fundador né ele colocou aqui a a o ponto dele falou sobre o leng chain né que tá todo mundo montando aí o llm né que são os os os modelos próprios customizados por exemplo aí então legal pessoal porque é uma visão que o
nhn tá tendo do Futuro isso aqui é interessante observar né muita gente usa o NN junto com outros sistemas né então agora ficou não ficou tudo embutido dentro dele você não depende de outros sistemas para poder utilizar aí esses esses modelos aí de leng chain né Então pessoal basicamente o que ele fez aqui foi implementar esse projeto que é o lchin Né que é composto pessoal por uma série de componentes que eles intitulam de blocos esses blocos pessoal eles compõem partes que você usaria e que você teria que implementar normalmente ali no ntn né então
por exemplo os models que é uma integração com Open ai por exemplo ou algum outro tipo de Model test Splitter e output parcer é para cuidar de como que a informação entra no modelo e como que a informação sai do modelo para você ter um texto mais natural para você poder enviar ali paraos seus usuários né tem essa questão aqui ó do Vector Store e document Loader que é muito importante que é você poder armazenar o seu banco de dados de vetores para que os modelos utilizem então é legal pessoal porque muita gente quer colocar
a própria base de conhecimento ali então você tem um sistema você tem um SAS Você trabalha com algum tipo de expert em algum assunto você pode pegar todo o conteúdo dele tudo que é texto que ele tiver e col colocar nesses document loader para ser armazenado como vetor E aí na hora que você for consultar a o bot né ele vai consultar não só o open ai por exemplo mas também o seu banco de dados de Vetor né isso aí dá uma customização enorme pros PR para sistemas né então eu achei muito legal pessoal o
lchin ele é um projeto pce também né então vou deixar o link aqui para vocês também do repositório dele e recomendo pessoal que vocês acessem o leng chain eh conheçam ele ou qual que a proposta dele se você trabalha com bot você tem que conhecer o l chain pessoal você tem que estar por dentro da visão do L chain de como seria esse Framework para que você possa montar Bots conversacionais né E lembrando pessoal o que o nhn fez não foi Reinventar a roda ele pegou uma ferramenta que é do mercado que tá todo mundo
utilizando tá no Hype Total essa ferramenta aí e ele trouxe nativo para dentro da ferramenta olha a visão dos caras como que é legal aí em relação a a a essa questão do do aí né muita gente usa eu uso também aqui aí para uma série de de recursos né eu que trabalho com produção de conteúdo com análise de conteúdo tudo uso muito né tô muito feliz de ter o o link chain dessa maneira dentro do lchin tá Pessoal lembrando que é uma versão Beta aind que vocês vão ver aqui pode ser modificado Acredito eu
que tá bem estável já então eu tenho que falar que pode ser modificado porque é Beta né mas eu acredito que vai vai ser isso daqui mesmo que que vai ser lançado E com o tempo eles vão implementando mais recursos aí mas fica até o final do vídeo víde para que vocês vejam esses recursos fantásticos aí pessoal então aqui pessoal eu vou começar com o primeiro exemplo para vocês super simples usando aqui e um exemplo bobo mesmo que realmente simples né Ó então eu tenho aqui um input E aí pode ser o seu input um
web Hook O que você fizer aí né aonde eu vou fazer uma pergunta posso enviar e-mails com otic n então otic é um sistema de envio de e-mail o chat de GPT né Open aí já conhece o mtic ISO tá lá no banco de dados dele lá né ó Então posso vir aqui ó e passar para ele um prompt só o que acontece Pessoal esse meu input ele vai ser adicionado num agente Então se você for olhar aqui na implementação do lchin ele tá aqui como Advanced ai e aqui dentro você vai ter um componente
que é o agente né que é ess que eu eu tô usando aqui né Ó então ele é um agente de conversação você pode rodar código por ele você pode fazer pesquisa em banco de dados utilizar ele para poder dar um sumário para você das informações pessoal explora isso daqui vai ser Fantástico é importante pessoal que eu vou começar agora na promo web lá no nosso discord um canal também ali sobre leng chain né pra gente poder discutir isso aí quem quiser utilizar essas ferramentas aí para poder montar os próprios Bots se você não é
membro entra na promovo pessoal a gente oferece para vocês conteúdo para que você aprenda para que você domine para que você Se liberte e de dependências de outras pessoas de outros de vídeos de ficar dependendo de assistir um vídeo no YouTube de um tutorial para você poder fazer alguma coisa a coisa quebra e você não sabe arrumar ali pessoal tem o curso de instalação e configuração eu pego desde o começo Como que você escolhe o servidor Como que você instala essas questões aqui que a gente vai utilizar né A maioria que tem aqui que é
open search eu vou colocar no instalador eu vou colocar no curso docker também para que você possa ter controle pessoal então se você não é aluna promov web é a hora de você ser aluno e se você tá assistindo esse vídeo e é Aluno por favor põe no comentário aqui qual que é a sua experiência com a plataforma PR as pessoas poderem ver ali tá bom então aqui pessoal ó esse agente ele precisa de um modelo então tá aqui o meu modelo do Open a eu tenho aqui uma conta eu vou usar aqui o GPT
3.5 Turbo por ele ser mais rápido né para poder o vídeo ficar mais dinâmico ele tem que ter pessoal uma memória essa memória aqui pessoal serve para dar contexto pro bot então conforme você vai conversando com o bot as pessoas vão a pessoa vai enviando informação ele vai fazen não esse log de conversa na memória dele toda vez que ele for enviar mensagem pro GPT ele vai contextualizar o GPT com essa memória Então pessoal isso aqui é fantástico como que funciona tem que passar uma chave para ele né então vou passar aqui imagina que é
uma conversa de WhatsApp a chave poderia ser o número do telefone da pessoa por exemplo um atendimento o número do ticket enfim né Você pode inclusive por ser um banco Heads Olha que legal pessoal ele tá usando Heads aqui já tem o Heads instalado né se você fez o nosso curso aqui ou se você instalador tem lá o vídeo mostrando como é que você configura o Heads né ó Então você já tem aqui o Heads instalado nesse caso aqui pessoal eu tô usando só ferramentas externas você não precisa estalar nada no seu servidor por ainda
daqui a pouco eu vou mostrar como é que você pode ter muito mais recurso que o Heads ainda eu já gostei do Heads vocês vão ficar maluco com o outro que tem aqui então pessoal ele vai armazenar esse histórico aqui então olha só quando eu rodar esse workflow ele vai vir aqui o MK O MK posso enviar e-mails pelo MK eu passei isso aqui pro meu agente eu coloquei um pouquinho a mais para ele escrever em português porque por padrão ele vai sempre escrever em inglês né então eu tô fazendo a pergunta que a pessoa
fez e pedi para ele escrever e em português do Brasil né para não vir um português de Portugal ali ó e ele respondeu sim você pode enviar e-mails pelo MK Beleza o que que mudo aqui pessoal tá aqui na memória agora ele vai colocar aqui na memória essa pergunta quando vier a próxima pergunta eu vou mudar o contexto Então vou vir aqui ó vou falar o seguinte para ele Posso usar qualquer smtp pessoal essa pergunta aqui é muito genérica né então ele poderia responder qualquer coisa só que como eu falei de MK na primeira posso
enviar e-mails com MK ele salvou na memória do RS e agora essa segunda mensagem que ele vai enviar pro GPT ele vai enviar também com o contexto da primeira mensagem e da resposta dele tanto a questão do user quanto do System né O que que eu perguntei o que que ele respondeu E aí agora o gente vai saber para utilizar o MK para envid mail você precisa você pode utilizar qualquer servidor smpt então então assim ele sabe que eu tava falando MK antes por quê Porque tava na memória e a memória enviou essa informação aqui
ó lá pro GPT como contexto isso aqui pessoal ó simples Super Simples você pode pegar hoje e para para rodar isso daqui não tem nada de complexo não tem nenhum conceito novo que você tem que aprender aqui então você usa um agente que vai salvar o log da memória na memória que você vai poder passar uma chave para ele para que cada usuário seu tenha o seu a sua memória ali você pode definir um valor zero aqui no sessão para que nunca expire essa memória então enquanto tiver de pé o seu RS tá de pé
a memória aqui do chat né ou você pode colocar um tempo n Depois de 5 minutos depois de 1 hora insira aí essa memória para liberar o meu Heads e é o GPT que vai trabalhar com tudo né Então pessoal isso daqui ó super simples super fácil eu acho que só essa implementação aqui ó já vale a pena de testar aí essa questão aí do do Lang chain do do nhn e aqui pessoal nesse segundo exemplo o negócio fica mais legal ainda tá eu vou até mudar aqui pro cantinho vou ficar no outro cantinho aqui
ó Então olha só a gente vai ter aqui esse cara eu vou remover aqui essa conexão que tava indo lá pro nosso primeiro exemplo vou falar para vocês agora esse segundo esse link esse esse template aqui ó é o que o ntn chama de Kia pergunta e resposta então você vai o que que eu vou fazer aqui pessoal eu posso montar um banco de dados meu de informações que eu quero que o que o sistema utilize como base Então imagina pessoal que você vai trabalhar com uma nutricionista cada nutricionista quem já foi que nutricionista sabe
cada um tem um discurso né E você vai se adequando até que você acha H que você gosta então é legal pessoal porque você você Ela poderia oferecer um chat através aí do do WhatsApp dela do Type bot dela né E esse cara aqui responder as perguntas de acordo com as informações que ela me passou é claro que o GPT sabe muita coisa mas tem a visão dela ela quer falar Luiz eu quero que impere a minha visão o que ele perguntar ali e não tiver no meu banco de dados aí sim eu quero que
o GPT responda com o banco dele então aqui pessoal se eu fizer uma pergunta simples ó vou vir aqui eu vou perguntar ó Quanto custa a promova web até aqui tudo bem né pessoal então vou vir aqui ó vou perguntar quanto custa promovo weeb Olha a resposta dele ele rodou aqui já vou explicar para vocês aqui tudo né ó eu não tenho informações sobre o curso da promovo weeb porque a promovo weeb surgiu recentemente então o o GPT ele é mais antigo né então ele não me conhece ele não sabe nada da promov web só
que olha o que que olha o que que eu rodei aqui ó eu preciso de um Model então eu tô usando o chat GPT aqui como Model e qual que o que que é legal aqui pessoal Luiz mas eu vou ter que pagar para usar sim mas aqui na NN ele também implementou pessoal aqui nos models Advance dai order a nodes você vai achar aqui ó language models aqui tem todos os modelos são compatíveis tem o Google tem o corrier tem o antropic tem o rugen Face e tem esse cara aqui ó que é o
olama o olama pessoal também é um projeto Open sece então ele é um ele é um Model eh Open sce ó lá você pode rodar qualquer um um llm né um um large language Model localmente então aqui no aqui na promov web eu vou colocar ali ele no no instalador também vou fazer uma aula do curso de docker para que vocês instalem ele no seu servidor Mas você poderia utilizar ele para poder consultar o seu banco e não o GPT E aí você não teria custo de fazer isso daí mas mesmo assim ó eu vou
usar o GPT aqui porque eu acho ele mais poderoso e eu quero ter isso daí mas entenda que você tem opção agora tá você não tá mais fadado ao GPT o ntn trouxe para você uma opção de utilizar o olama uma implementação fantástica n do aqui do NN e Olha só pessoal chegou aqui a pergunta que que ele fez né ó ele tem aqui ó o retriever o retriever é um Vector Store retriever se você for aqui e olhar Quais são as opções de Vector Star retriever Então vamos vir aqui ó a gente vai encontrar
aqui ó aqui embaixo eu tô bem na frente deixa eu deixa pro cantinho aqui de novo Vector Stores aqui ó eu vou ter em Memory então ele vai usar a própria memória aí para poder como mas não recomendo que você use porque senão ele usa muito memória tem o pinec que eu vou vou usar nesse exemplo com vocês aqui tem um plano gratuito Fantástico né tem o supa base o supa base pessoal ele tem um sistema de Vetor então você pode sim utilizar o supabase para armazenar isso daí e tem o Zap pessoal o pinecone
ele é muito popular nesse mercado muito ele é praticamente um padrão de mercado porque ele é um serviço SAS Fantástico tem um preço ele ele custa eh ele tem um plano free muito bom mas se você for pagar ele começa a partir de 0 mas é legal porque 7 7 que você pode incluir vários clientes lá dentro então no geral Dá para dividir bem ali o custo dele né então eu tô aqui meu pone console console aqui ó eu criei um índice um índice simples pessoal fica tranquilo que a gente vai ter curso disso daqui
tá você pode ficar tranquilo quem aluno promove web e vocês terão curso disso tá bom Aqui ó então eu vou usar um Vector Store para poder obter informações da onde do meu Pine conone lá no meu índice aulas meu in aula está vazio até aí OK tá bom E aqui no caso né eu vou utilizar o o o meu openi no modo de edgings né então ele vai pegar essas essas respostas e transformar num vetor para mim tá bom Então olha que legal pessoal se você vem aqui de novo no nosso querido recurso aqui ó
você vem em embed eu vou ter o open a eu vou ter o tensor Flow eu vou ter o próprio Google o o embeddings e o o embed corar aqui dos dois aqui né Ó então o GPT pessoal é o mais recomendável o custo de um embed GPT é assim é milésimos de centavos então você paga muito pouco para poder utilizar isso daqui tá bom então inclusive você pode utilizar aqui o o olama como modelo e usar o GPT como embed por exemplo né mas no caso aqui ó o custo já vai ficar super super
baixo por quê Porque você já tá usando o seu Vector Store para fazer isso então ele vai olhar lá no meu Vector Store né se não tiver ele cai no GPT o GPT aqui não sabe que existe PR me web Então olha que legal pessoal eu vou mudar aqui nesse exemplo ó eu vou jogar para cá então você teria um workflow Você ia montar todo um workflow que vai alimentar o seu índice Então o que eu tô alimentando meu índice da seguinte maneira ó o a assinatura no mod da promov web custa r$ 97 então
eu tô alimentando uma informação nele tá bom então eu vou rodar aqui então eu vou chamar o pinecone insert que vai inserir no meu índice aula o que tá entrando aqui né o input que eu tô colocando aqui nele né Ó então eu utilizei aqui um json loader para ele poder utilizar esse input Então os inputs aqui desse modelo desse meu workflow vão vão ser inseridos ali no meu pinecone né e eu tô utilizando o open a para poder fazer o embedding dele né para poder fazer certinho aqui o eding dele agora Pessoal esse meu
item apareceu aqui ó então S eu pesquisar aqui no no pinecone eu já vou ver lá essa informação essa informação tá aqui agora tá lá a informação Quanto custa promov web que também tá a centura no mod da promov web custa 597 e você vai alimentar o seu banco de dados da maneira que você achea mais adequado eu estou usando aqui o plano free do pinecone que vai me atender perfeitamente por muito tempo tá gente agora se eu vier aqui no meu GPT no meu L chain ele vai vir pro ele vai vir primeiro no
no Picone agora ele vai saber quanto custa promov web então ele vocês viram que ele não sabia ele me respondeu que ele não sabia não tinha informação sobre promovo web alimentei o meu índice o meu pai unicone agora vou perguntar de novo para ele quanto custa PR movo web a minha pergunta aqui ó quanto custa PR movo web a resposta dele a assinatura Noal da promov web custa 5 597 Ah luí mas aí o cara tem que digitar certinho não pessoal se você vier agora aqui perguntar ó a promova web é uma assinatura então a
promov web eu mudei minha pergunta o que ele tem lá pessoal no índice dele é que a assinatura noa promov web custa 597 tá agora eu vou rodar de novo aqui o meu item ele vai de novo lá no meu no meu Picone se vocês vierem aqui em Matrix vocês vão poder acompanhar aqui né os a estatística do do seu índice e tudo né E aí pessoal Se eu olhar agora a resposta aqui ó sim a promov weeb é uma assinatura que custa 527 por ano Olha que legal pessoal isso aqui ó com uma entrada
no índice eu já consigo responder a mesma pergunta de duas maneiras diferentes então eu consigo responder agora Quanto custa PR MOV web se alguém me chamar no WhatsApp por exemplo num typeb consigo responder isso para ele e e de acordo com a maneira como ele escrever eu vou poder alimentar e agora a sua função é alimentar corretamente o seu Vector né o seu o seu pinecone aqui né ó o que eu falei para vocês pessoal que vocês iam gostar muito é o seguinte eu tô usando aqui o pinecone mas vocês podem utilizar como Memory por
exemplo aqui ó o Zap é muito popular o Zap pessoal muito popular tá vocês vão encontrar o Zap ali no no language models e hã Vector stork né Ó então vocês vocês vão vão achar o o o o Zap dessa maneira e o zep pessoal também vou vou incluir ele aqui na promov web tanto no instalador quanto no no curso do docker para que vocês possam ter ele aí você não precisaria utilizar o pinecone você pode alimentar o Zap na sua VPS aí mesmo tá para que ele possa fazer todo esse aprendizado aí do seu
conteúdo né ó Então pessoal aqui eu fiz usando Open ai e eu fiz usando pinecone porque são serviços SAS você pode rapidamente startar o seu bot por ali mas vai ter um custo né pouco mas vai ter um custo Mas você pode trocar boa parte aqui para pelo o lama e você pode trocar o panc pelo Zap E aí você consegue fazer isso daqui que mostrei para vocês né Você pode ensinar ele sem costear ele pelo Open a Mas você pode ter o seu próprio banco de dados de conhecimento ali o seu própria base de
conhecimento para que ele venha primeiro na sua base com os dados da sua base o open a possa dar uma resposta adequada para ele pessoal isso aqui é fantástico vocês gostaram né do do recurso pessoal de novo vou reforçar com vocês aqui se você não é aluno da promov web entra no web que a gente vai explorar muito esse recurso aqui de L chain tá Para que vocês possam montar aí os seus os seus Bots as os seus sistemas de de processamento de informação usando aí esses conceitos que eui para vocês né de memória de
de Vector Store esses conceitos que são interessantes é importante que vocês aprendam os conceitos para que vocês não tenham dúvida e aqui na promovo é pessoal nosso objetivo é esse que você aprenda quem aprende pessoal tem menos dúvida tem mais produtividade erra menos com vai errar vai vai ter dúvida vai mas muito muito menos pessoal eu vejo muita gente batendo cabeça no básico aqui a gente ensina o básico também para que você possa do zero começar a fazer aí né as suas implementações pessoal Então faz com calma Assiste esse vídeo novo instala ali a versão
Beta tá lá no grupo da promov eu vou mostrar como é que você já pode rodar essa versão beta aí e não deixa de entrar pessoal se você já é aluno Fica tranquilo que daqui a pouco eu vou criar lá no discord esse grupo aí para que todo mundo possa aproveitar aí esse recurso Fantástico do ntn Um abraço pessoal