Unknown

0 views11117 WordsCopy TextShare
Unknown
Video Transcript:
[Música] oh oh oh [Música] e [Música] Arley Du sou CEO da Framework para quem não conhece Framework digital uma empresa inovadora e que se posiciona em apoiar grandes marcas a conseguirem trabalhar e atuar na Trans em sua transformação digital Eh estamos muito felizes porque esse é o nosso primeiro webinar falando de Inteligência Artificial que é um assunto que tá sendo extremamente explorado como todos vocês já sabem todo mundo tentando aprofundar se especializar ou buscar um caminho para tentar entender aonde utilizar e obter os benefícios dessa tecnologia que está tão amplamente eh sendo trabalhada né e
e falada no mercado só para vocês terem uma ideia nós estamos falando de um mercado de 36 bilhões aproximadamente esse ano e com anúncios de investimentos que já superaram a 110 Bilhões de Dólares como diz o IDC aqui eu tenho hoje presente comigo para falar sobre esse assunto dois caras que T eh atuado muito né nessa jornada de entender e de explorar a inteligência artificial na Framework que é o Rafael Gontijo Oi pessoal boa noite tudo bem obrigado arle pela pelo convite eh eu meu nome é Rafael Gontijo a gente tá entre dois Rafa aqui
né sou sdm aqui na frame e vim falar um pouco aí de a minha experiência na criação desses agentes de a aqui na frame Rafa Obrigado você e aqui o bonalde bonalde à vontade Boa noite pessoal bom um prazer est falando com vocês aí sou engenheiro de software aqui na Framework e hoje a gente vai est abordando um tema aí muito legal muito atual né então é um prazer est aqui obrigado pelo convite obrigado bom só para vocês entenderem a Framework desde de que surgiu essa esse grande explosão do assunto da Inteligência Artificial principalmente em
função da generativa né que é o chat GPT que se luz aí uma expectativa muito grande pro mercado a gente vem estudando e se especializando no assunto né e o ano passado ao final do ano nós eh criamos uma célula de a no qual eu iniciei a liderança desse processo e fomos fazendo um estudo e aprofundamento no entendimento de como é que a gente poderia eh utilizar né daí veio a ideia eh de usarmos e aplicarmos dentro do nosso próprio processo de desenvolvimento software já que temos uma uma um conhecimento temos um um uma especialização
e experiência muito grande na engenharia de software né E daí surgiram a partir disso eh alguns soluções né que a gente tá chamando de Agentes para atuar nessa cadeia disso nós fizemos a construção de uma grande plataforma onde tem vários agentes que atuam no processo de software E hoje nós vamos mostrar a aplicação de três destes aqui nesse nesse webinar lembrando o seguinte Eh estamos falando de atuação dentro um processo de desenvolvimento de software pessoal mas a gente tem que lembrar que a técnica aplicada eh o entendimento de de decompor o processo ou fluxo de
valor para depois entender Aonde poderíamos aplicar a generativa né ele serve para qualquer processo de negócio né a nossa escolha foi em função da nossa especialização mas ela serve para qualquer outro tipo de negócio e aí agora a gente vai começar aqui com Rafael Gontijo já para trabalhar um dos desses cases para vocês conhecerem vamos lá Rafa bom como o falou a gente trabalhou nesse fluxo de valor do desenvolvimento né é um uma experiência que a gente tem aqui no dia a dia né a frame desenvolve software desenvolve projetos software a gente conhece muito bem
esse fluxo e Justamente por isso que a gente escolheu esse Flux para poder falar hoje e um um dos do do início L diz parte ial desse fluxo tá ali né o Discovery do do do do do fluxo de valor né ente gera ali a a descoberta ali da da dessa das ideias e depois e o produto desse disso é os protótipos né então a gente tem aqui por exemplo né O protótipo de aqui num software aqui feito no figma o software nosso próprio aqui o o Framework conecta e esse é um produto do do
discovery normal mesmo que a gente tá eh trabalhando com um uma criação inicial do projeto e a partir desse desse protótipo a gente eh tem que criar as histórias do do usuário né que é o o fluxo ali do uso do software do usuário isso é e uma atividade do do que o po desempenha essa essa atividade ela uma atividade eh assim trabalh grande né demora vários dias ali geralmente 10 dias né E e aí a gente entendeu que ali existia uma lacuna para otimizar utilizando o ia e é justamente é onde o flow History
eh trabalha na na otimização desse processo de criação das histórias para reduzir ali esse tempo né gasto ali vamos dizer assim investido né no projeto na criando as histórias e aí Rafa só aqui né esse eh essa solução né o flow History ele ainda a a a necessidade de fazer o Discovery né ela ela ela é importante é uma parte importante perfeito geramos O protótipo né a saída desse processo isso E aí ele atua exatamente nesse ponto né a partir da da da a que já se tem os protótipos produzidos ele vai gerar as histórias
baseadas esses protótipos perfeito perfeito é isso exatamente a gente tem ali o descobre normal e a partir desse protótipo criado que é um um resultado né um um asset ali do do da do discovery A gente utiliza esse ACD para poder criar aqui o o as histórias do usuário né assim gente falando assim né é uma uma questão parece né mágica né mas demonstrando Acho que você vai conseguir ver e vai ser muito legal aqui então então vamos fazer aqui uma demonstração aqui da criação do de Uma das Histórias utilizando aqui um exemplo que é
o que eu trouxe no início ali que é o frame Connect a primeira parte que eu preciso executar aqui é criar esse projeto eu ten que dar um nome para ele então no caso aqui o nome justamente frame connecta esse nome aqui ele é para relembrar dele lembrar ali nos futuras interações com com esse projeto e uma segunda eh questão que eu preciso descrever esse projeto essa descrição é muito importante ajuda a i a entender no no no jargão da iar a contextualizar né entender o que que ele tá sendo falado ali criar o contexto
então eu já separei aqui né para é um webinar né corrido aqui assim uma descrição uma pqu mais dinâmica um pouquinho uma descrição aqui já feita desse projeto mas mas é uma descrição bem breve tá você vê aqui que vou ler um pouquinho aqui né o frame Connect é um produto da Framework facilita o o acesso à informação sobre a locação de colab apoiando os DMS na tomada de decisões estratégicas Só isso Beleza a partir desse desse projeto criado eu vou criar o que a gente chamou aqui no no nosso sistema de tickets esse ticket
nada mais é do que a a junção de um protótipo mais uma pequena descrição A partir dessa pequena descrição ele vai gerar as histórias Então raa você explicou é você tem um projeto para um projeto você vai gerar n tickets não é isso ou vários tickets isso e que no final das contas aqui são histórias associar eh histórias a o projeto né é isso você pode ter n projetos com com histórias diferentes perfeito perfeito o ticket ele vai associar a essa descrição ao a ao protótipo e ele e o o ticket pode gerar várias histórias
então o mesmo protótipo ele tem vários vários eh eh fluxos de de uso né só tem um protótipo Ali vai est ali no caso eu vou usar aqui uma a listagem de colaborador ele vai ter listagem do colaborador ele vai filtrar ali o colaborador para usando algumas coisas ele vai ele vai eh eh detalhar aquele colaborador Então vai ter n fluxos de de do ver N histórias de usuário no mesmo ticket entendeu Não quero ver né Eh então nessa no Ticket muito semelhante ali na na na criação do projeto eu vou dar uma descrição dele
aqui também mas a descrição aqui é ainda menor tá então eu vou colocar lista de colaboradores e a mesma coisa aqui eu posso usar o nome dele aqui também a mesma coisa lista de colaboradores poderia colocar um pouco mais de fazer algum enriquecimento adicionar algum algum dado importante paraa generativa correto perfeito eu eu fiz uma interação com ela ali não gostei tanto do resultado Achei que ele esqueceu de alguma parte que ele não não trouxe ali uma riqueza de detalhe em um campo específico ali que eu não eu vou cá e e e Gero uma
descrição apontando aquela aquela parte que eu não que não tive um resultado tão bom então aqui ele aqui é onde você pode interagir vamos dizer assim com a ia perfeito Além disso né eu eu vou escolher aqui O protótipo né Tem um protótipo aqui ele só para poder ficar claro aqui para vocês ele é esse do meio aqui que é a lista de colaboradores aqui então uma tela com uma com alguns colaboradores um filtro ali e uma ordenação então além da da da associação do T da descrição do protótipo Eu também adiciono ali eh itens
adicionais que eu que eu quero que ele que essa que essa história traga então eu ele vai trazer a história do usuário ele pode trazer os os casos de teste os critérios de aceitação e os Zed cases eh como você tá vendo aqui ele ele tá fazendo várias criações isso vai adicionar um tempo el vai vai aumentar o tempo aqui para poder criar ele dá um gera um tempo ali de mais ou menos 30 segundos para cada uma nesse caso aqui totalizando uns 2 minutos tá mas com uma uma quantidade de dados gigantesca chegando até
8 9 10 páginas de de dados ali numa numa interação dependendo do protótipo pretendo Exatamente exatamente então eu vou colocar aqui para gerar Como eu disse né como a gente tá aqui numa situação aqui onde eu coloquei todos os adicionais ele vai gerar ali uma quantidade grande de informações e vai demorar um pouco para gerar mas aproveitando aqui na dinâmica aqui da da do webinário aqui eu vou começar a descrever um pouco ali do da do como que a chegou nesse resultado aqui né como que ele funciona aqui por trás né bom a gente tá
usando aqui visão computacional que é uma da dos elementos da da da ia né ele consegue extrair daquele protótipo ali eh as informações de como que que aquela que que aquele protótipo funciona eh qual que os elementos daquele protótipo ali na na na no no no funcionamento da aplicação aliado àquela descrição que a gente fez e a gente usa engenharia de prompt para poder trazer uma riqueza de informações né das histórias então a soma de de computação eh computação eh eh visão computacional mais engenharia de prompt mais otimizações nesses dados e traz pra gente pra
gente essa esse resultado eh Rafa eu vi que você né bom é bom comentar porque ali na durante a criação Havia três itens que eram checkbox que você podia eh marcá-los né o desmarcados já foram marcados que é o test case e e é case tem mais uma informação né que é a tem uma critério critério de aceitação critério de aceitação OK aí minha pergunta é se aqueles checkbox eh fossem desmarcados o processamento Aí ficaria mais ágil e teríamos alguma diferenciação em termos de custo computacional ou custo generativa se você puder comentar rapidamente alguma coisa
nesse sentido obrigado Claro com certeza a a criação desses elementos adicionais aqui são novas interações com a ia então por cada interação da ia a gente tem um custo adicional e por consequência do mesmo tempo para poder desenvolver se eu reduzisse ali para por exemplo metade né que tirasse desmarcar dois ali o tempo seria reduzido pela metade então é bem é proporcional ao tempo ali B com essa conversinha aqui a gente o ele já criou aqui as histórias Então a gente tem aqui algumas histórias né a gente tem igual eu falei um volume de dados
aqui impressionante lembra que a gente fez pequenas descrições do projeto e e da no caso do do protótipo ainda menor né a gente reduziu ainda ainda mais a a descrição a gente tem aqui no totalizando aqui cinco histórias vou ler algumas aqui para você ver como impressionante aqui é a qualidade dessas histórias tá eh visualizar a lista de colaboradores colaboradores com DM eu quero visualizar uma lista de colaboradores para entender quem está alocado em quais projetos e tomar decisões estratégicas estratégicas de alocação critérios de aceite a lista deve conter o nome completo do colaborador a
lista Deve mostrar o cargo a função do colaborador a lista deve indicar a data da previsão de desocupação do colaborador Em um formato legível a lista deve permitir que os colaboradores sejam organizados alfabeticamente o usuário deve ter a opção de visualizar todos os colaboradores ou filtrá-los por critérios personalizados aí eh que é legal então assim esse grau de de de informação para cada uma dessas cinco histórias Ele trouxe todos esses esses dados né Essas essas informações para orientar o desenvolvimento correto perfeito e aí também os casos de teste e os eh eh eh critérios de
aceitação e Ed cas Ed cases bom então isso é realmente é é é é bem interessante porque o o o tempo né que se gasta para fazer essa esse essa escrita né de um piou ela ela realmente é é algo significativo Uhum E aí o ganho nosso acaba sendo em tempo né e e e até qualidade também do do conteúdo porque o pior daqui paraa frente ele vai pegar para fazer um trabalho de de evolução e de de ajustes n dessa história né perfeito perfeito e tem um caso aqui nosso já né a gente tá
usando já tá testando isso em clientes tá e tem um caso nosso aqui já que que o o po ele conseguiu fazer um trabalho que ele geralmente gastava 10 dias em dois e falar assim mas dois ele demorou dois para usar a ferramenta não foi tantos dados que essa ferramenta gerou que ele gastou dois dias para revisar tava boa todo e Todas aquelas partes ali ele e ele ter certeza de que tá tudo bom e tava tudo bom inclusive mas ele ele não aquele negócio a uma ferramenta em teste ele não sabe ainda como tá
o resultado então ele demorou um tempão para poder ler todo esse conteúdo e ter certeza do que ele era representava realmente o que tava lá no figma o que o que que o projeto era então realmente tem um Case aqui que ele consegui reduzir 80% do tempo muito bom Rafa bom tem aqui várias histórias aqui e a gente tem uma funcionalidade extra aqui que é enviar essas histórias pro pro ég devops a gente consegue fazer a separação aqui por história e levar direto pro ejo devops aqui essa funcionalidade ela faz o carregamento aqui e ela
traz a gente ali pro pro ejo Vou recarregar aqui e aí ele cria ali os work items né que é são os itens ali para poder o po depois ali manipular dentro do projeto ali atribuir a alguém n colocar ali quem que vai desenvolver cada parte então por exemplo lá a que eu acabei de ler na lista de eh de visualização dos colaboradores ele já tem isso aqui dentro do do é devops já consegue atribuir a ao a um desenvolvedor para levar isso para em diante para ser desenvolvido perfeito perfeito bom no no caso do
do Flow History é esse é o fluxo aqui hoje né a gente consegue reduzir ali falei tempo bem bem 20% do tempo total né então a gente consegue reduzir bastante eh isso foi através né como eu falei ali computação computação eh visão computacional e o a engenharia de prompt Além disso tip tá só normal integrações e tudo mais aqui que a gente tá desenvolvendo conseguiu e consegue reduzir bastante o tempo do do processo de desenvolvimento que é esse que é o que a gente quer a gente tem que ler né o fluxo de valor fluxo
de valor do do do desenvolvimento e nessa primeira parte a gente consegue reduzir bastante esse esse tempo e e dar mais tempo ali pro desenvolvedor para poder ele conseguir mais mais mais informações e mais e mais tempo para ele conseguir trazer mais valor pro projeto o Rafa e e conta pra gente assim o o o desafio aí da da da do desenvolvimento né dessa dessa dessa solução ele ele Tecnicamente ele onde onde ele estava aí onde era o maior maior desafio assim a gente tem alguns desafios né Arley mas o maior desafio é o custo
as primeiras interações com a com a ia a gente gastou bastante o crédito aí o cartão de crédito da frame me lembro bem e aí essas primeiras interações era inviáveis o custo era muito caro porque né a gente tá falando aqui de falar alguns jargões aqui de A tá gente que a a são jargões como por exemplo janela de contexto a gente quando a gente trabalha com com um com texto uma quantidade de dados gigantesca gigantesca eh o custo da ia aumenta muito então a gente tem que manipular essa janela de contexto para poder conseguir
trazer uma maior quantidade de dados para ia e mesmo e e mesmo assim não ter um custo elevado Então esse foi o maior desafio o segundo Desafio Foi aquela relação que de deárea de prompt é o que e como falar para ia Como pedir para ia pela trazer o o o o resultado com qualidade muitas das vezes as histórias eram muito perdidas ele não conseguia trazer um valor ali pro pro po e aí a gente foi trabalhando com essa eh interagindo mais né gerando por exemplo ali uso de duas ias uma fazendo um papel ali
de de po e uma outra de revisora então é uma uma interação também que a gente fez ali para poder melhorar a qualidade disso então foi foi engenharia de prompt eh agentes múltiplos gente trabalhando com isso e o custo o custo sempre O mais difícil né hoje dia assim a gente fala ah eu consigo fazer mas e vale a pena para escalar Né verdade Ô Rafa mais algum ponto não acho que eu consegui trazer tudo e claro né vai ter Ger várias perguntas aí pro pessoal e vou est disponível aí respondê-las pelo trabalho parabéns Rafa
Muito obrigado bom então vamos agora pro pro outro Rafa né o bonalde também tem um trabalho muito legal legal aí que foi feito vai apresentar dois duas soluções pra gente seguindo uma linha e também baseada em generativa Então conta pra gente um pouquinho bonal como é que eh que que é a solução né onde é que ela que ela se encaixa legal bom obrigado Arley é muito legal a explicação do Rafa né deu pra gente entender um pouco ali do começo dessa esteira né como chega alguma coisa pra gente tá desenvolvendo né Realmente avança muito
o nosso trabalho aqui eh e a gente também focou muito na parte do próprio desenvolvimento na parte técnica ali na parte do código mesmo e a gente identificou que existe uma uma um processo hoje que é muito Moroso que é o processo de avaliação do código antes mesmo dele eh tá disponível ali pro usuário usar né a gente tem algumas ferramentas que fazem esse eh essa manipulação e uma das maiores de mercado aí com certeza é o sonar e a gente identificou que eh ali a gente consegue resolver muito problema do sistema eh antes mesmo
dele entrar para um ambiente e muitas vezes não é possível a gente resolver esses problemas por falta de tempo ou até mesmo por falta de visibilidade daqueles problemas né então a gente criou um agente aqui que ele interage com o sonar vou mostrar para vocês aqui na prática né a gente tá utilizando e uma versão local cal por segurança mas é um projeto que ele tem alguns apontamentos aqui do sonar Ao todo são 10 e nesses apontamentos a gente tem a pretensão aqui de eh agilizar o processo de resolução desses problemas né então aqui no
na nossa solução a gente eh tem uma uma ligação ali Direta com aquele projeto através das informações que a gente eh municia ele aqui então a gente coloca a RL do repositório a RL do sonar que tá sendo avaliado o projeto que a gente quer fazer esse essa avaliação um Token para esse projeto e um token de autenticação do sonar né então aqui por exemplo se eu simplesmente excluir um desses itens ele não acha mais aquele projeto então aqui é uma coisa que você tem que configurar inicialmente para que você tenha acesso ali à tuas
informações do sonar como a gente pode ver aqui em cima nas tagz inhas que ele traz e perfeito é o mesmo valor que a gente encontra lá dentro né então aqui Qual é a ideia a gente já tem os apontamentos feitos pelo sonar no caso de cmel a gente já sabe onde está os problemas a gente já sabe sugestões do próprio sonar de como resolver e a gente optou por automatizar esse processo aqui no caso a gente tem um limitador de reparo é importante falar sobre esse limitador porque imagina um projeto onde nunca foi acionado
sonar ou então realmente não é uma prioridade porque a equipe tá com demandas a mais ali no projeto e alguém vai ter que avaliar né O que tá sendo feito aqui nossa ideia é sempre que o fluxo seja seguido exatamente como é o padrão da equipe já como Segue uma esteira desenvolvimento né então a ia vai est agilizando esse processo mas ainda assim vai ter a interação humana né então esse limitador ele é importante Exatamente porque a intenção é que seja avaliado por uma pessoa técnica que tenha conhecimento do sistema essa pessoa vai fazer uma
avaliação vai entender se aquilo é pertinente vai entender se aquilo realmente faz sentido pro projeto dela se faz sentido pro contexto do dia a dia dela E aí sim eh a gente pode aumentar a quantidade aqui ou até mesmo orquestrar isso né é um a gente colocou aqui um um visual para que fique bem claro o que a gente tá falando né fique bem literal o que a gente tá falando mas esse é um processo que pode rodar e realmente sem que seja acionado mesmo ele pode rodar via gatilhos né uma vez por dia duas
vezes ao dia uma vez por semana realmente o que se adapte ao negócio então ele é 100% customizável exatamente pensando nesse cenário de se adaptar a cada negócio a cada projeto e a intenção Nossa é exatamente isso aqui então a gente tem essa configuração inicial a gente tem algumas configurações extras pensando exatamente na adaptação aquela do negócio al é bonalde e até fazendo uma um complemento nós já passando um pouco da experiência que a gente tem tido eh em em né demonstrar a ferramenta para PR pros nossos clientes né ou já utilizá-lo para testes tem
casos aí que a gente já pegou que né bonal que dá mais de 1 C de é verade codm né então assim são muitos pontos a serem resolvidos E é claro que não dá para para dizer que se aquilo ali é errado ou se é certo porque tem uma pressão natural de entregas a gente sabe como é que o mercado ele funciona a dinâmica se conduzir uma uma gestão de um produto digital então às vezes não tem espaço para fazer aquela correção né para fazer os ajustes ter a melhor prática Inclusive tem questão de vulnerabilidade
normalmente vulnerabilidade se atua né é é uma prioridade mas tem outras coisas que às vezes vão vai ficando ali encostado né E esse agente ele atua nessa nessa nesse momento independente da equipe que pode continuar a produzir né sem atrapalhar produtividade e mas é importante dizer precisa de uma pessoa ao final do ciclo para avaliar aquilo ali que foi eh feito para chancelar né bonalde perfeito que aqui é um um processo muito mais de recomendação tá gente a gente tá atuando numa linha de recomendação eh ou no caso do próximo ag gente vocês vão ver
que a gente chega até a executar uma parte muito importante Porém precisa do da partir dali uma pessoa tomar essa decisão né Maravilha é o Arley ele dá uma visão aí pra gente né até por ele tá por dentro de todos os projetos aí hoje da Framework então eh ele tem um acesso a tudo o que acontece e a gente sabe que se a gente for avaliar alar os projetos eh internos projetos que a gente atua a gente sabe que o codes smel o a vulnerabilidade e o bug é algo que tá ali presente às
vezes é um incômodo né na Sprint é um incômodo pra equipe e acaba não virando prioridade tem um volume muito grande a ser desenvolvido e a ideia aqui é realmente eh fazer aquilo de uma forma muito mais dinâmica deixar já o desenvolvedor ali eh muito mais confortável né então aqui agora imagin que vocês queiram ver o resultado né aqui o sistema já informou pra gente que finalizou a gente vim pra Brent aqui a gente vê que pro repositório no caso né a gente vê que foi uma Brand criada aqui há poucos minutos né Foi agora
a gente conversando aqui e ela cria com o nome de fitw e uma hash única a gente cria a gente optou por criar como fitw Exatamente porque o sonar ele atua de forma preventiva né então não geralmente né o ideal é que não seja um bug que seja encontrado em produção então a gente já eh entende que nesse processo né na esteira uma acho que talvez seja a coisa que a gente mais vai falar aqui hoje a esteira desenvolvimento pensando sempre nela a gente sabe que esse eh essa nomenclatura também é importante tá então avaliando
aqui a gente vê eh um resultado primeiro num título né um título que ele coloca sobre o que foi abordado e uma descrição convido vocês aí a dar uma uma passada de olho aí no que que ele gerou e a gente principalmente se tiver alguém técnico aí eu sei que quando chega nesse momento se for um bug alguma coisa ali que tá a gente tá tentando ali apagar um fogo né o incêndio isso aqui geralmente não fica tão bem escrito assim né a gente acaba sendo prolixo na escrita a gente acaba escrevendo alguma coisa errada
esquecendo alguma informação e aqui tem essa vantagem né para rastreio futuro isso aqui é sensacional a gente consegue ter uma visibilidade tanto técnica quanto uma linguagem fluida também para entender o que que foi que foi feito realmente e a gente eu brinco aqui com o pessoal que essa no primeiro primeiro teste que nós fizemos né bonalde com eh soluções que dessem uma fizesse uma correção de código alguma coisa do tipo E aí eh eh esse texto ele é um um um um texto que assim a gente já tentou simular alguma escrita parecida entre nós né
Vamos tentar aqui das soluções dos bugs que foram corrigidas tenta pensar no texto eh e aí eu como gestor já também já fui desenvolvedor muitos anos e é um negócio que traz um nível de de de detalhe de informações e ao mesmo tempo sintetiza o conjunto de coisas que foram feitas que é uma é um absurdo é muito bem escrito E aí como bonald disse é pra rastreabilidade é excepcional né Mas vamos lá bonald vamos lá é isso tem toda a razão e assim eh a gente quando a gente como desenvolvedor tá olhando para isso
a gente sempre fala Olha tem falsa modéstia não não chegaria nesse nível de detalhe aqui a verdade É essa mesmo descendo um pouco mais aqui então a gente vai ver realmente o que ele fez em código né eu convido vocês mais uma vez aí a correr o olho né No que tá sendo feito como dar uma pincelada rápida aqui mas ele eh cria uma variável né para uma uma Connection string ali que tava sendo usado repetida tava sendo usada em excesso ali né tava realmente causando um um incômodo no código né Eh na tradução livre
ali do codes smel é um mau cheiro no código né então é realmente um ponto ali de de atenção no código então eh ele realmente fez isso e também algumas outras coisas de assincronismo onde ele via que realmente era necessário e a gente aqui A gente pode ver né nesse nível de de nosso nível de satisfação aqui é muito alto para esses codes mels e como Arley já tinha dito anteriormente pode haver situações onde a solução final não seja a ideal a solução final entregue aqui não seja a mais perfeita mas com certeza ele já
vai te dar um um caminho percorrido bem grande então seriam mais ajustes e essa é a importância também da gente limitar a quantidade ali para que a gente não fique com volume muito grande cóigo para avaliar nesse caso aqui para mim com a minha avaliação aqui eu não faria nenhum tipo de mudança mas isso se adapta de projeto para projeto Isso muda de projeto para projeto a nossa inteligência aqui também ela tem um como premissa não criar mais de um padrão pro código né ela vai avaliar o padrão que existe no código e vai continuar
esse padrão de código então ela não vai criar nada novo ela não vai sugerir uma abordagem muito diferente do que já tá fazendo ela vai realmente seguir o seu padrão de código e dentro desse padrão de código ela vai fazer o desenvolvimento né Eh realmente assim a gente se preocupou muito nessa parte de de boas práticas de desenvolvimento que C code Solid e ela segue essas boas práticas exatamente para para que seu projeto não acabe virando um Frankstein ou implemente alguma coisa que fuja muito do contexto do seu projeto a ideia aqui é realmente tá
somando né não criando algo novo boite mas se se eu tiver uma uma um padrão eh na empresa e esse código ele tá tá fora desses padrões eu conseguiria eh indicar ele que que o padrão a ser adotado deveria ser o da minha empresa e não esse que tá escrito no perfeito pergunta Muito boa essa eh existe um equilíbrio né que a gente dentro do próprio sistema Às vezes a gente sabe ele existe uma camada no sistema que ela foge muito do padrão do restante do sistema o restante do sistema ele já segue um outro
fluxo pode acontecer um cenário como esse por exemplo o que a gente vai fazer aqui vai ser um balanceamento a gente vai entender qual é o a abordagem mais usada no sistema e vai colocar ela porém existem também os cenários em que aquele arquivo específico está tá totalmente fora do restante do projeto Então não é interessante que aquele arquivo siga o restante do projeto para que se adapte a maior quantidade então ele vai se adaptar realmente ao o arquivo que tá sendo escrito então Eh é uma linha tênue ali né a gente fica sempre pesando
ali o que é mais importante mas acaba se saindo muito bem assim e seguindo a risca ali o que é definido nesse caso essa discussão Nossa aqui é sobre eh código Limpo né e ele segue realmente assim da melhor forma ali o todas as as definições de código lío é excelente vamos lá então continua vamos lá então Aqui nós temos essa resolução né e após essa resolução a gente pensa bom então o desenvolvedor vem aqui e analisa o que tá feito Sim Isso é o o o o passo principal porém a gente entendeu que às
vezes seria importante avisar o que tá acontecendo né então a gente criou uma um envio esse envio de e-mail aqui ele explica o que foi feito né de uma forma bem macro ali fala análise então mesmo tendo a correção em código sempre vai ter uma análise sempre vai ter uma análise ali do que foi feito que mesmo que você não não aceite aquela sugestão de código você entenda o que foi feito né sempre lembrando que o ponto humano al é de extrema importância então aqui ele te avisa que foi gerada te D detalhes do que
foi feito e aqui embaixo tem um linkzinho pr avaliação esse ponto é muito importante pra gente assim ele é sensacional é o seguinte ele vai lar você tudo que foi feito se você expandir aqui ele vai te dar o o log nesse caso foi um log inelegível né de um de uma um outro sistema vou abrir aqui o do Snipe ele vai dar aqui pra gente o log que ele leu o erro né que foi um codes Mel A análise então análise detalhada e o trecho de código que foi corrigido e aqui embaixo tem um
ponto que é pro próprio usuário avançar o sistema deixar o sistema mais gente de acordo com o que ele quer aqui a gente Uma Breve descrição que serve pra gente mesmo analisar isso depois a gente faz uma análise texto mesmo para entender ali né O que que o pessoal tá achando então isso aqui é importante também mas o mais importante é esse like ou dislike por quê caso ele já tenha feito uma correção daquele cmel numa próxima rodada ele não vai fazer aquela correção novamente porque ele entende que já foi feito mas caso você dê
um dislike naquilo Ele vai tentar fazer com uma abordagem diferente então isso é muito interessante porque pode ser que a a gente não tá com tempo ali de fazer a correção na brente a gente fala olha não ficou bom isso aqui na próxima o resto eu vou aceitar isso aqui eu vou excluir então na próxima Tenta de novo e aí a gente vai ter uma abordagem diferente então isso aqui é muito legal Exatamente pra gente ter eh uma possibilidade ali né D uma chance dela refazer e aqui imagina a gente vai chegar num ponto em
que ela vai est com muita informação e quanto mais informação melhores os resultados né perfeito Então você tá retroalimentando aí a a própria solução né retroalimentando aí da do resultado da recomendação que ela tá trazendo dizendo se aquilo ali foi efetivo ou não E aí eh nós podemos melhorar tanto o script né Para alguma adaptação ou passar essa informação para ela própria eh atuar né e repetir novamente o a a correção ou coisa do tipo efeito A ideia é essa mesmo beleza Bacana bonal gente nós estamos falando aqui de cases aí que nós já pegamos
de duas três sprints de solução aqui para ficar fazendo manualmente né para para ter a correção eh manual e resolver em horas né então é um ganho de eficiência absurdo um ganho de custo absurdo e dando a oportunidade pros team focar naquilo que é mais necessário né que é o negócio né trabalhar o código focado no negócio atendimento a clientes eh e resultados vamos lá o próximo Aí bonalde agora já tá para apresentar vamos lá já tá no jeito aqui beleza bom então a gente tem uma outra solução avançando ali mais uma vez na esteira
né de desenvolvimento uma etapa futura a essa a gente pegou ali o sonar né que é algo preventivo a gente pode analisar ele dessa forma e agora a gente vai para uma solução que ela tem um caráter um pouco diferente ela tem um um caráter que ela é o o a após eh depois de colocar o sistema em execução né então depois que a gente coloca o sistema em execução a gente exige os cenários de erros desse sistema e esses erros Geralmente os sistemas estão ligados ali a um um A algum sistema de monitoramento ou
armazenando esses logs e a nossa ideia aqui é exatamente facilitar mais uma vez nessa análise de erros causados durante o uso da aplicação né então Eh que eu vou mostrar para vocês aqui agora é algo que se assemelha ali um um pouco né Eh com o com a tela que a gente estava vendo mas vou mostrar para vocês um sistema em que a gente sabe que existe um erro tá então isso aqui é um sistema que ele retorna pra gente ali valores de de de operações de criptomoeda diárias né E a gente vai gerar um
log de erro aqui agora nesse ponto do sistema que a gente sabe que tá com erro tá então ao pedir aqui ele dá um erro ali uma exceção inclusive que não é tão bem tratada né Ele explica pra gente onde tá acontecendo e nesse momento o sistema gerou um log um log de de erro ali então funcionalmente a aplicação tá com tá com bug perfeito a aplicação tem um tem um problema ali e aí a gente Forçou a execução dela para poder gerar esse log Então esse log agora existe ali pra gente poder trabalhar em
cima dele né Então essa aplicação ela funciona de forma completamente reativa precisa existir um um princípio de um erro né na aplicação a aplicação precisa eh ter algum alguma explosão que a gente fala ali geralmente né Tem algum problema ali nela e esse erro tem que tá sendo armazenado em algum lugar para que a gente possa capturar então aqui e as configurações são um pouco mais básicas né a gente coloca aqui o repositório a Brant o group log e o intervalo de horas do log vou explicar mais detalhadamente cada uma aqui né o repositório obviamente
é onde a gente vai est fazendo as correções ali a Brent ela se referencia geralmente num quando segue um Flow correto né de desenvolvimento a Brand se referencia ao então a Brand M costuma ser produção a Brand Master costuma ser produção tem uma Brand HTML uma Brand Dev que corresponde cada um ao ambiente ali né pré produção e a gente tem esse grupo log aqui como funciona esse grupo log tá a gente cri a gente também utiliza uma ferramenta de mercado que ela captura os logs de qualquer aplicação de forma fácil e rápida e segura
então o log pode est num sistema de monitoramento como Cloud watch como application sizes pode estar no servidor pode estar em banco de dados pode estar em arquivo de texto eh em cenários mais undergrounds até os os mais perfeitos a gente consegue capturar esses logs ali para que a gente depois possa consumir essas informações o intervalo de horas aqui é o tempo né que a gente quer que busque aquelas informações então mais uma vez aqui a gente tem um um uma tela que ela só ilustra o que a gente tá falando a ideia é que
esse projeto também que essa solução ela Rode de tempos em tempos ela pode rodar uma Visal ela pode inclusive ser de forma automática surgir um log ela pode já tentar reparar aquele log ela pode ser uma vez por semana realmente mais uma vez aqui pensando em se adaptar a cada negócio né vou fazer um envio dessa informação aqui e aí e a gente pode imaginar vários cenários né a gente pode imaginar cenários ali né que a gente pega muito que é a questão de de sala de guerra deu um bug ninguém sabe o que que
é aquele bug e aquele bug tá ruim na no tá armazenando de forma ruim que não dá para interpretar o que que é aquilo ninguém sabe muito bem como usar aquela aplicação paralisa uma equipe às vezes paralisa dias de serviço então eh a ideia aqui é seguir três linhas né a gente pode ter um log que seja inelegível ou seja o log está ruim na aplicação Então a nossa aplicação aqui ela vai dar essa luz para esse problema né então o desenvolvedor já sabe que ele tem que melhorar o log ali alguma coisa tem que
ser feita para aquele log fique mais robusto e seja de fácil interpretação a gente tem logs de análise por exemplo um sistema Onde tem um front um backend o sistema pode estar vindo a gente tá ligado ali no no backend Mas o problema vem de uma outra fonte né de fontes diversas ali imagina um cenário de microsserviço né onde tem várias APS rodando em paralelo então a gente tá ligado em uma delas a gente sabe que o erro não é ali mas existe um erro então a gente consegue fazer uma análise né e a gente
sabe que muitas vezes durante resolução de bugs é a parte mais demorada é a análise é entender o que que tá tá acontecendo Então o sistema também vai para essa parte e enfim quando ele tem insumo suficiente quando ele tem a certeza de que o bug acontece naquela aplicação tem a correção de Fato né aqui a gente teve já um o retorno do sistema né que já foi finalizado aqui a gente tem uma outra Brand aqui se atualizar um minuto mais ou menos isso mesmo e aqui mais uma vez seguindo o mesmo padrão uma um
título bem escrito com uma descrição também fenomenal ali pra gente ter um rastreio né se a gente descer mais um pouco em código aqui a gente vê que foi feito um reparo ali e ele colocou mais uma condição no meu wif se a gente ver no texto aqui foi exatamente né convido todo mundo aí mais uma vez a dar uma pincelada aí no que foi escrito mas uma vez a gente tem isso né qual seria o fluxo normal aqui a gente teria que seguir aprovar esse esse PR né rodar um pipeline rodar uma relize até
a gente ter esse essa aplicação disponível de novo pra gente poder eh ver mesmo como isso funciona eu deixei essa aplicação em execução e aqui no caso a gente consegue paralisar se vocês derem Uma Breve olhada aqui o final desse hotfix ele é 4404 e é exatamente o que tá aqui 4404 e eu vou colocar a aplicação para rodar novamente pra gente poder ver se realmente esse reparo que ele sugeriu em cima do log proposto eh faz sentido pra aplicação voltar a funcionar né então aqui a gente tá com erro então vou manter os os
mesmos parâmetros e vou tentar obter de novo maravilha a gente teve um reparo de código como vocês puderam ver aí em segundos né Eh e deu um retorno muito bom assim assim como outro sistema a gente também tem um um envio de e-mail funciona da mesma forma ali para ele se retroalimentar e evoluir aí também na própria solução mas como a gente pode ver aqui já deu uma solução que realmente foi Eh boa e pertinente né resolveu perfeito perfeito bom eh pessoal aqui eh e foram apresentados outros dois agentes né Eh e que eles atuam
em momentos diferentes na cadeia então o sniper kill batua em cima de dados né do do do sonar ou seja vai vai trabalhar de uma maneira mais preventiva a informação e já o self repair ele tá atuando exatamente já na na exceção que tá tá sendo provocada pela aplicação seja no ambiente de Dev ou ambiente homolog ou de produção né e e a gente entende que o o o mais adequado é que seja utilizada do ambiente de de homologue ou produção em função do desenvolvimento ainda tá imaturo e naturalmente vai ter muitos bugs e aí
o custo da correção daquilo ali acaba podendo não compensar né da da do auto reparo pelo Mag generativo eh e aí já no caso do do impr produção é uma coisa que ajuda demais quem sabe da complexidade de de de de corrigir e de se manter um um um um projeto em ongoing sabe que as exceções mais improváveis elas acontecem infelizmente algumas eh eh dessas exceções elas acontecem e param processos importantes na empresa como eh às vezes um um um determinada produção pode ser um faturamento Eh Ou qualquer outro tipo de processo dentro da empresa
e ele exatamente entendendo Aonde tá essa sessão ele vai lá e procura esse esse esse bug já faz o reparo sobe já fica disponível para novamente como uma recomendação para que seja subido pra produção tem que ter uma intervenção humana aí nesse final Ok então é é é um é um conjunto aí que funciona muito bem esses dois pares pegamos aqui um Case mais simples para que o processo né fosse eh de ponta a ponta eh tem mais aí bonal mais algum algum Sim sim eu coloquei mais uma execução aqui de um outro projeto foi
até o projeto que a gente olhou ali com sniper né é um projeto um pouco mais robusto coloquei a solução para rodar aqui mais uma vez eh é um projeto que tem muito mais coisa um projeto muito maior então eh ele tem nov mais exceções mais exceções ele é mais usado Então a gente tem e feedbacks de log muito maiores nele né então aqui como eu já deixei executando né enquanto o Arley tava e comentando ali Pontos importantes e aqui mais uma vez foi gerado e repositório atualizado com sucesso né a mensagem que ele dá
e aqui foi gerado mais uma vez né aqui ainda não atualizou Agora sim um hotfix foi gerado a 33 segundos se a gente olhar aqui seguindo a a o que ele sempre faz né um título uma descrição e aqui como eu disse é um projeto com uma robustez maior aqui a gente pode ver que ele desculpa trocou o nome de um de Um item do banco de dados né que tava com o nome errado ele conseguiu entender isso devido a toda complexidade de análise de camadas do sistema mudou o nome de uma variável também que
estava errada e fez a implementação No método Construtor fez uma implementação também no método que evita quebra dentro desse método Então como vocês podem ver aqui são implementações que fazem sentido no código são implementações que complementam bem o código ali implementações que de fato se a gente pousar o sistema assim como foi no outro e cumpre o papel de fazer o sistema voltar a funcionar né o log ele não é algo gerado de forma espontânea né não é uma coisa que dá pra gente fazer uma análise em cima do sistema e sugerir alguma coisa o
log é uma coisa gerada a partir de um erro na aplicação e dessa forma a gente dá luz esse problema a gente sabe o que que tá acontecendo e a ideia do sistema é que ele faça voltar a funcionar mais rápido possível aqui a gente pode analisar mais uma vez o que que ele enviou se a a gente vê aqui no e-mail Com certeza chegou uma novidade aqui e aqui ele teve quatro correções novamente mas isso aqui poderia ser uma análise poderia ser inelegível no caso aqui a gente fez uma aplicação eh com um nível
de codificação mas deixar a parte boa então ela tá com os logs bons mas poderia ser logs que não fazia fariam sentido para uma leitura humana poderia ser logs que realmente de Outras aplicações trazendo para cá erros ou até mesmo erros de ambiente por exemplo um banco fora do ar algo desse gênero ele poderia também fazer essa análise e a gente sabe o quão precioso é a gente saber se guiar na hora de resolver um problema né É muito bom bonal bom pessoal eh temos aqui um tempo ainda para perguntas eh a gente até teria
mais um um um caso para rodar no self repair que é para atuar em cima de algumas práticas de banco vocês devem ter percebido que tava com select asterisco ali nós vamos pular essa parte aqui agora vamos para para já pegar uma outra de demonstração dos ganhos que que que nós temos na na como que a gente Demonstra o ganho financeiro no caso e depois pra gente poder abrir também um espaço para falarmos do do também tem algumas perguntas para podermos responder Ok se der tempo a gente volta de novo e mostra outros casos aqui
dentro do self repair Eh por favor se puder mostrar aqui a tela do Rafael pío bom então aqui é uma das formas que nós temos para mostrar demonstrar ganho Então dentro do processo desses agentes dentro da nossa plataforma de Agentes a gente cria e kipis né de Para que sejam e obtidos aí o o informações de ganho né então a gente aqui no caso nós buscamos informações de bibliografia de quanto quanto se gasta Qual que é o tempo médio de correção de bugs e E aí ali tem uma aplicação específica que tá rodando aqui da
Framework onde foram encontrados 50 eh questões para serem avaliadas E aí a gente tem análises erros e eh erros encontrados situações onde só foram analisadas e situações inelegíveis que o log não foi o suficiente então três foram as análises executadas tivemos 26 erros encontrados e e 21 logs inelegíveis e com uma redução de custo estimado de R 24.500 né isso aqui é um período curto de execução eh eh também no num ambiente nosso aqui alguns meses né alguns meses aqui que foram rodados de teste e embaixo a gente tem uma questão de satisfação também que
isso aqui nos ajuda a entender se tá legal ou não a a correção né se a se se a ferramenta tá atendendo o nosso cliente né o nosso usuário nosso desenvolvedor e ao mesmo tempo é o que retroalimenta também de evoluções dos scripts eh que são gerados né dos prompts Então é assim que a gente eh eh demonstra valor de uma solução pegamos aqui de ponta a ponta né fomos ao ao ao um processo de eh geração das histórias a partir de protótipos né e com pequenas descrições jogamos aquele conteúdo para desenvolver e das histórias
dentro do in tesc né na na no aure devops mas poderia ser uma outra ferramenta também correto exato exato qualquer outra ferramenta e eh depois fomos para uma parte mais prática de das execuções da das das correções dos bugs e né do preventivo antes em cima do sonar e depois para correções de bugs Então esse aqui que é o nosso eh os nossos cases aí Alguns dos que a gente tem para apresentar nós temos outras linhas aqui para atuar mais em e arquitetura eh desenvolvimento em Sistemas legados e mas aqui vai ficar mais difícil de
apresentar pelo né Tem pergunta pra gente aí como é que tá poderiam trazer bom aí tem do daverson né E aí ele pergunta que com o volume de informações como Vocês conseguem viabilizar o custo sabendo que a ia eh cobre pelo cobra né no caso provavelmente pelo volume de informações é no caso generativa as pagas né Realmente é isso Eh bonald você quer falar sobre o Rafa já deu uma uma uma uma breve apresentação sobre isso se puder detalhar mais esse assunto sim eh esse esse é um ponto legal aqui que a gente teve né
logo no começo assim a gente fazendo provas de conceito mesmo né tentando entender ali se era possível fazer o que a gente queria com aá como o Rafa disse a gente tava gastando valores assim exorbitantes né que não fazia sentido mesmo e comparando com o desenvolvedor tá atuando ali né então a gente foi o primeiro desafio né foi ver como viabilizar isso e junto a isso a gente viu várias outras limitações que a i tinha né a gente sabe dessa questão do custo mas também existe a limitação de quantidade de informações que você pode passar
para ela por exemplo hoje a gente tem aqui Um Um cenário que a gente pode pegar uma aplicação muito pequena uma aplicação gigantesca o que vai contar pra gente o valor disso é a quantidade de bugs que ela vai reparar não o tamanho da aplicação então a gente superou alguns problemas Esse foi um dos problemas que a gente conseguiu superar também mas em cima de entender mesmo melhores formas de abordar ali de entender e formas de expor o que a gente precisava para e para obter o retorno exatamente daquele ponto que a gente precisava né
E aí bonal não trata-se só de uma engenharia de de prompt né Tem uma estratégia também que pode ser utilizando ou não outras outros MEC ismo de a ou pode ser algoritmos eh eh tradicionais para se ter uma uma um um um foco né Na onde você vai atuar dentro da com na generativa né Eh e não tentar ampliar o máximo do conteúdo possível porque realmente isso dá eh carrega mais tokens né então você pega aquele conteúdo todo muitas classes né se vamos falar de código ou muitas páginas coloca aquilo como input vai ser cobrado
né perfeito perfeito Então essa estratégia é important é isso é t é isso aí foi um um ponto assim um marco pra gente né Foi um divisor de águas pra gente ali quando a gente tava trabalhando com essas ferramentas e quando a gente entendeu Como fazer isso Isso aí é um produto aí que a gente tem muito orgulho de falar que foi nosso desenvolvimento aqui eh a gente entendeu ali e abriu um Horizonte novo pra gente mesmo ali a gente viu uma infinita Gama de possibilidades depois que a gente entendeu Como trabalhar ali mesmo então
é talvez ali seja seja uma das estrelas do nosso dos nossos projetos ali né um ponto que a gente tem um um cuidado muito grande é um ponto que tá em evolução também é um ponto que a gente vê onde melhorar sempre né o tempo inteiro mas é um um foi realmente um divisor pra gente foi ali ali mudou muita coisa perfeito e assim bonald eh seria possível usar essa mesma arquitetura e essa mesma estratégia que nós adotamos aqui para reduzir o número de tokens né para ficar mais barato em outros processos de negócio você
pode falar pra gente perfeito com certeza assim eh isso aí é uma coisa que vai ser adaptável a todos os projetos que a gente for fazer então todos os projetos que a gente foi emplacar ali vai ser uma uma questão a ser olhada para baratear para eu deixar mais rápido Para viabilizar então é um aprendizado que serviu até que para esses agentes mas é um aprendizado que quando a gente for fazer outro agente a gente já tem ali um nohal gigantesco e a gente já tá praticamente na cara do Gol ali né a gente eh
particiona tudo isso aí o projeto ele é todo particionado então depois é basicamente a gente ir montando colocando as peças certas fazendo algum desenvolvimento pontual que seja necessário para se adequar Aquele modelo Ou aquele projeto específico mas assim já tá a gente a jornada que a gente fez aí tudo é aproveitado Ah muito bom cara tem mais perguntas tem mais um aqui aí Ó Rafa você quer responder sobre isso foi feito alguma algum rag tema aí a gente usou Sim rag a gente eh principalmente no no na criação da das histórias Então a gente tem
aqui uma base de de histórias bem feitas vamos dizer assim a gente essa base histórica da frame né a gente tem aí vários anos aí de desenvolvimento aqui a gente tem uma quantidade enorme de histórias criadas a gente usou essas histórias ali catalogadas e e elas fazem parte ali da do do da janela de contexto para poder produzir as histórias novas do sistema e E no caso do do do selfie reper a gente também usando a mesma base a gente tem uma base de código da frame né gigantesca e a gente usa o hag ali
para poder catalogar né fazer ali a a indexação desses códigos aqui de qualidade né que a gente fez aqui da frame né e usa isso para poder e vamos dizer assim ser uma base uma base histórica para nossa ia usar na criação dos novos códigos perfeito quem fez essa pergunta foi o Gustavo Lacerda Obrigado Gustavo Boa pergunta isso aqui pra gente é fundamental inclusive quando a gente pensa em Sistemas e outros tipos de soluções de outros negócios né quando você vai trabalhar com conteúdos de dados aí muito grande é uma ótima alternativa para se se
utilizar a base de dados eh então nós utilizamos aqui foi uma boa estratégia é uma maneira também de economizar né Tá vinculado a uma estratégia de redução de custo também eh e isso aqui é acaba que a maneira com que a gente implementou ele você tem algumas camadas né que foram foram adicionadas algum alguns eh alguma arquitetura ela foi montada né mas a gente já tá vendo inclusive bancos de dados que já estão saindo com soluções já prontas né de de rag já hoje no mercado Então o negócio tem avançado muito nesse sentido também mais
alguma Estamos chegando ao final aqui é o Pedro vilaa Qual modelo foi utilizado nessa implementação e existe a possibilidade de criar um servidor local para diminuir custos aí quem quer responder quer falar um pouquinho Rafa Rafa gosta da parte de arquitetura aí né Rafa boa obrigado aí cara a gente usou vários modelos tá ô Pedro eh a gente usa obviamente a gente usa o GPT 4 O que é hoje mais forte no mercado mas ele por questão de custo a gente não pode usar para tudo tá então a gente usa outros modelos ou citar alguns
aqui tá CL 3.5 ah da antropic a gente usa o o lama 3.1 também da da meta e isso no no no no agregado ali ele ele Cada um faz o o seu papel onde ele é melhor então Eh Dando um exemplo aqui na questão de código o o cloud 3 tá se tornando mostrando melhor falando de de criação de histórias aí o GPT 4 melhor então a gente cada um no seu no seu campo ali no seu do que ele traz de melhor a gente usa esse modelo e também usa outros modelos no caso
do lama 3 para ser um revisor também onde como ele tem um custo muito baixo e muito abaixo dos outros dois ele consegue ter ali um uma um uma uma qualidade na sua revisão melhorar ainda mais o resultado tem sem trazer um um aumento de custo grande então a gente faz esse balanceamento e usa outros modelos também né então a gente não vai eh travar nesses três a gente tá sempre estudando os novos modelos estudando eh um estratégias novas ali também né trabalhando até com a a o modelo mesmo modelo interagindo com com com com
ele mesmo para poder melhorar a qualidade aí ter reduzir o custo Então essa questão de criar uma um um uma estrutura de de um só modelo hoje a gente viu que não é mais viável a gente tem que trabalhar com n modelos para justamente reduzir a a a questão do custo né E também a qualidade da do do resultado e aí falando né sobre a segunda pergunta ali como usar a infraestrutura própria com os modelos open source que é no caso o liama 3 a gente consegue usar Nossa infraestrutura própria a gente na verdade usa
faz uso dela né de para poder reduzir e diz a a a vamos dizer assim a gente não está atrelado a um provedor então a gente consegue ter aqui nossa infraestrutura e com a com a qualidade que a gente tem hoje sem necessidade de de est atrelada a Open a atrelado a Microsoft atrelado algum qualquer provedor é o Pedro ele fala ali também de servidor local né Rafa aí e eh hoje o que a gente tem feito são servidores em Cloud E aí do local já fica uma uma situação mais mais complexa Você pode falar
pra gente um pouquinho que que você opinião aí Claro claro é hoje a gente tem o uso eh de alguns modelos nas nas máquinas na verdade a tá testando né o uso de modelos a máquina mas a gente vê que por pelo tamanho do modelo né geralmente a gente tá falando de modelos ali que em torno de dois até 8 ali bilhões de parâmetros esses modelos ainda não tem uma qualidade excepcional né ele dá para fazer alguns tipos de trabalhos fazer parte do fluxo nosso aqui mas ele não consegue trabalhar o fluxo inteiro dentro do
da sua máquina no do Servidor local a gente precisa de um de um de de uma vamos di uma infraestrutura que só a gente só consegue encontrar hoje na Cloud é ou senão você vai ter uma você vai ter um custo e eh que não não vale a pena né você colocar investir em máquinas com tecnologias que vão rodar esse um modelo um pouquinho maior e acaba não viabilizando né perfeito bom eh mas algum ponto também bonald você qu falar complementar isso aí que vocês estão falando a pergunta foi ótima né Então tá tá rendendo
aqui tem que tomar cuidado com o tempo mas eh a gente tem uma preocupação muito grande aqui que é a questão do da segurança então existem vários modelos a gente estuda todos eles a gente interpreta todos eles a gente tenta entender como eles podem ajudar na nossa cadeia só que a gente tá trabalhando muitas vezes com o tesouro do cliente ali né Onde tá a regra de negócio dele onde tá as informações dele então a gente só trabalha com modelos que a gente tem a certeza que não tá expondo né as informações de nenhuma forma
então é uma preocupação muito grande nossa aqui e realmente a gente só coloca esses modelos para tá atuando junto dos nossos projetos quando a gente tem a certeza de que isso não vai de nenhuma forma ali as informações dos nossos clientes ou até mesmo nossas internas aqui né tá perfeito Obrigado bonalde eh pessoal acho que nós já estouramos um pouco o tempo né Eh tem algumas outras perguntas aí também enfileiradas e nós vamos fazer questão de responder cada uma delas eh mas aí pelo horário né respeitando também as pessoas que que tem que dar saída
nós vamos aproveitar para agradecer muito a participação de todo mundo né o momento que vocês tiveram aí com a gente muito foi um prazer enorme é o primeiro webinar nosso específico desse assunto eu acho que assim eh nós estamos com um time aqui tá com dois representantes aí desse desse eh movimento que a frame tem mas que é muito maior tem outras pessoas envolvidas Né desde pessoas que estão desenhando eh as soluções que estão discutindo experimentando no mercado desenvolvedores tem pessoas também que estão acreditando nesse modelo né que tá acreditando na no investimento aí que
tá sendo feito eh e espero que a gente traga muito conteúdo aí pra frente né para enriquecer a a a para também ajudar nesse movimento né para trazer as nossas contribuições e assim a gente tá disponível para aqueles que quiserem explorar mais esse assunto tiver algum compartilhamento quiser passar algum desafio para que a gente juntos eh eh eh para que a gente consiga de alguma forma trabalhar junto com vocês Tás estamos à disposição Rafa quer falar mais alguma coisa agradecer o pessoal mesmo eh tá tá aí até essa hora da noite com a gente aí
muito obrigado pelo seu tempo né E como o Arley falou aí esse aqui é só um um vislumbre de tudo que a gente vai trazer para vocês aí então bem-vindos Aí ao mundo da ia Obrigado Rafa bonalde bom pessoal obrigado aí pela presença de todos que puderam participar eh assim a gente fica ansioso para falar até mais coisa né a gente tem muito o que falar aqui a gente tem um conhecimento acumulado aí já de alguns meses e a gente tem eh esse interesse também de explicar o que a gente tá fazendo de mostrar o
que a gente tá fazendo E hoje foi uma oportunidade eh maravilhosa pra gente aqui então acho que eu falo por todos quando eu agradeço eh a presença de vocês aí o interesse também por isso que foi assim sensacional pra gente poder expor um pouquinho aqui do que a gente tá fazendo bacana pessoal então ó chegamos ao fim novamente agradeço demais contem com a frame somos uma uma empresa né de 15 anos leve que Goa de de de assumir desafios junto com cliente e podem nos procurar que certamente a gente tá muito disposto a compartilhar e
a fazer a testar a desenvolver soluções novas pensando Inteligência Artificial Muito obrigado pessoal boa noite p
Related Videos
Microsoft Fabric na prática: Eficiência com Infraestrutura de Dados | Webinar | ROQT Group
1:10:49
Microsoft Fabric na prática: Eficiência co...
ROQT Group
159 views
Start over-engineering your CSS | Kevin Powell | CSS Day 2024
50:28
Start over-engineering your CSS | Kevin Po...
Web Conferences Amsterdam
14,740 views
Music for Work — Deep Focus Mix for Programming, Coding
1:29:35
Music for Work — Deep Focus Mix for Progra...
Chill Music Lab
1,046,293 views
Inside GPT – Large Language Models Demystified • Alan Smith • GOTO 2024
47:21
Inside GPT – Large Language Models Demysti...
GOTO Conferences
10,495 views
Linus Torvalds: Speaks on Hype and the Future of AI
9:02
Linus Torvalds: Speaks on Hype and the Fut...
SavvyNik
178,584 views
Engenharia de Prompt: O Guia Definitivo
1:26:57
Engenharia de Prompt: O Guia Definitivo
Bruno Picinini
147,164 views
Why Agent Frameworks Will Fail (and what to use instead)
19:21
Why Agent Frameworks Will Fail (and what t...
Dave Ebbelaar
50,707 views
Análise e Desenvolvimento de Sistemas na Estácio (EAD) - Análise Completa
32:01
Análise e Desenvolvimento de Sistemas na E...
Gustavo Caetano
9,651 views
The Story of Shor's Algorithm, Straight From the Source | Peter Shor
31:18
The Story of Shor's Algorithm, Straight Fr...
Qiskit
528,409 views
PROGRAMAÇÃO e SISTEMAS de INFORMAÇÃO: o mundo tecnológico #VocêPodeSer Ep. 12
17:19
PROGRAMAÇÃO e SISTEMAS de INFORMAÇÃO: o mu...
Manual do Mundo
475,329 views
Análise de Dados em Python: Aula 01
3:02:41
Análise de Dados em Python: Aula 01
LABHacker - Câmara dos Deputados
156,413 views
AI and the Productivity Paradox
39:07
AI and the Productivity Paradox
IBM Technology
73,452 views
What is generative AI and how does it work? – The Turing Lectures with Mirella Lapata
46:02
What is generative AI and how does it work...
The Royal Institution
975,784 views
Beyond the Hype: A Realistic Look at Large Language Models • Jodie Burchell • GOTO 2024
42:52
Beyond the Hype: A Realistic Look at Large...
GOTO Conferences
97,059 views
Salesforce Tutorial For Beginners | Introduction To Salesforce | Salesforce Training | Simplilearn
3:33:36
Salesforce Tutorial For Beginners | Introd...
Simplilearn
924,951 views
Como é o trabalho do analista de dados?
41:28
Como é o trabalho do analista de dados?
Universidade dos Dados
15,695 views
eBPF: Unlocking the Kernel [OFFICIAL DOCUMENTARY]
30:00
eBPF: Unlocking the Kernel [OFFICIAL DOCUM...
Speakeasy Productions
94,519 views
PhD Thesis in 1 Day (300$): Open-Source AI
52:58
PhD Thesis in 1 Day (300$): Open-Source AI
code_your_own_AI
4,990 views
Webinar: IA na prática | Sniper Qube
1:24
Webinar: IA na prática | Sniper Qube
Framework Digital
37 views
O que é Big Data - Conceitos básicos
17:58
O que é Big Data - Conceitos básicos
Bóson Treinamentos
165,947 views
Copyright © 2024. Made with ♥ in London by YTScribe.com