Inteligência Artificial Brasileira: Conheça o Projeto da Maritaca ai (Testei!)

336 views3109 WordsCopy TextShare
Cafe Com Inovação
🗒 SOBRE ESSE VÍDEO Você conhece o projeto da startup brasileira Maritaca ai? A Maritalk é um chatbo...
Video Transcript:
Inteligência Artificial brasileira será que funciona eu recebi alguns pedidos aqui no canal para fazer a avaliação de uma inteligência artificial brasileira a Startup maritaka ai com o seu chatbot marital e será que ela atende Será que ela desempenha muito bem como o chat GPT o cloud 3. 5 é isso que você vai ver neste vídeo Eu Fiz alguns testes aqui bem de usuário mesmo então a intenção não é fazer um julgamento sobre o processamento ou sobre todos os dados técnicos da marit ai e do marital mas como se fosse realmente um usuário testando algumas coisas e vamos ver o resultado e se você quer mais vídeos como esse testando ferramentas de Inteligência Artificial já deixa seu like se inscreve no canal deixem aqui nos comentários qual o tipo de ferramenta que vocês querem ver eu testando aqui ou qual ferramenta que isso virará um tema para o próximo vídeo Bom vamos lá eu estou falando da maritaca ai uma Startup brasileira e nasceu em Campinas os seus fundadores Inclusive o seu fundador ele tem uma ligação com a Universidade Estadual de Campinas a Unicamp a qual eu também fui Estudante tem até uma reportagem aqui na época negócios falando que o CEO e fundador da maritaca é o Rodrigo Nogueira eu inclusive Procurei no Linkedin e vi que o Rodrigo fez Unicamp Ele entrou em 2005 na faculdade de engenharia elétrica Eu também estudei ali no mesmo Instituto mas eu fiz engenharia de computação provavelmente devo ter trombado com ele em algum momento da faculdade mas agora ele é o CEO da marit Ki eu deveria ter seguido pela área de programação não é mesmo bom mas brincadeiras a parte daqui a pouco eu vou testar o modelo mas a princípio Esta é a página oficial eu vou deixar todos os links na descrição aqui do meu vídeo e ele fala sobre um modelo chamado sab A3 que é um llm treinado com conteúdo relevante para o Brasil eu acho que essa que é a grande diferença para outras llms onde elas são treinadas com dados da internet preferencialmente em inglês e às vezes quando você vai perguntar alguma coisa algum contexto específico a resposta Ele parece um pouco mecânica um pouco mais voltado para o inglês traduzido e não necessariamente com as palavras ou com alguma coisa relacionada ao Brasil Então esta já é uma diferença para outros modelos tradicionais se você continuar aqui no site Ele explica sobre as apis inclusive aqui um teste específico sobre desempenho em exames brasileiros onde pelo que está demonstrando aqui o sab A3 Ele respondeu uma acurácia melhor por um custo menor Esta é uma grande diferença que eu notei aqui do modelo marit talks ou da Startup onde ela tem um custo mais barato quando nós estamos falando de apis aquelas conexões que principalmente o pessoal da área de programação precisa fazer essas interações com aplicativos obter respostas normalmente as empresas Ou as startups se utilizam das apis da Open ai por exemplo ou da antropic através do Cloud entretanto elas custam e custam em dólares só que aqui a Sabi é cobrada em reais então isso deixa muito mais barato esta conexão aqui neste gráfico Portanto ele mostra uma acurácia melhor por um custo mais barato você pode ver que o cloud 3. 5 sonet para este teste aqui nesses exames teve uma acurácia ainda melhor só que o custo até por falar em dólares ele acabou saindo mais caro e o GPT 4 Turbo aqui nem se compara então né E aqui estão os preços das apis tem diversos modelos Mas vamos pegar aqui o sab A3 que é o modelo que está sendo mais divulgado no site nós temos o custo de r$ 5 por entradas de milhão de token e o custo de saída destas respostas por R 10 por milhão de tokens e também nós estamos falando de uma janela de contexto de 32.
000 tokens só para comparação as da Open a por exemplo trabalham com um modelo de 128. 000 tokens e também com uma tabela de conhecimento que vai até outubro de 2023 e o custo dele por exemplo eu vou pegar aqui do GPT 4 O que é o modelo mais atual custa de 5 a 15 por milhão de token dólares não se esqueça de multiplicar pela cotação então é bem mais caro mesmo e quando eu passo aqui para a api da antropic do Cloud por exemplo o cloud 3. 5 sonet que possui ui uma janela de contexto bem maior são 200.
Copyright © 2024. Made with ♥ in London by YTScribe.com