Olá pessoal tudo bem esperar o pessoal entrar aí n Vamos iniciar mais uma uma live aqui quarta-feira eh a minha ideia como eu tenho dito é fazer uma n uma uma rotina né uma série de de lives toda quarta-feira né para servir primeiro como estímulo né para eu conseguir né me estimular acompanhar toda essa evolução da Inteligência Artificial generativa né enquanto o pessoal vai chegando aqui eu vou explicando aqui o propósito dessas lives e claro né também pelo fato de perceber que hoje é praticamente impossível né você conseguir acompanhar tudo que está acontecendo nesse nessa
área nesse campo então eu quero usar esse espaço aqui né do YouTube do Instagram dessas lives de quarta para funcionar como espécie de terapia intelectual né um momento em que eu posso refletir pensar em voz alta trazer informações trazer novidades para compartilhar com vocês aquilo que eu tenho eh me interessado né Eu já eu digo eu sempre digo né nas minhas nas minhas falas né que eu eu tenho um um obsessão né um uma curiosidade muito intensa eh eh por um determinado assunto e no caso específico atualmente Inteligência Artificial generativa isso me faz eh querer
né Compartilhar eu tenho entusiasmo em falar sobre esse tema e falar sobre esse tema e hoje né já dando início aqui ao nosso eh nossa Live né Eh cumprimentando a todos aí que estão entrando na Live podem eh Se quiserem fazer perguntas podem fazer eu vou tentar eh no final da Live responder essas perguntas porque eu sei que tem muitas inquietações sobre essa sobre o tema da Live de hoje que é justamente a regulação do uso da inteligência artificial no poder judiciário a partir né de uma resolução que foi aprovada ontem né pelo Conselho Nacional
naal de Justiça né temos muitas coisas para falar temos muitos detalhes para discutir sobre essa nova regulação vai afetar a nossa dinâmica de trabalho no uso de a eh Especialmente nos modelos privados que vai ser o meu tópico aqui chat GPT Cloud notebook LM e a minha ideia é é trazer essa visão prática da regulação do uso da dessas ferramentas pelos juízes e servidores eh Já digo de cara né que essa regulação ela não não regula né o uso da Inteligência Artificial né pelos advogados né pelos eh usuários externos da Justiça é é apenas para
os juízes servidores Estagiários enfim colaboradores da Justiça mas obviamente que isso vai ter um impacto também eh na na advocacia né porque os advogados também vão ter que em certo sentido se adaptar eh e passar a perceber né Eh e essa nova realidade que é a existência de modelos de Inteligência Artificial sendo utilizados para auxiliar na prestação jurisdicional né Então essa é a é o motte de hoje então vamos dar início aqui a à nossa apresentação eh e eu quero trazer para vocês aqui um um quadro muito específico dessa resolução nós estamos falando de uma
resolução que tem uma primeira versão aprovada em 2020 que não tratava da Inteligência Artificial generativa nem tratava de modelos privados de Inteligência Artificial essa resolução de 2020 ela tinha como foco principal a regulação do desenvolvimento de ferramentas de a pelo Poder Judiciário Então se a gente analisar essa resolução é muito Ampla ela tem umas 40 páginas eh 80% dela se refere a ao desenvolvimento ferramentas desenvolvidas pelo Poder Judiciário e E por que que isso é relevante né Porque hoje o que se percebeu é que nós estamos vivendo uma espécie de corrida maluca cada tribunal querendo
né desenvolver seu próprio né sua própria ferramenta seu próprio modelo em certo sentido eh e havendo aí uma sobreposição de de ias ou de de custos né em vários tribunais o que não é que não é econômico não eficiente Então a primeira preocupação do CNJ desse contexto primeiro né foi tentar estabelecer uma lógica para o desenvolvimento de ferramentas né robustecendo O sinapses que é um banco né de iniciativas de inovações tecnológicas que usam Inteligência Artificial dentro do Poder Judiciário e para além de robustecer o sinapse também criou detalhadamente uma série de boas práticas que devem
ser observadas pelos tribunais só que o meu foco aqui a apesar de boa parte da resolução tratar disso meu foco aqui não vai ser especificamente ferramentas desenvolvidas pelo Poder Judiciário Meu foco aqui serão as ferramentas os modelos privados que serão utilizados pelos juízes servidores seja pagando do próprio bolso seja eh contratando através do Poder Judiciário né a gente tem essa possibilidade a resolução trata disso então o meu foco vai ser responder algumas perguntas né primeiro né o judiciário pode contratar essas ferramentas já adianto que sim com algumas condições eu vou falar dessas condições e os
juízes servidores podem contratar pagando do seu próprio bolso essas ferramentas também a resposta é positiva Sim Podem contratar podem utilizar com algumas condições algumas ressalvas que a gente vai tratar ao longo dessa apresentação aqui de hoje eu pretendo mostrar para vocês um pouco do contexto que foi essa aprovação dessa resolução não foi uma aprovação fácil né para chegar ao texto final ao texto definitivo que foi aprovado ontem exatamente ontem terça-feira pelo Conselho Nacional de Justiça eh eu fiz parte do grupo de trabalho né que deliberou que discutiu e que redigiu o texto dessa resolução a
minha contribuição foi muito mais focada no no uso da inteligência artificial generativa né que basicamente são dois artigos mas que vai ter uns tópicos né são os artigos 19 e 20 né que eu coloquei aqui eh e vai ter alguns tópicos que vai eh onde a gente vai precisar voltar para outros eh outros itens da resolução mas esse é o meu foco é tentar saber né como é que a resolução vai regulou né o uso da Inteligência Artificial generativa os modelos de llms né de linguagem de larga escala como chat T Claude de psique notebook
LM como isso é tratado pela resolução Esse é meu foco eu já adianto que a gente teve ao eh dentro do debate do grupo de trabalho muitas discussões discussões que envolviam né dois polos bem antagônicos um polo mais inovador né um polo que acredita como eu né que a inteligência artificial generativa pode ter uma enorme contribuição para melhorar quantitativamente e qualitativamente a produção jurídica a produção de conhecimento jurídico e a qualidade das decisões judiciais né todos que me acompanham sabem que eu sou entusiasta do uso da da dessa tecnologia como catalisador epistêmico né onde o
juiz utiliza a ferramenta para ampliar seus horizontes cognitivos conseguir alcançar né uma visão melhor mais profunda mais detalhada e mais rápida do caso né para proferir uma uma decisão de qualidade e eu também sempre defendi ponto que foi destacado em várias partes da resolução a ideia de que nós não devemos delegar para as máquinas o processo de tomada de decisão o juiz é o responsável pelas suas decisões o juiz continua no controle e isso é o princípio básico da resolução tem uma expressão que tem sido utilizada em vários contextos que é o princípio da reserva
de humanidade né a a resolução acolheu Esse princípio estabelecendo algumas zonas que estão dentro da esfera privativa do ser humano a máquina não pode substituir o ser humano naquilo que é essencialmente humano que é a tomada de decisão é o processo de valoração que é o que a gente vai discutir aqui então vamos eh começar a tratar dessa resolução estabelecendo Quais são os requisitos que a resolução trata para o uso da dessas ferramentas pelo juízes servidores primeiro ponto é que houve um debate e entre saber se o judiciário deveria desenvolver seus próprios modelos treinando com
os dados do Judiciário e garantindo aí portanto uma maior eh consistência e qualidade em termos de conteúdo e de estilo né de linguagem de redação eh e claro né uma uma das propostas que tá acolhida isso aí não é não é não exclui o resto que eu vou falar é que o judiciário poderia deveria né o eh seria seria o tópico né seria ideal né que o judiciário conseguisse construir um modelo tão potente quanto o chpt tão potente quanto o cloud né interno local né para funcionar eh sem precisar depender de empresas privadas o nosso
judiciário sempre teve esse propósito desenvolvimentista e inovador né o PJS é um sistema nosso né Creta Desde do início do processo eletrônico nós desenvolvemos internamente ferramentas de processo eletrônico processo administrativo então a Primeira ideia era essa Por que que nós não poderíamos né criar um modelo de Inteligência Artificial nosso treinado com nossos dados sem dependência de empresas privadas isso Tá previsto tá contemplado né se em algum momento da da história da humanidade O Poder Judiciário conseguir construir um modelo tão potente quanto os modelos de mercado né esse deve ser usado preferencialmente né Eh claro mas
aí o judiciário teria que desenvolver ferramentas tão boas contas de mercado porque não é só uma questão de analisar e gerar textos hoje em dia tem a questão da pesquisa tem a questão eh da análise de dados tem a questão dos gráficos enfim são vários recursos né que os modelos privados fornecem e que né somente a gente abriria mão desses recursos se um dia o judiciário conseguisse desenvolver ferramentas tão boas quanto sabemos nós que esse esse mundo ideal é utópico dificilmente vai se tornar realidade no curto médio e longo prazo porque esses modelos são muito
caros para desenvolver Depende de nohow Depende de conhecimento Depende de n de bons eh funcionários né bons um corpo de desenvolvimento muito alto de alto nível e em eh em curto prazo médio prazo longo prazo eu não vejo como o judiciário tenha condições de gastar milhões ou até Bilhões de Dólares para desenvolver o modelo próprio então a partindo da da ideia de que nós não vamos conseguir desenvolver um modelo tão bom quanto os de mercado A ideia é pode o judiciário usar os modelos de mercado a resposta é sim né Nós vamos poder usar seguindo
as recomendações que eu vou colocar E se o se o tribunal né se o poder judiciário não fornece todas as ferramentas necessárias para que o juiz trabalhe adequadamente ou o servidor trabalhe adequadamente nada impede que subsidiariamente esses juízes utilizem essas ferramentas de mercado só que com uma condição capacitação prévia Esse é o primeiro requisito e é um requisito de tão tamanha importância que ele é repetido em umas cinco partes né da resolução resolução fala em treinamento capacitação prévia estabelece Qual é o tipo de capacitação prévia Não é só para usar a ferramenta né É também
para entender os seus riscos também entender eh os seus limites né E é isso que eu tenho tratado no meu curso né o curso de de escrita jurídica com com xpt ele tem né como foco Central ensinar a usar corretamente o que significa dizer ensinar a não usar de modo errado né e isso é um ponto eh importantíssimo para o uso correto da ferramenta esse essa capacitação em primeira linha deveria ser fornecida pelos tribunais né e escolas né o CNJ estabelece como dever dos tribunais escolas da magistratura eh capacitar os os magistrados e servidores dentro
da sua esfera de atuação né fornecer cartilhas fornecer material né de letramento digital de aprendizado contínuo eh mas nada impede isso aí é óbvio nada impede que o indivíduo ser humano o juiz também se capacite por conta própria né Eh eu entendo inclusive que eh nós vamos chegar no nível em que nós teremos eh um um grupo né um grupo de pessoas dentro do Poder Judiciário que estarão dominando essa ferramenta no nível mais alto de alta performance e eles vão ter um grande eh um grande diferencial competitivo né porque a a inteligência artificial generativa ela
deixou de ser uma Hype deixou de ser aquela aquela coisa meio confusa e etéria que ninguém sabia utilizar muito bem né ninguém tinha muita ideia de como funcionava E hoje ela é uma ferramenta né já de cotidiano de rotina né de usando profissionalmente você consegue alcançar excelentes resultados E para isso né você tem que se capacitar tem que estudar né tem que assistir vídeos fazer cursos Essa é a ideia né do primeiro ponto que o CNJ estabeleceu um outro ponto que também é um ponto que é reproduzido em várias partes da resolução aqui é é
preciso que se diga que a resolução ela tem uns pontos de tautologia né Eh mas que não há incoerência elas se repete em vários pontos alguns tópicos uma delas eh colocar né como uma né uma vedação de uso por ser de alto risco o uso da inteligência artificial para tomada de decisões autônomas sem supervisão humana isso é repetido também no artigo que trata da i generativa né no artigo 19 e no artigo 20 duas vezes ali né repetindo praticamente os mesmos requisitos que estabelece que eh não é possível utilizar a inteligência artificial generativa como substituto
da decisão aqui é um outro ponto viu pessoal que eu também tenho tratado muito da ideia de que essa esse mau uso da ferramenta né substituindo a tomada de decisão não é meramente uma limitação ética né que é o Ponto Central A Chamada reserva de humanidade para mim é um pressuposto da dignidade humana que o ser humano deve ser o dono do próprio destino deve tomar as decisões que lhe afetam que lhe dizem respeito que trazem consequência para o ser humano cabe ao ser humano tomar decisões eh que eh vão impactar essencialmente no ser humano
na humanidade Então tem um princípio ético aí de reserva de humanidade que nós não podemos abrir mão mesmo que a máquina tivesse condições técnicas de tomar decisões de fazer julgamentos eh tão bons ou melhores do que o ser humano porém e aqui vem uma questão de limitação técnica né vai ser inclusive o tema da próxima Live Na próxima quarta as máquinas elas não têm hoje um senso intrínseco de Justiça elas não têm uma sabedoria onisciente ela não tem compromisso com a verdade os llms se você entende o modo de funcionamento se você entende os llms
como máquinas de gerar textos baseado em probabilidades que tem um alto grau de aleatoriedade né o modo estocástico que se fala né que vão gerando texto de modo aleatório a cada geração e que eh não tem eh um raciocínio lógico imoral se você entende isso você vai perceber que a proibição de usar essas ferramentas para substituir o raciocínio humano não é meramente uma questão ética uma questão de dignidade é também uma questão técnica as máquinas não tem senso de justiça não tem capacidade de julgamento porque elas não aprendem com e informações reais do mundo elas
aprendem tão somente com textos textos é produzidos no passado as máquinas são muito boas na capacidade linguística formal de construir textos coerentes que fazem sentido que são persuasivos que são convincentes mas se você pega um caso complexo né difícil que pode ser julgado de um jeito ou de outro procedente ou improcedente e se você pede pra máquina analisar e dizer quem tem razão nesse nesse caso a gente sabe que a máquina pode dar respostas aleatórias em alguns casos ela vai dizer que o caso deve ser julgado procedente em outros casos ela vai dizer que o
caso tem que ser julgado improcedente mesmo prompt momentos distintos respostas distintas e isso eh não afasta o poder da máquina de justificar qualquer decisão seja decidindo pela procedência seja decidindo pela procedência a máquina vai ter um incrível poder uma incrível capacidade de gerar um texto fundamentando sua escolha justificando sua escolha a sua tomada de decisão né E aí é preciso compreender que a máquina está tão somente simulando um texto que parece um julgamento humano mas que no fundo é fruto dessa natureza eh estocástica aleatória randômica fruto de uma probabilidade que depende de parâmetros de temperatura
né de enfim eh eh eh Pense numa máquina como uma ferramenta muito evoluída do ponto de vista da linguagem mas muito limitada do ponto de vista da Razão genuína da Razão autêntica É no sentido de tomar decisões pautadas na justiça pautadas eh nos valores eh eh relevantes para o direito enfim Então esse é um ponto central dessa resolução e nós vamos agora passar para um ponto bem sensível né é um ponto que do ponto Vista prático Isso vai ser muito relevante para aqueles que estão usando algumas ferramentas especialmente no modo gratuito ou eventualmente até ferramentas
eh Como por exemplo o de psic né a gente vai tratar disso vai ser bem prático essa análise porque o que a gente vai discutir agora é que há uma condição para o uso da Inteligência Artificial generativa seja contratada pelo Poder Judiciário né seja contratada individualmente particularmente pelos juízes e servidores que é o fato de que nós não podemos utilizar modelos que não tenham compromisso com proteção de dados tanto uma conformidade com a legislação de proteção de dados quanto com o treinamento dos dados que o usuário coloca né nós sabemos que a máquina ela produz
respostas Com base no contexto que o usuário eh indica né o usuário estabelece chamado input o comando o prompt e a máquina vai gerar uma resposta a partir daí né ela pega o texto do usuário e continua esse texto seguindo as instruções que o usuário dá e a dúvida é ah as empresas utilizam ou podem utilizar esses dados que o usuário coloca para treinar e melhorar o modelo daqui pra frente a resposta da resolução é que não pode ser assim nós não podemos usar modelos Como por exemplo o deeps que explicitamente diz que os dados
do usuários vão ser treinados pelo né vão ser usados para treinar o modelo né e isso vai impactar em várias várias questões próprio chpt a gente vai ter que ter uma limitação em relação a isso e mas o ponto tral é que a partir de agora nós vamos ter que olhar a política de proteção de dados das empresas né Nós não podemos simplesmente pegar o modelo e começar a colocar processo judicial dentro o processo judicial tem dados que não são do Judiciário o judiciário ele tem dados de terceiros dados muitas vezes sensíveis números de documentos
dados bancários laudos médicos isso é protegido pela lgpd e portanto você não pode sendo membro do Judiciário entregar esses dados para uma empresa para que essa empresa use de modo indevido né por isso que a resolução diz que nós só podemos usar seja ferramentas contratadas pelo Judiciário seja ferramentas contratadas individualmente pelo juízes servidores nós não podemos usar modelos que treinam os dados do Judiciário Eu sou completamente favorável a isso né eu fui um dos responsáveis por essa deliberação e isso implica que a gente vai ter muito cuidado com os modelos gratuitos né do uso dos
modelos gratuitos para mim os modelos gratuitos são péssimos seja pelas limitações do modelo em relação a próprio funcionamento dele né Eh seja eh pela questão da proteção de dados né Outro ponto importante que a resolução trata especificamente é a vedação de uso de processos sigiloso A não ser que se passe por um processo de anonimização eh não pode usar processo judicial sigiloso né a a resolução não fala de dados sensíveis fala só dos processos sigilosos é proibido a não ser que passe por um né um tratamento prévio para anonimizar os dados pessoais como é que
se dá essa anonimização essa anonimização tem que se dar necessariamente ou de modo manual pelo próprio usuário que dá um trabalho ou com base em alguma ferramenta interna do próprio poder judiciário alguns tribunais se eu não me engano o Tribunal de Justiça do Mato Grosso Ele desenvolveu uma ferramenta de anonimização em que o tratamento é feito internamente pelo pel próprio judiciário em tese eu não posso usar ferramentas como chat PT ou Cloud ou qualquer outro por mais que tenha proteção de dados para anonimizar processos sigilosos porque seria um contrassenso eu estaria dando pra empresa privada
dados sigilosos para que ela anonimizar e ela me retornava esses dados sigilosos então Eh em tese nós temos que em relação a processo sigilosos ou anonimizar manualmente eu já fiz isso algumas vezes dá um trabalhinho mas enfim é o que nós temos para hoje ou usar alguma ferramenta que faça essa anonimização sem mandar o processo externamente né tem um ponto também na resolução que ela estabelece que as empresas têm que ter a privacidade né Por design e por padrão né O que que é isso é que são empresas que T que ter um compromisso com
a a a proteção de dados e que em princípio Não façam um sistema em que os dados são usados a não ser que o usuário peça para não usar né A lógica é os dados não podem ser usados para treinamento da máquina se o usuário quiser que esses dados sejam usados ou autorizar ele tem que fazer uma solicitação isso é o design por padrão né a privacidade por padrão e vamos aqui colocar uma tabelinha né que eu eu eu fiz utilizando uma ferramenta muito bacana do do chpt pro é a versão mais cara do chpt
que permite uma pesquisa profunda e eu fiz uma análise de vários modelos eu tenho fiz de outros também não só esses eu fiz também do perplexity é Ok o perplexity não usa treinamento de dados eh fiz do quen fiz de vários modelos né mas eu vou colocar aqui esses que têm sido mais usados pelos membros judiciário o cloud que para a meu ver é o melhor né é eu recomendo muito aqueles que não usam não tem nenhuma assinatura que se quiserem começar para usar nos no no poder judiciário eh usem o cloud temos o chat
PT que é o mais famoso mais utilizado temos o notebook LM que é outra ferramenta incrível do Google e temos o de psic eh modelo novo desenvolvido na China pela empresa de psic e que né uma eh uma das críticas é justamente a questão da privacidade mas nós temos também eh em relação ao de psic uma uma qualidade por ser gratuito né Ele é de graça e por e e por ser de código aberto portanto em tese né em tese o tribunal poderia ou qualquer usuário particular se tivesse um computador poderoso poderia baixar esse programa
e rodar localmente sem precisar submeter os dados para empresa privada esse tipo de uso do DI psic é o melhor que tem é o é o que protege melhor os dados porque os dados não estão saindo do seu computador estão rodando internamente né sem ser enviado para a China né paraa empresa privado mas em relação a esses quatro modelos né Eh pela pesquisa que eu fiz Nós temos dois que são excelentes em termos de proteção de dados os dois são né os os melhores né em termos de proteção de dados é o cloud da antropic
né porque ele tem uma Filosofia de não usar os dados do usuário se o usuário quiser que use os dados tem que submeter um formulário é super complexo né conseguir se comunicar com a com a antropic que é a empresa que criou o cloud para conseguir autorizar que seus os dados sejam usados mas em linha de princípio Eles não estão usando os dados inclusive nem na versão gratuita né pelo menos é o que diz a política de dados mas essa questão da versão gratuita eu não recomendo porque pode mudar na versão paga é mais garantido
que eles não mudem eh Eles são muito eh éticos em relação a isso eu tenho acompanhado a antropic e ela é uma empresa que eh se destaca entre todas essas outras bigtechs pela preocupação em seguir regras e seguir conduta eh bem rigorosas do ponto de vista ético eh e aí portanto né nela a empresa que eu mais confio do ponto de vista da proteção de dados o cloud realmente tem uma política muito robusta de proteção de dados e não usa os dados do usuário para treinamento né Então nesse quadro eu coloco aqui outras considerações em
termos de política em termos de criptografia termos de certificação né E que portanto nós temos aí uma uma ferramenta que é eh recomendada né digamos assim teria o selo né de não vou dizer do CNJ que eu não tenho esse poder para falar pelo CNJ mas teria o ok em conformidade com a resolução do CNJ o chat ept ele tem um problema o chat ept ele vai ter uma eu vou aqui abrir uma outra página só para que vocês vejam aqui né que o chat PT ele vai ter um problema que é o fato de
que e ele tem uma configuração que e permite fazer uma alteração do do padrão né em tese em princípio e você ter para usar o chat pt em conformidade com a resolução você teria que vi aqui nesse nessa aba das configurações e nessa aba melhorar o modelo para todo mundo você tem que desativar isso daqui se você ativa isso daqui se você aperta nesse botão de ativar você está descumprindo a resolução do CNJ você está permitindo que o o chat IPT utilize os dados do usuário para treinamento por padrão na versão paga ele vem desligado
por padrão na versão gratuita ele vem ativado né então na versão gratuita você não poderia usar o chat GPT né se não desativar isso não fizesse isso e a recomendação também claro é que mesmo na versão paga você vá nas configurações e faça essa alteração da ferramenta então eh deixa eu voltar aqui pro para aquele outro slide Ops voltando aqui então em relação ao Cloud Ok em relação ao chat ept ele entraria num Limbo né OK mas condicionado à mudança da configuração né se for no gratuito eu não recomendo que use se for na versão
paga pode usar desde que você altere a configuração né se Aliás não precisa alterar mas desde que verifique a configuração porque pode ser que em algum momento a empresa ative ali o padrão de eh usar os dados para treinamento e portanto você tem que desativar explicitamente em relação ao notebook LM e também ao Gemini eles utilizam a política da Google de não usar os dados do usuário né então Eh pelo menos na política de uso mesmo a versão gratuita não há uso dos dados do usuário e ele né Inclusive tem um um sistema de deletar
rápido os dados que o usuário coloca né para não ter risco de vazamento ou algo do gênero então em princípio as duas melhores ferramentas pelo menos no papel em termos de proteção de dados Cloud e notebook são as notebook LM da Google são duas ferramentas que estão de acordo né a de cara e eu eu eu eu não vou colocar a versão gratuita porque a versão gratuita ela tem essa questão da maleabilidade a empresa pode pode utilizar aí mudar os a política de uso mas em relação à versão paga ok usar o cloud notebook LM
em relação ao de psic aí vem um problema nós temos aquela questão do do uso do de psic né no contexto de local de uso local se você baixar né o o modelo e usar localmente Ok não tem problema mas o uso na plataforma de psique é uma política de uso completamente complicada primeiro porque ela usa ela só tem a versão gratuita não tem versão paga ela usa os dados do usuário para treinamento ela faz esse uso eh e eh não tem uma política de dados muito muito clara você não tem a opção ele diz
que pode ter a opção de pedir para não treinar mas ninguém acha esse botão não tem né então eu diria que em relação ao dpsc plataforma não pode usar no poder judiciário juizz e servidor não podem usar por estar em desconformidade com a resolução do CNJ e eu diria até também para os advogados aqui é uma recomendação Óbvio é um conselho o conselho que eu daria é que também não usem o DPS A não ser que seja uma plataforma que você criou usando né o o código de psic mas a plataforma de psic ela tem
essa questão do uso de dados do usuário eh eh dito isso vamos passar aqui para outras eh outras condições a gente colocou a até agora duas condições capacitação e privacidade aliás três a proibição de uso para tomada de decisão então autônoma né então são três eh que a gente viu até agora tem mais duas uma delas é vedação de uso a resolução ela se caracteriza por tratar um sistema de risco que categoriza o uso da ia em três tipos de risco risco excessivo é vedado qualquer tipo de aplicação em situações de risco risco excessivo uma
proibição absoluta nenhum modelo nem desenvolvido pelo Poder Judiciário pode entrar no risco excessivo que a gente vai comentar daqui a pouco mas basicamente são situações que colocam eh que geram autonomia da máquina né portanto uma ausência de controle e são situações que colocam em risco grave os direitos fundamentais eh isso seria o risco excessivo e em relação ao alto risco né Nós temos uma dubiedade aqui de tratamento da resolução ela autoriza que o judiciário desenvolva ferramentas nas situações de alos riscos mediante o riso controle de auditoria né e monitoramento né então em princípio nas situações
de alto risco nós poderíamos utilizar Inteligência Artificial mas eh é proibido paraa Inteligência Artificial generativa né a gente vai falar o que é alto risco o que não é mas eh paraa Inteligência Artificial generativa né modelos privados que nós contratamos ou o tribunal contrata não pode usar nem risco excessivo nem em situação de alto risco que a gente vai falar lá na frente e o que é que resta resta a situação de baixo risco nós temos aqui uma série de situações de baixo risco que estão categorizadas lá na resolução e vejam que a própria anonimização
de documentos que eu falei né como uma ferramenta interna que poderia ser desenvolvidas está né Eh categorizada como de baixo risco né execução de auto ordinatória extração de informação aqui é o baixo risco do uso da Inteligência Artificial e de um modo geral né de modo amplo não só da generativa eu fiz aqui uma categorização mais específica né para falar especificamente da Inteligência Artificial generativa O que é que seria e o que é que pode o que é que tá tranquilo ali de baixo risco basicamente são três tipos de tarefa que eu recomendo que se
use isso aí é a base do curso de escrita também e nós ensinarmos a usar nessas áreas de baixo risco mas que ainda assim é é um uso muito poderoso né O que é que poderia Primeiro as chamadas tarefas de transformação textual são aquelas tarefas em que você coloca no input um texto Uma Peça uma petição uma decisão um voto dá uma instrução e a máquina vai produzir um output Com base no texto que você coloca então por exemplo você coloca um texto com erros ou um texto truncado mal escrito e pede para melhorar para
corrigir então a máquina vai produzir um output corrigindo aquele texto Isso é uma tarefa de transformação é uma tarefa de baixíssimo risco outro exemplo uma tarefa de relatório você coloca uma petição inicial né e pede para fazer um relatório seguindo o determinado modelo que você estabelece ele vai transformar aquela petição inicial no relatório que você está pedindo mesma coisa o ementa você bota uma decisão vota um acordão e pede para para gerar uma ementa no formato que você deseja E aí dá uma instrução tem que entender dominar a engenharia de prompt para conseguir controlar a
camada de estilo e e sair exatamente no formato que você deseja mas aí ele vai transformar e vai conseguir e criar ali um rascunho ou até mesmo uma versão final né nesse caso de uma ementa de muita qualidade essa tarefa ela é de baixo risco porque ela não tem conteúdo decisório ela tem um pouco ali de interpretação tem um pouco aí de eh captar no do caso de captar os pontos controvertidos a questão central Mas é uma tarefa de transformação Então tudo isso é considerado de baixo risco nós temos também a possibilidade de usar as
ferramentas para sumarização que chama genericamente a atividade de sumarizar que a gente pode dizer que na verdade é uma tarefa de análise né você pega um caso judicial uma Inicial contestação réplica e prede para ele fazer uma análise do caso extraindo os fatos relevantes questão central pontos controvertidos argumentos do autor argumentos do réu né Isso aí é uma atividade de sumarização de análise é considerado de baixo risco pode ser usada inteligência artificial generativa para essa finalidade nós podemos fazer análise descritiva da prova por exemplo pegar né Eh um uma série de depoimentos e estabelecer os
pontos de coerência e de divergência nas falas seria possível usar isso o estabelecer ter ali eh todas as provas e do de um ponto de vista descritivo né que foram colocadas tudo isso também seria possível ou o mapeamento argumentativo você pede pra máquina eh estabelecer Quais são os argumentos relevantes que foram indicados eh eu sei que muita gente tá usando aí o caso o caso do bolsonaro né que eh o procurador-geral ofereceu denúncia ontem né Eh para tentar entender o caso que é um caso complexo e muita gente tem feito essa essa tarefa de interpretação
análise né um argumento eh o mapeamento argumentativo do caso e isso né seria considerado uma tarefa de baixo risco e é uma tarefa que a máquina hoje faz muito bem no passado não fazia porque a gente tinha uma janela de contexto curta mas agora com janelas de contextos Gigantes e com técnicas de eh análise de textos longos e que as máquinas recursos que as máquinas desenvolveram foram acopladas a esses modelos Delos nós temos eh uma uma máquina poderosa para ajudar o juiz ajudar o servidor ajudar o advogado a fazer essas tarefas de interpretação no sentido
de compreensão do caso factual e jurídica eh mas nunca para tomada de decisão aqui é apenas para entender o caso n para ter uma visão panorâmica do caso ou estabelecer extrair detalhes de um casos complexos ponto importante né que para quem usa a inteligência artificial generativa sabe que ao contrário do que se pensa a inteligência artificial generativa funciona melhor muito mais para aqueles casos difíceis casos complexos do que para casos repetitivos casos repetitivos repetitivos nós nem precisamos de Inteligência Artificial porque a gente consegue ter uma visão rápida do caso né Por exemplo se eu tiver
jogando um caso eh repetitivo que eu já tive 100 casos eh semelhantes não vou usar Inteligência Artificial generativa porque é perda de tempo eu já compreendo caso já sei qual é a questão central n então é diz necessário usar a inteligência artificial para análise de casos simples aqui a gente tá falando sobretudo análise de casos complexos e finalmente também é considerado de e de baixo risco as chamadas a atividades que são tarefas né que são de parceria intelectual de criação colaborativa Homem Máquina simbiose Homem Máquina uma aliança estratégica homem máquina para criar algo diferente né
eu gosto daquela frase uma frase que eu falo muito né que que a inteligência artificial ela não reproduz o passado ela transforma o presente atividad de transformação e ela cria o futuro atividades de criação e aí nesse ponto e eu uso muito essa ferramenta para me ajudar a ampliar meus horizontes cognitivos sugerir novas ideias e estabelecer ali eh algum tipo de contraponto ao meu ponto de vista Então isso é considerado como atividade de baixo risco Então vamos eh especificamente tratar do Risco excessivo e do alto risco aqui eu vou colocar tudo para que a gente
não tenha que fazer uma categorização que só é necessária paraa Inteligência Artificial né discriminativa né ou preditiva paraa Inteligência Artificial generativa é proibido de um modo absoluto qualquer atividade Que implique risco excessivo ou alto risco e eu categorize Essas atividades em dois grupos aquelas tarefas que implica algum tipo de julgamento a juízo de valor isso é considerado de alto risco risco excessivo e portanto não pode ser feito pelo juiz o o juiz não pode usar a ferramenta para substituir o seu julgamento O que implica a tomada de decisão sem supervisão humana eh sem revisão sem
com autonomia da máquina a máquina não pode ser tratada como ser autônomo que decide sozinha né E nós temos que ter e talvez a principal característica hoje em dia é o senso crítico para confrontar a máquina para confrontar a resposta da máquina para perceber que a máquina invada tema da próxima Live e a partir daí n orientar dominar controlar a máquina e não ser controlada por ela esse é o ponto principal reserva de humanidade não devemos deixar que a máquina decida por nós formulação de juízos conclusivos sobre a aplicação da lei é outro tipo de
de proibição que tá lá na na resolução de modo explícito Eh Ou seja eu não posso pedir para para para ia né generativa pro chat GPT ou pro Cláudio dizer essa lei é é inconstitucional né E ela ele diz inconstitucional por isso por isso por isso Isso é uma interpretação que é humana também o juízo de valor sobre a aplicação da lei é é humano né como também a valoração da prova né Eh aqui mais uma vez entra numa limitação ética e numa limitação técnica eh eu juntamente com Fernando Braga um dos grandes especialistas de
prova direito probatório aqui no Brasil e também o Eduardo Vilar que é estudioso tá fazendo doutorado né no uso da inteligência artificial no direito nós organizamos um curso sobre raciocínio probatório lá no trf5 eh com uso de ar né e o Nosso propósito do curso foi mostrar que não dá para usar a inteligência artificial generativa para fazer valoração da prova a gente consegue usar a inteligência artificial generativa na análise probatória análise descritiva da prova e análise crítica do juízo probatório Né né para fazer o confronto de ideias e a máquina conseguir identificar determinados vieses determinados
falhas problemas riscos que aquela prova pode ter mas nunca para dizer por exemplo se a prova suficientes para condenar ou se não há provas suficientes para condenar a máquina não tem esse poder não tem essa habilidade Mesmo que tivesse por uma razão ética nós não poderíamos e utilizá-la para esse fim porque a valoração é uma atividade essencialmente humana e se você quiser saber exatamente eh por próxima quarta vamos falar sobre isso eu vou mostrar né na prática como essas ferramentas são enviesadas e decidem de modo completamente espúrio levando em conta fatores completamente irrelevantes Como a
posição do texto por exemplo né Isso é um problema que a gente não pode desconsiderar e por isso andou bem a resolução em estabelecer que não pode usar a inteligência artificial generativa para valoração da prova também não pode pelo mesmo pela mesma razão para fazer dosimetria de pena você pode usar até para rascunhar eh o texto que vai gerar a dosimetria da pena mas a aplicação da pena o Quantum da pena quantificação da pena ou a quantificação do dano moral do arbitramento do dano moral também a máquina não pode fazer e se você achar que
a máquina consegue fazer eu peço que você faça um teste Pegue um caso lá peça para ele aplicar uma pena ou então peça para ele quantificar o dano moral e depois pegue o mesmo caso o mesmo prompt o mesmo contexto e peça para ele quantificar de novo em outra em outra conversa muito provavelmente ele vai dar um valor diferente ele não vai seguir o mesmo padrão porque a cada nova conversa ele inaugura um novo contexto e decide eh de modo randômico então portanto não podemos confiar nessa valoração nem na dosimetria nem no arbitramento e também
análise de risco eu converso com vários advogados que usam a ia no dia a dia e diz que aá salvou a vida deles porque consegue fazer análise de risco de contrato de um jeito que eles nunca conseguiriam antes né com muito mais qualidade e eu falo você tá usando errado a ferramenta a ferramenta tá lhe enrolando você está ativando um a e malandrão que vai L engabelar que vai construir um texto para ling Abelar análise de risco é juízo de valor a máquina ela po pode gerar um texto dizendo que o risco é de 80%
e logo em seguida né dizer que o risco é de 30% né porque ela também tem esse caráter randômico aleatório baseado em probabilidades e portanto não é confiável E aí a resolução também elenca uma série de proibições de uso da ia de um modo genérico Mais especificamente do uso da ia generativa para aquelas situações que podem impactar em direitos fundamentais eh eu já falei né quantificação eal iação de danos né Eh você estaria né em certo sentido decidindo a vida de pessoas com base na sorte dos dados né completamente randômico o que portanto violaria né
o direito de de individualização da pena e de uma pena justa E adequada né se você utilizasse a inteligência artificial e também né a reserva de humanidade que deve ter no julgamento e na responsabilidade de aplicar pena Lembrando que toda decisão judicial por mais que tenha sido feita com auxílio de a a responsabilidade é de quem assina a responsabilidade é do juiz não pode também utilizar para fazer avaliação de personalidade para prever reiteração que é o problema do compas eh você usar a ferramenta como espécie de precog né que vai antecipar a o nível de
o escode de periculosidade de um réu com base em fatores que podem ser discriminator N E aí por conta disso é a nossa resolução proíbe esse tipo de uso né de qualquer Inteligência Artificial mas obviamente também a inteligência artificial generativa ou perfilamento ou ranqueamento de pessoas Imagine que você Estabeleça né uma tem uma lista de pessoas e peça para ia fazer um ranking para saber quem são os bons pagadores ou os maus pagadores o judiciário não pode fazer isso o judiciário não pode usar EA para essa finalidade de ranquear pessoas ou classificar sentimentos ou emoções
imagine um aa que no meio de uma audiência diga eh a testemunha está muito nervosa portanto ela está mentindo né Eu estou olhando aqui os micro sinais do rosto dessa pessoa e eh indica que ela está eh faltando com a verdade esse tipo de inteligência artificial para saber se a pessoa tá feliz tá triste tá nervosa não está nervosa ela também está proibida não pode usar inteligência artificial para isso né ou identificação de perfis ou padrões comportamentais é são as situações de al risco de risco excessivo para que eh para que fique mais claro eu
coloquei esse quadrinho aqui né que não vou falar obviamente Eu já comentei aqui rapidamente Mas vou deixar aí para quem quiser dar um print na tela né que tem eh exatamente a situação que é estabelecida pela resolução né O que que é proibido ausência de de revisão valoração de perfis enfim ranqueamento de pessoas e exemplos práticos né em que isso poderia ser colocado isso para risco excessivo para essas situações não pode usar nenhum tipo de Inteligência Artificial nem a generativa nem a discriminatória discriminativa nem a a preditiva nenhuma Inteligência Artificial pode ser usada nessas situações
de risco excessivo para essas aqui eh que está no anexo são de alto risco você pode usar a inteligência artificial preditiva ou discriminatória mas não pode usar Inteligência Artificial generativa né então você não pode usar Inteligência Artificial e eh e artificial generativa por exemplo para valoração da prova como a gente falou ou tipificação penal ou juízos conclusivos que não admitam revisão tudo isso aí eh está previsto na resolução e a gente caminha aqui pro final para o último tópico para falar sobre eh labeling né que é a transparência né o eh deve ser indicado na
sentença no texto da sentença ou não deve ser que aquele juiz aquele magistrado aquele servidor aquela unidade judicial está utilizando inteligência artificial para tomada de decisão para o auxílio né na redação na elaboração de textos ou né no mapeamento argumentativo no resumo do caso eh deve ser colocado né de modo explícito no texto da decisão ou não esse foi um debate que teve ao longo né do da resolução houve mudanças eh no texto eh iniciou-se com dever de rotulação explícito até se chegou num formato que me parece bem adequado bem bem razoável que é o
seguinte basicamente o que se exige é que se eu juiz uso inteligência artificial na minha unidade judicial eu tenho que rotular no sistema então no sistema eletrônico vai ter um campo que diz que aquela unidade judiciária usa a inteligência artificial para o auxílio à tomada de decisão então aqui é uma mudança que tem que ser feita em nível de sistema em nível administrativo né mas que vai ficar registrado que aquela unidade usa i a se eu usar o a e a eu não sou obrigado a colocar na sentença na decisão que eu estou usando ia
é facultativo fica a critério do magistrado decidir se coloca ou não no texto essa rotulação esse sinal essa marca d'água de que aquela decisão teve auxílio de a né porém E aí viem um ponto que eu acho que resolve o problema é fundamental a resolução exige que você comunique a corregedoria para que eh a corregedoria analise qual é o modelo que você está usando analise se você tem capacitação para usar aquele modelo se o modelo está de está de acordo com a proteção de dados né Então essa é a a exigência é um controle Via
Corregedoria da do magistrado que está usando a ia para saber se está usando corretamente se está capacitado para usar EA Qual modelo está usando Então tudo isso é uma comunicação que a gente faz a corregedoria eh então basicamente a gente encerra aqui a nossa Live eu não sei se eu vou se tem perguntas eu vou aqui tentar abrir no YouTube pra gente eh ver as perguntas que são feitas mas eh veja que é uma resolução é Que Eu tratei apenas de um tópico né que é um TP tóp eh Eu tratei apenas de um tópico
que é é o uso da inteligência artificial generativa é uma resolução muito mais Ampla porque trata também do desenvolvimento de ferramentas e vamos aqui ver algumas perguntas que foram feitas aqui no no chat né vou ver aqui acho que tem várias perguntas Anderson Fabrício né bom dia como seria possível essa fiscalização da animação dos dados Considerando que as partes também têm acesso ao processo e podem usar ia nesse caso é uma questão de eh se você estiver usando EA eh e eventualmente esses dados vazarem né e ficar se se descobrir que o vazamento veio por
sua culpa né então você é responsabilizado mas em princípio né não vai ter como saber se a pessoa eh usou esses processos sigilosos né se os dados nunca forem vazados porque esses modelos eles protegem os dados ao contrário do que se imaginava antigamente n todo mundo antes de de entender como funcionava achava que uma vez que você tá conversando com a máquina essa conversa se torna pública e não é a conversa usuário máquina usuário modelo é uma conversa privada aquela conversa não é usada não é não é publicada né não é pública é uma conversa
privada entre homem e máquina e a empresa também não pode usar aquela conversa para treinamento né então é ela fica ali como se tivesse colocando um processo no Google Drive é a mesma coisa ou no Dropbox ou mandando por e-mail é privado só que pode vazar se vazar você é responsável né Eh Anderson mais uma vez em qual classificação de risco se enquadraria um prompt solicitando a revisão de minutos apontando por exemplo se o decidido contraria algum precedente vinculante aqui não é uma questão tanto de de eh de de prompt né A questão é os
modelos atuais eles têm uma péssima capacidade de pesquisa de olhar para trás para saber se aquela decisão eh está ou não de acordo com o precedente vinculante que você poderia desenvolver e isso é de baixo risco uma ferramenta dentro do próprio poder judiciário ou privada mas que fizesse que tivesse esse poder essa capacidade de consultar precedentes relevantes para a partir daí ificar se aquele caso está ou não de acordo com eh a jurisprudência dominante eh isso já existe inclusive nós temos modelos desenvolvidos pelo Poder Judiciário que faz faz isso né que permite fazer esse confronto
chat PT não faz Cloud não faz notebook LM não faz você precisa dizer quais são os precedentes para que ele diga se a sua decisão está de acordo com o precedente e para para isso você precisaria Ter uma estratégia que não é prompt é modelo né de de rag em que você vai colocar para o modelo consultar documentos externos e fazer o confronto daquela decisão com os precedentes Mas isso é considerado de baixo risco n eh de baixo risco mas não quer dizer que dá para fazer com inteligência artificial generativa sem as técnicas adequadas nós
precisaríamos ter um modelo que fizesse essa pesquisa né para trás e hoje os modelos não fazem né não fazem bem mais uma poderia ser usada para apontar contradições e depoimentos baixo risco isso é tarefa de eh transformação né É É a tarefa que eu falei de você pegar né uma série de documentos pedir pra máquina fazer uma análise ela vai fazer uma análise linguística daquilo ali para saber as contradições isso a máquina faz muito bem a máquina é muito boa para essa tarefa né de de identificar contradições nos depoimentos E desde que você não Considere
a a valoração probatória que pode derivar daí por exemplo você pode pegar um caso trabalhistas eu vou fazer essa demonstração para que a gente não fique e voando né eu vou fazer aqui na prática quem sabe faz ao vivo vamos ver aqui e um modelo prático vou pegar um caso e E aí eu vou fazer os dois modelos o que o que pode fazer o que não pode fazer com com ia né então vou pegar aqui um caso trabalhista caso trabalhista em que tem uma audiência aqui já anonimizada né como é um caso que eu
uso para treinamento Eu não eu os dados né estão anonimizados devidamente anonimizados eu vou pedir aqui essa audiência Ela tem ela tem uma são são depoimentos quatro depoimentos que tem contradições entre si Então vou pedir aqui pro modelo construa uma tabela para identificar os opa ficar os pontos de convergência e os pontos de divergência de divergência contradição e incoerência nos depoimentos eh em todos Vou colocar aqui em todos em todos os depoimentos isso aqui é a tarefa que pode é uma tarefa de baixo risco e uma tarefa que a máquina faz muito bem ela vai
ler a transcrição dos quatro depoimentos e vai construir rapidamente em poucos segundos uma tabela de altíssima qualidade eu vou até eu tô usando chat PT né podia ter usado o cloud né vamos ver aqui aumentar aqui um pouquinho a letra para vocês clud tá demorando pouco enquanto enquanto enquanto o chat PT produz essa tabela eu acho que tá com algum tipo de de demora em termos de uso mas eh só para mostrar para vocês que hoje dentro do do Poder Judiciário né foi lançado agora esse portal para quem é do Judiciário e não conhece esse
Portal é incrível é oficial é da Justiça né E que tem vários serviços depois eu vou fazer uma live só para explicar Ele tem os vários serviços que a gente já usava naturalmente a najus o bassen jud o renajud tem vários outros e um deles é uma inteligência artificial vinculada a a todos os processos eletrônicos em que se eu coloco aqui o número do processo ele já me permite fazer e o uso de uma inteligência artificial eh do próprio poder judiciário min é muito boa Depois eu mostro isso e vamos usar o cloud porque o
chat IPT tá tá chatinho vou abrir aqui ã o caso trabalhista podia ter aproveitado pelo menos o prompt lá né e faça uma tabela apontando os pontos de divergência contradição e incoerência e os pontos de convergência de todos os depoimentos de todos os depoimentos eh aqui eu não tô fazendo nenhum tipo de prompt mais elaborado né porque é uma demonstração mas claro se eu tivesse usando profissionalmente eu teria feito antes uma análise f do caso uma coisa mais específica e eh aqui a máquina está fazendo essa tabela identificando todos os pontos de convergência e todos
os pontos de divergência isso é análise descritiva da prova é uma compreensão linguística semântica de coerência em coerência que a máquina consegue fazer muito bem o que é que não pode fazer né aí eu vou dar um exemplo negativo não pode estar proibido pela resolução por razões éticas e por razões técnicas desenvolva analise usando métricas de jurimetria técnicas avançadas de análise de dados quem está dizendo a verdade isso daqui é o que é proibido porque entra no campo da valoração né da análise de credibilidade e e veja que ele vai construindo um argumento uma tabela
né que coloca eh pontos e de quem né nível de detalhe alta média tá baseando nos detalhes de carada um que disse isso daqui é um Einstein malandrão criando uma resposta convincente que é completamente aleatória randômica completamente uma enganação uma enrolação então nós temos aqui algo né um exemplo de uso errado da ferramenta né não pode fazer isso a máquina tá faz fazendo isso mas ela não está efetivamente avaliando corretamente fazendo análise real ela está apenas simulando um texto que parece fazer sentido mas não faz se eu aperto nesse botão de gerar uma nova resposta
ele vai mudar completamente né a os percentuais A análise que ele fez porque Justamente a máquina não tem esse poder de fazer essa análise Ok vamos aqui continuar ver se tem mais alguém perplexity a Jane perguntou sobre o perplexity o perplex ele está em conformidade com a resolução do do CNJ eh mas vai ter aquele aquele sinão aquele problema do da questão de ser eh gratuito Se você usar a versão gratuita sempre vai ter um risco porque você não pode ter certeza que eles não vão mudar a política de uso a versão paga é mais
segura mas o perplex ele ele não tá usando propriamente eh uma plataforma própria o perplex ele pega os seus dados a sua solicitação né a sua consulta manda paraas apis externas e devolve a resposta eh em princípio o perplex Está ok está de acordo com a resolução n eh eh não vou dar uma garantia 100% em relação ao gratuto mas na pesquisa de research que eu fiz sim e a análise que foi que que foi apresentada foi que o perplexity não usa dados do Poder Judiciário eh CoPilot o CoPilot ele é uma ferramenta da Microsoft
que usa o chat GPT como pano de fundo e que ele tem também uma política de proteção de dados sobretudo quando é enterprise é institucional é organizacional eh e nesse caso né Nós temos duas duas vantagens e uma desvantagens duas vantagens em termos de proteção de dados é que a Microsoft que é o dona do CoPilot tem uma governança forte aqui no Brasil e portanto pode ser responsabilizada por qualquer falha né se ocorrer vazamento de dados né diferente das outras empresas que não tem representação no Brasil e portanto o nível de governança de accountability de
responsabilidade Aqui no Brasil é fraco eh e ela tem uma política também de contratação que garante que os dados do que são utilizados nessa contratação corporativa não vão pra api da opni ela fica realmente restrita a uma uma relação privada no Brasil em que os computadores da Microsoft né ficam eh garantem a proteção de dados né Tem uma polí maior de proteção de dados Esse é o lado bom o lado ruim é que o CoPilot é ruim CoPilot não presta o CoPilot não funciona bem para as análises jurídicas a minha experiência com CoPilot é frustrante
não dá para usar o CoPilot para fazer 10% do que a gente faz com chat IPT com Cloud com o notebook LM e portanto ela é uma ferramenta que ela é prática porque tá ali dentro do sistema gratuita porque o o o órgão paga mas se se você quer usar mesmo né de modo profissional para alta performance o CoPilot não funciona né o o o antes comentou a Maria glícia Professor percebo que o chpt tem apresentado um erro a identificar dados sensíveis solicitando seja recarregado o documento como resolver não conheço esse erro o que eu
sei é que eh no o que pode acontecer é uma dentro do alinhamento ético eh a máquina ter pudores em processo informações que sejam sensíveis ou que envolvam eh assuntos sensíveis por exemplo um caso de estupro um caso de família um caso de violência de extrema violência Pode ser que a máquina ela se Negue a fornecer essa resposta para isso você vai precisar usar técnicas de prompt Mais especificamente de Jailbreak que é uma técnica de prompt para meio que eh conseguir burlar essas proteção do proteções do alinhamento ético mas eh isso decorre dessa dessa preocupação
dessas empresas em não ter eh processamento de informações sensíveis qual é o site é jusbr né Paulo Teixeira o nome do site é www para quem é e tá uma ferramenta muito legalzinha porque você bota o número do processo não precisa ficar nex super aprendizagem né usando ia é outro tópico que dá pra gente explorar cada vez mais a i ela é mudou completamente a minha forma de aprendizagem enfim eh vejo aqui que a gente tem né chegamos ao final né com várias colaborações foi uma live live muito rica né uma live que a gente
eh vai ainda digerir né todas essas mudanças eh ao longo eh do do tempo eh e eu espero que a gente tenha eh uma uma aplicação correta dessa resolução né para evitar o risco ex próxima aula né próxima aula próxima Live nós vamos falar sobre os vieses da máquina justamente para mostrar que esse problema do julgamento pela máquina não é só uma questão ética é também uma questão técnica uma falha humana e uma falha da máquina em conseguir processar informações então era isso pessoal até a próxima valeu muito obrigado ah