dia neste momento iniciamos o segundo dia da audiência pública para debater a minuta de ato normativo que dispõe sobre a regulamentação do uso de sistemas de Inteligência Artificial generativa baseada em grandes modelos de linguagem no poder judiciário informamos que para os que participam virtualmente o registro de frequência deve ser feito por meio do link disponibilizado na descrição deste vídeo para quem participa de forma presencial a frequência foi registrada durante o CR as audiências públicas organizadas pelo Conselho Nacional de Justiça seguem formalidades para sua viabilização assim em respeito às tradições desta casa e aos argumentos defendidos
pelo senhores expositores não serão permitidas quaisquer formas de manifestações não previstas e pronunciamentos com temas estranhos à audiência solicitamos que atentem para limitação de tempo oferecido a cada expositor e instituição credenciada não haverá tempo adicional para reprodução de vídeos ou slides informamos que o que o cronômetro será acionado ao início de cada exposição para evitar incorreções relacionadas à contagem do tempo para que todos tenham a mesma oportunidade pedimos aos participantes que se atém ao tempo determinado de fala que é de 15 minutos para condução dos trabalhos tem a palavra o conselheiro luí Fernando Bandeira de
Melo muito bom dia a todas e todos aqui presentes é uma satisfação enorme retomar essa audiência pública eh sobre o tema da da inteligência artificial no poder judiciário eh eu quero fazer um agradecimento muito particular aos convidados que hoje se encontram conosco né já nominare eh individualmente e também aos membros do GT que nos acompanhando aqui n e e evidentemente aqueles que nos assistem presencialmente e remotamente ontem foram mais de 350 eh pessoas acompanhando a nossa a nossa audiência pública e e acredito que os resultados têm sido muito interessantes Eu me permito brevíssimo comentário até
para contextualizar a todos ah essa resolução minuta de resolução né proposta pelo pelo GT ficará em discussão três dias né aqui no aqui no CNJ já já recebemos inúmeras manifestações nós temos um Montamos um um sistema em que pela manhã como todos todos senhoras e senhores Ah nós convidamos os especialistas que foram indicados pelo GT né e à tarde nós ouvimos aqueles que se inscreveram né a partir do edital né e e foram selecionados sempre com a preocupação né de diferentes representações regionais de de gênero de representações de instituições né E aliás acho que essa
mesa já já bem representa né estamos Ah pois é se se me excluir as mulheres estão em maioria como deveriam ser sempre né mas eh talvez até possamos solucionar esse problema muito em breve ali e e deixá-los deem maioria Evidente eh eu quero então novamente agradecer a todos e ah iniciar desde logo para para sem mais retardos os nossos os nossos debates ah inicialmente eu passarei a palavra à professora Ana Frazão ah advogada e professora de Direito Civil comercial e econômico aqui na Universidade de Brasília e minha queridíssima amiga e eu vou cometer uma pequena
confidência Ana acho que não na verá nenhum problema Ana Frasão recentemente publicou um artigo no acho que foi no Correio Brasiliense ou né Eh no J no J né em que discutia exatamente isso a necessidade do do CNJ se pronunciar sobre o uso de Inteligência Artificial né tinha até um pontadinha de crítica porque dado processo você achava que podia ter dado dado processo até achei que não que o melhor é esse procedimento fazendo aqui agora e de consulta pública mas eu lembro que assim que eu vi o artigo eu falei pra Ana eu vou querer
você lá na audiência pública vamos discutir junto publicamente porque a ideia é isso eu quero aproveitar as suas ideias são maravilhosas Ana tem uma visão incrível de não só sobre inteligência artificial mas sobre o funcionamento do próprio sistema de justiça e e por isso tudo Eu agradeço profundamente Ana você tá aqui com a gente hoje tá e te passo a palavra para falar um pouquinho sobre os riscos da utilização de a pelo Poder Judiciário fique à vontade bem Bom dia a todos é é um prazer enorme participar dessa audiência pública eu cumprimento o conselheiro Bandeira
de Melo em nome do qual também cumprimento todos aqui e até diante da exiguidade do tempo São 15 minutos né Conselheiro vou tentar então ir direto ao assunto a minha ideia aqui não é obviamente fazer comentários pontuais sobre a resolução até porque o tempo não permitiria mas talvez trazer alguma as considerações ao meu ver mais estruturais sobre a própria utilização de inteligência artificial no poder judiciário Especialmente na modalidade generativa eu acho que há uma série de pontos que precisam ser equacionados antes da gente começar a pensar nessa utilização de uma maneira compatível não só com
os propósitos e os princípios a que o judiciário está subordinado mas também com os próprios direitos de todos os que serão afetados por esse sistema inclusive também do ponto de vista da proteção de dados pessoais eu tendo a ver a utilização de Inteligência Artificial seja a partir de modelos proprietários seja a partir de modelos que são especificamente contratados por instituições públicas ou privadas como espécie de terceirização de atividades para mim é muito claro que hoje a inteligência artificial ela vem possibilitando uma nova onda de terceirização que traz complicações na atividade privada mas traz complicações ainda
maiores na atividade pública porque em muitos casos estamos falando de competências indelegáveis eu acho que em primeiro lugar é importante acentuar Esse aspecto uma inteligência artificial e sobretudo Inteligência Artificial generativa não pode se comparar a uma mera ferramenta a uma mera tecnologia sobretudo quando ela oferece outputs que estão conectados diretamente à atividade fim do Judiciário sobretudo quando ela participa do processo decisório e vejam aqui eu não me concentro somente na figura do da ideia do juiz robô da ideia de sistemas que eventualmente se substituam a juízes Mas a partir do momento que temos esses sistemas
participando de momentos decisórios que são cruciais do Judiciário na prática está havendo essa espécie de parceria e a gente não pode subestimar a importância inclusive de uma série de Atos preparatórios como classificação de processos para para esse fim Todos nós sabemos que a classificação de processos não é algo apenas objetivo é algo que envolve muitos casos uma interpretação jurídica é algo que em muitos casos será determinante para o destino daquele processo então ainda que eu consiga vislumbrar diferentes graus de risco mas é importante acentuar que se de fato essa tecnologia passa a ser incorporada não
apenas como uma ferramenta mas quase como um auxiliar decisório do poder judiciário precisamos pensar com muito cuidado como se dá esse tipo de terceirização não faríamos isso para uma pessoa de carne e osso até em razão das limitações do próprio regime de direito público fazemos então isso com muita naturalidade para um sistema de Inteligência Artificial que muitas vezes é desenvolvido por um ator privado um ator privado que muitas vezes é cliente do Judiciário um ator privado que muitas vezes tem interesses diretos no judiciário um ator privado dado que muitas vezes tem também como clientes ou
usuários uma série de pessoas que atuam no judiciário escritório de advocacia E tantas outras questões então vejam que temos aqui um primeiro ponto em que medida determinados processos decisórios que em princípio são competências indelegáveis do Judiciário poderiam ser Delegados Total ou parcialmente para esses sistemas temos um problema de proteção de dados e de garantia de jurisdicionados de todos os afetados por decisões como essa mas temos também algumas questões relacionadas por exemplo a potenciais utilizações indevidas de informações confidenciais e também conflitos de interesse isso vai se projetar sobretudo se estivermos falando até mesmo de contratações específicas
para o poder judiciário quem serão esses que serão contratados para oferecer esses sistemas que interesses diretos eles têm no poder judiciário Quais são as medidas de salvaguarda que estariam presentes nos contratos para de fato assegurarmos a proteção de dados e uma série de outras questões como lidarmos por exemplo com o segredo de empresa que até hoje é um problema crucial para entendermos as questões relacionadas à Inteligência Artificial que sobre vários aspectos continua sendo uma grande Black Box uma grande caixa preta sem qualquer tipo de Transparência alguns diriam que inclusive Esse é um problema não apenas
jurídico mas um problema técnico ou seja sobre vários aspectos uma decisão que é oferecida por um sistema de Inteligência Artificial ela não seria propriamente explicável mas ainda que pudéssemos do ponto de vista Técnico pelo menos entender minimamente como a partir de determinados inputs se chega a determinados outputs muitas vezes é o segredo de empresa aquele elemento que do ponto de vista jurídico impossibilita uma maior compreensão dessas questões como lidar então com esse problema quando estamos utilizando esses sistemas para atividades fim do Poder Judiciário Será que é possível prosseguir sem entender mínimamente como esses sistemas funcionam
Será que é possível operacionalizar Inclusive a supervisão humana sem entendermos repito mais uma vez a lógica desses processos decis esses para mim são pontos muito importantes e que nem sempre ao meu ver tem recebido a devida atenção me parece que estamos diante de um processo que é muito mais amplo do que apenas a incorporação de uma nova tecnologia não estamos falando portanto apenas de uma ferramenta adicional Ah é um novo computador é um novo software estamos falando sim de sistemas que participarão em maior ou menor grau desses processos decisórios e portanto todos ess esses elementos
verificar a compatibilidade disso com os princípios de Direito Administrativo notadamente com os princípios que regem o poder judiciário proteção de dados segredo de empresa e tantas outras coisas ao meu ver são cruciais para que possamos realmente avançar e repito para mim a questão dos conflitos de interesses e utilização indevida de informações privilegiadas é um tema que precisa ser enfrentado o que fazer por exemplo exemplo quando um juiz ele disponibiliza dados confidenciais de um processo em um sistema de Inteligência Artificial generativa O que fazer quando o próprio judiciário está pensando em contratar um modelo específico para
lidar com esse tipo de caso como evitar não só a proteção desses dados e repito aqui vai além de dados pessoais porque em muitos casos estaríamos falando de informações confidenciais de pessoas jurídicas que não estão sujeitas lgpd mas estão sujeitas igualmente a uma proteção algo que se não é assegurado pode gerar uma série de distorções concorrenciais e repito como assegurar então que isso possa acontecer de uma maneira eficiente sem os conflitos de interesses Ainda mais quando Muitas vezes os agentes desenvolvedores dessas tecnologias T estruturas empresariais que são extremamente pulverizadas nem sempre de fácil compreensão o
que muitas vezes também dificulta a implementação de medidas efetivas para evitar essa essa utilização indevida de informações privilegiadas separação de negócios ou mesmo o conflito de interesses dito isso também me preocupa de forma geral a ideia de uma utilização de Inteligência Artificial sem maiores preocupações porque em muitos casos se parte da premissa de que esses sistemas eles seriam melhores do que o ser humano e de fato do ponto de vista da acurácia Sem dúvida nenhuma que estamos diante de uma situação na qual Sim esses sistemas conseguem oferecer um grau de acurácia maior do que aquele
do juiz humano mas falar em decisões judiciais falar em processos decisórios que acabam levando a essas decisões judiciais é falar de uma realidade que requer muito mais do que acurácia até porque ninguém quer segurança jurídica ao preço da iniquidade e todos nós sabemos que Como regra esses sistemas têm uma dificuldade muito grande em lidar com vários dos aspectos que são fundamentais para decisões sobre valores Inteligência Artificial até agora pelo menos não trabalha com uma série de aspectos fundamentais do juízo humano Ela não trabalha com causalidades mas tão somente com correlações ela não trabalha com constrições
ela não trabalha com contrafactuais ela olha para o passado para de certa forma replicar o passado no futuro quando nós sabemos que o movimento da jurisdição e do Poder Judiciário é sempre a busca de um equilíbrio entre a estabilidade e a mudança como portanto então chegarmos a esse ponto de equilíbrio se estamos cada vez mais utilizando sistemas que olham para o passado e que exatamente por isso tenderão a replicar no futuro um passado ainda que com todas as iniquidades porque muitas vezes o que o que estamos vendo é que a suposta neutralidade não deixa de
ser uma postura ativa pela manutenção do status quo ainda que com todas as suas deficiências as suas iniquidades as suas discriminações e é por essa razão inclusive que nós sabemos que quanto mais arraigado um preconceito se encontra numa sociedade mas ele tende a ser visto como um padrão pelo sistema de Inteligência Artificial e por tanto mais ele tende a ser replicado isso sem falar em riscos de alucinações e tantos outros que já estamos mapeando diante de uma certa experiência que já temos portanto com inteligência artificial mesmo quando partimos para modelos de Inteligência Artificial generativa os
llms e todas as questões o que nós estamos vendo É que na verdade esses modelos eles se baseiam muito mais numa fluência que muitas vezes é estabelecida a partir de cálculos probabilísticos do que propriamente em qualquer compromisso com a verdade e daí pantos inúmeros casos de respostas que são totalmente descoladas da realidade quando não bizarras o que realmente mostra a necessidade de uma supervisão humana muito ativa também quando estamos nos utilizando desse tipo de Inteligência Artificial me parece que em qualquer situação duas perguntas fundamentais até para o cidadão que se coloca quando estamos diante da
utilização desses modelos diz respeito a estamos dispostos a assumir moralmente aquela decisão que é oferecida pela máquina porque a máquina em princípio não tem responsabilidade moral mas quando um ser humano incorpora a decisão da máquina ele passa a ter a responsabilidade moral de estar utilizando esse output da máquina isso para não falar de uma série de outros desdobramentos como dever de Transparência de dizer que de fato A decisão foi baseada no sistema de Inteligência Artificial e tantos outros aspectos Então esse é um ponto importante para Além disso há um aspecto fundamental de se saber há
conhecimento técnico e consciência crítica inclusive para questionar o resultado da máquina e Aqui nós temos que nos atentar para o fato de que ainda muito pouco conhecimento sobre essa relação entre homem e máquina dizer que o juiz ou o servidor do jud terá a Palavra Final sobre vários aspectos pode querer dizer muito pouco o que é exatamente essa palavra final principalmente diante de um sistema em que muitas vezes diante de uma série de preocupações quantitativas atendimento de estatísticas haverá muito mais incentivos para se chancelar a criticamente os outputs de uma máquina do que propriamente para
se fazer uma avaliação crítica sobre aquele resultado E aí sim se exercer uma supervisão humana efetiva por outro lado como é possível exercer essa supervisão humana efetiva se tão pouco se conhece sobre esses sistemas repito se eles ainda estão envoltos em tanta opacidade não só do ponto de vista técnico como também do próprio ponto de vista jurídico e aqui a gente não pode desconsiderar que pelo bem ou pelo mal a nossa lgpd sob vários aspectos é uma lei de defesa e proteção de dados pessoais mas é também uma lei Por incrível que pareça de proteção
de segredo de empresa a segunda competência da npd depois de proteger dado pessoal é proteger segredo de empresa não há praticamente nenhum direito do usuário nenhum princípio como transparência que não esteja sempre vinculado a esse segredo de empresa então Portanto o segredo de empresa acaba ainda sendo para mim um ponto fundamental para ser equacionado aí a a ponto de se cogitar a partir do momento que juízes e o Poder Judiciário resolvem adotar reiteradamente modelos de Inteligência Artificial nas suas atividades fim sejam modelos proprietários sejam modelos especificamente contratados eles poderão fazer isso diante do segredo de
empresa sem entenderem minimamente como esses sistemas funcionam sem entenderem como é a base de dados sem entenderem minimamente aspectos do processo decisório e não me refiro aqui nem propriamente a uma abertura total do código mas pelo menos menos é uma compreensão mínima de como esses sistemas funcionam sem o que juízes e servidores do Poder Judiciário ao meu ver não terão efetivamente como exercer essa supervisão efetiva de forma geral então Conselheiro banderia até para não esgotar meu tempo tô vendo que são apenas 22 segundos Essas são algumas considerações preliminares eu não entrei aqui especificamente na resolução
eu trago realmente pontos e questões que eu considero até prejudiciais mas que me parece que são muito importantes antes e Qualquer que seja a hipótese de alguma maneira uma regulamentação efetiva desse tema precisaria tangenciar essas questões eu agradeço imensamente pelo convite pela oportunidade de participar e claro já me coloco aqui à disposição para qualquer pergunta ou outra consideração muito [Aplausos] obrigada Muitíssimo obrigado Vocês ouviram Ana Frasão a advogada professora da Universidade de Brasília competentíssima Como podem ver Ana essas preocupações vem sendo endereçadas aqui na audiência né de fato ah muitos dessas desses aspectos tem eh
São problemáticos sabemos disso eh ao mesmo tempo que a percebe também uma um desejo de de um ganho de eficiência né com desenvolvimento por exemplo da parte de relatórios em votos da de de análise processual que tem razão que pode ter conter vários vieses pode conter uma série de problemas e acho que esse debate é rico justamente eh por por conta da do de tentar ver vislumbrar os riscos do desconhecido que né e tentar trazer paraa nossa realidade né da melhor forma possível Ontem eu falei um pouco mais sobre isso eu não vou me repetir
nem me estender Ah porque eu preciso na verdade inicialmente pedir desculpas a da mesa eu na ansiedade de ouvir a professora na Frasão eu passei a palavra para ela diretamente e não apresentei os demais integrantes aqui da da mesa eh então aqui o meu lado falará na sequência a Aline Osório que é a secretária Geral do Supremo Tribunal Federal já te passo a palavra Aline mas também eh tenho aqui a companhia do do do Bruno Bonde da data privacy Brasil n do Lucas Borges de Carvalho da anpd né Que acabou sendo citado aqui pela indiretamente
pela professora Ana né e a Dra Paula sonon n na Avis do Instituto de Defesa do direito de defesa temos também a mesa os membros do do nosso GT né que vem acompanhando que são de certa forma os destinatários né do próprio trabalho da audiência pública né para tentar Trazer isso paraa nossa minuta Nossa relatora geral professora Laura chtel Mendes o o meu querido Alexandre zaval queridíssima Laura Porto do Faustino tjp Desembargador Pedro Felipe do trf6 né todos vocês muito obrigado pela pela presença né e eu vou passar sem mais delongas a palavra para a
lin Osório essa mulher incrível na verdade estamos hoje rodeados de de mulheres assim né que vão nos nos brindar com seu conhecimento aina é mestre em direito pela harfa L School né mestre também em Direito Público pela pelo erge ah Atualmente como já tinha dito a secretária Geral do Supremo Tribunal Federal e professora de Direito Constitucional e eleitoral no seub na pós-graduação de Direito Eleitoral do idp eu preciso tomar dois fôlegos para conseguir ler o currículo todo D Aline Osório Aline obrigado Mais uma vez P sua presença fique à vontade que ter que chegar um
pouquinho mais perto é melhor Bom dia eh a todas e todos ao que o microfone tá posicionado na verdade é eu posso pegar pegar um bom dia a todas e todos é uma felicidade uma honra estar aqui hoje eu agradeço ao Conselheiro eh Bandeira pelo convite e a minha intervenção hoje vai ser uma intervenção um pouco menos estruturada do que a da professora Ana porque eu falo aqui na perspectiva de gestora do Poder Judiciário eh e como gestora do Poder Judiciário eu tenho a ciência a consciência de que nós temos um conhecimento eh absolutamente limitado
sobre o efetivo funcionamento de desses modelos e desses sistemas e por isso eu tenho ciência de que as nossas decisões podem estar sendo tomadas eh de maneira Enfim pelo menos parcial ou em alguma medida equivocada apesar disso eh eu entendo que e e acho que nós temos nesse momento a pretensão de nos tornarmos O Poder Judiciário mais inovador no mundo em termos de uso de Inteligência Artificial generativa eh em tarefas em contexto jurídico eh e tendo e e na verdade com mais de 80 milhões de processos eu acho que nós não temos saída senão apostando
na tecnologia e hoje na tecnologia com base nesses grandes modelos eh na minha visão e acho que na visão de todos aqui eh qualquer regulação do uso de a em tribunais tem que se dar na perspectiva de uma inovação responsável e acho que nós estamos trilhando esse caminho eh com a minuta de resolução que foi Proposta com os ajustes finos que vão eh sair dessa audiência de de e de um processo de consulta e hoje na verdade o nosso poder judiciário é um grande laboratório eh de iniciativas de a generativa a quem chama inclusive de
uma corrida maluca porque eh temos mais de 140 projetos de a generativa catalogados nos tribunais eh com casos de uso mais diversos desde geração de ementas elaboração de relatórios de processos judiciais anál anál de admissibilidade recursal até minutas de decisões identificação de precedentes de prescrição intercorrente busca de jurisprudência eh detecção de casos similares e e litigância predatória assistentes de linguagem simples eh chatbots conversacionais enfim os casos de uso são os mais diversos essas soluções estão sendo desenvolvidas em em todo o Brasil em vários tribunais contando com equipes internas e empresas desenvolvedores externos muitas vezes uma
combinação de ambos às vezes é verdade H soluções parecidas ou idênticas desenvolvidas por tribunais diferentes eh e isso Às vezes pode ser um problema porque a gente poderia ter um desenvolvimento colaborativo mas por outras vezes nesse laboratório essas soluções são idênticas ou seja o caso de uso é o mesmo mas é mas estão sendo desenvolvidas com modelos diferentes e empresas parceiras diferentes e que quando a gente pensa no uso de Ea no judiciário a gente não quer é ficar dente de um único modelo ou de uma única empresa sobretudo quando estamos falando de inovação então
é às vezes até positivo que tribunais diferentes estão testando com soluções diferentes e claro eh o desenvolvimento colaborativo ele pode ser pensado né pra gente ganhar eficiência escala abrangência capacidade de teste de fine tuning com as equipes diminuindo os custos o Supremo Tribunal Federal em específico tem várias iniciativas em curso e eh qual é a minha preocupação nesse momento como gestora é criar modelos que eh com alto grau de acurácia que gerem resultados confiáveis minimizando as alucinações que sejam custo etivas eh o que que isso quer dizer nós às vezes pensamos no modelo sem pensar
que ele vai ter um custo pros tribunais e vai ter um custo pros tribunais numa situação em que nós temos um judiciário é com 18265 magistrados e magistradas e 27.58 servidores for Os Estagiários e terceirizados então qualquer solução No Brasil se a gente não pensar em custo No final a gente enfim isso a gente vai tá pagando um preço que a gente não tem capacidade de arcar então Eh é essa é uma preocupação Eh que que eu tenho e que acho que o poder judiciário e que a resolução deve ter para que a gente não
fique presa numa solução em que nós estamos eh tentando eh promover o uso de a mas não seremos capazes de pagar ou Pagaremos muito caro sem um resultado eh que seja eficiente então eh não queremos um risco de dependência e claro a gente precisa assegurar a conformidade dos nossos processos de trabalho com os direitos fundamentais a proteção de dados o segredo de justiça e a segurança da informação eh o principal eh projeto que está em curso hoje no Supremo é o que a gente chama de a sumarização é uma fase de projeto piloto nós temos
seis protótipos Ah eu acho que você nós temos seis protótipos de inteligência e artificial generativa para a sumarização de processo judiciais de natureza pública e o que qual foi a tarefa que foi dada a gente fez ano passado logo que o ministro Barroso assumiu a presidência um chamamento público para que eh empresas apresentassem protótipos para desenvolver uma tarefa que parece simples mas não é tão simples que é pegar um processo um recurso que chega no Supremo e fazer um relatório o relatório é o relatório que o ministro vai fazer em que todo caso no Supremo
seja uma decisão monocrática seja uma decisão colegiada tem um relatório que vai dar ali o histórico processual parece simples mas não é em alguns casos há vários acordãos o processo é um processo grande então o modelo ele tem que entender o que significa eh cada peça o que que vai ser considerado o que que não vai ser então precisa de um contexto jurídico muito relevante Então nesse prot tipo hoje nós temos depois as as empresas que tiveram eh o melhor resultado em termos de acurácia no chamamento foram colocadas em eh produção assistida no ambiente do
supremo em que alguns assessores que fazem testes eles vão estão trabalhando num processo eles geram um relatório e verificam se esse relatório cumpriu os requisitos ou seja se de fato tem um histórico e eles vão dando feedbacks para os modelos para saber onde é que eles estão errando e que até os modelos fornecem relatórios eh sobretudo em casos mais simples eh com relativo grau de acurácia mas para tarefas complexas ainda não conseguiram chegar a um resultado ideal o que que isso significa que se a gente pensar eh Hoje os os modelos existentes e quando nós
colocamos eles para operarem tarefas jurídicas complexas ainda não dão os resultados esperados eh e que nós precisamos em termos de eh ac curaça e precisão ainda eh Às vezes as alucinações nem são o o principal problema mas sim a não indicação correta daquela informação eh é claro que isso pode mudar do dia para noite e nós esperamos que esses modelos estão evoluindo muito rapidamente mas eles precisam para atuar em contexto jurídico eh do fine tuning humano de ter uma equipe que dê feedback que vá treinando Então isso é relevante eh para que para que a
gente possa pensar então Eh desses processos que o eu tenho para para falar enfim eu eu não quero me estender Mas quais foram os aprendizados que eh esse essa pequena trajetória de uso de a no Supremo eh tem Eh que que eu obtive primeiro é a questão da qualidade né várias soluções para vários usos oferecem resultados satisfatórios claro que se for pra gente minutar um e-mail eh é maravilhoso enfim eh trir um eil eh traduzir um texto a gente tá tá com uma uma experiência bastante interessante de de tradução de processos de extradição eh isso
aceleraria muito o processo de os processos de extradição eh então a qualidade ela é variável de acordo com o caso de uso e para casos complexos se a gente for pensar se a gente a já está pronto para usar EA para minutar decisões eh acho que ainda não ainda estamos muito longe de poder eh experimentar com esse caso de uso até porque para tarefas mais simples que são os relatórios como nós estamos testando no Supremo eh a o resultado ainda não é satisfatório eh mas eh isso recomenda uma cautela adicional no uso das soluções existentes
sobretudo para análises propriamente jurídicas para para busca de precedentes enfim para para outros tipos para resumo do documento em si e não colocando ele num contexto acho que é viável o segundo aprendizado eh que eu tenho tido é em relação ao custo né várias empresas vieram nos apresentar eh soluções de a generativa para vários casos de uso e essas propostas comerciais o que eh elas trazem são custos que são inviáveis eh para o poder judiciário em geral então a maior parte do dos dessas aplicações que são criadas para uso específico jurídico elas trazem custos variáveis
tem o custo da ferramenta em si e o custo dos tokens dos modelos llms que são eh processados então o valor é cobrado em Dólar pro por consulta por entrada no prompt e por saída de resposta então esses tokens são fragmentos né Eh eh de texto que são processados Pelo modelo e o custo claro vai depender do próprio modelo mas se você pegar eh e e tentar expandir o custo pode ser enorme então nós tivemos uma proposta por exemplo para eh consulta de jurisprudência em linguagem natural o custo estimado da ferramenta por ano por usuário
era de R 2.000 eh isso só para um para um caso muito específico que é pesquisa de jurisprudência se a gente pensasse se déssemos a licença para cada juiz e para um assessor já seria R 76 milhões deais por ano eh e aí a gente teria que ver se o resultado dessa pesquisa de jurisprudência realmente justificaria R 76 milhões de reais então acho que eh a quando desenvolvemos essas soluções a gente tem que pensar na escala delas o segundo eh talvez então o primeiro aprendizado é a questão da própria qualidade enfim a gente ainda não
tá lá o segundo é questão do custo e eu acho que a terceira eh é a questão é uma dúvida na verdade sobre o que nós vamos dizer para os juízes agora eh como que nós vamos abordar porque as as pessoas começaram a usar eh ainda muitas vezes sem treinamento sem conhecimento eh amplo sobre os riscos eh mas se nós pretendemos ser o judiciário mais inovador do mundo eu não posso falar para para as pessoas eu acho que não é eh a resposta adequada que o CNJ ou que o Supremo deve dar e de dizer
não use eu acho que essa Solução Não use eh não é a solução que nós queremos colocar aqui nós queremos eh use com as seguintes cautelas eu te dou um treinamento e use eh dessa forma eh qual é o mundo e e de onde sai eh saiu essa preocupação o ministro Barroso e o CNJ lançaram recentemente um padrão eh de ementa ementa padrão eh e o que é a ementa padrão é uma eh eh uma ferramenta de eh fazer com que todos todas as decisões tenham esse resumo que esse resumo seja um padrão e que
isso vai permitir e com que o judiciário lide melhor com precedentes eh possa usar Inteligência Artificial você tem um padrão e que a gente encontre de maneira mais fácil eh Organize de maneira mais fácil aquele o aquela decisão sabendo Quais são os pontos centrais e do momento em que ele fez isso o que eu eh nós no Supremo pedimos para a nossa equipe de Inteligência Artificial vamos vamos pensar no Mundo Ideal nós vamos criar vamos pegar um modelo open source Vamos colocar eh eh vamos executá-lo em um ambiente local ao invés de ser acessado em
um servidor remoto numa nuvem e vamos fazer com que esse modelo Gere as ementas porque eu posso colocar uma decisão que é uma minuta que que é sigilosa e eu não vou ter os riscos de proteção de dados é isso que nós estamos fazendo mas enquanto isso surgiu um prompt no chat APT que você coloca a de decisão e sai uma ementa com muito boa qualidade o resultado muito bom eh e o que eh a gente tem que dizer pro juiz se ele pode fazer isso ou se ele pode não pode ou em que condições
ele pode usar esse modelo e quais são os riscos e agora a gente tem eh a gente precisa saber que cada tipo de modelo tem digamos eh versões né voltadas para usuários versões eh que T diferentes níveis de segurança de dados e que TRE e que treinam ou não o modelo com base naquela informação que você tá entrando então Eh num modelo mais digamos assim mais usual que é o chat ept você tem a interface Plus você tem eh não no Brasil não tem sido usado mas nos Estados Unidos uma versão enterprise que que tende
a ser mais segura em relação à confidencialidade dos dados mas não tem nemum modelo de precificação ainda no Brasil eh então nós temos que pensar olhar e cada um desses modelos e entender qual que nós podemos recomendar ou não recomendar o uso e o que é mais impressionante é que a velocidade eh de atualização e de mudanças nessas próprias possibilidades é muito grande então anteontem o chat ept liberou um o que eles chamam de chat temporário que é um chat que você coloca e que os seus dados não são usados para treinamento e eh aquelas
informações não são retidas ou são ou são retidas apenas para finim de segurança por um brevíssimo espaço de tempo eh e com tudo isso Enfim meu tempo tá se esgotando o que o não mas já já vou encerrar o o o que é importante é que nós tem tenhamos a maleabilidade para que para analisar as soluções e as novas soluções que vão surgindo para dizer isso é seguro isso o juiz pode usar e ele tem que ter essas cautelas então Eh aqui encerrando a minha eh brevíssima não brevíssima não longuíssima apresentação eh eu eu acho
que como gestora eu eu sou muito otimista com as potencialidades de a eh e acho que a resolução ela deve seguir nesse caminho de eh liderar a Inovação mas de forma responsável e abrindo caminho para adaptações e orientações de uso eh taylormade que possam ser quase mensalmente revisadas e para que a gente possa seguir eh na liderança nesse tema muito obrigada não sei se todos que estão vindo tem dimensão do privilégio que é ouvir Dr Alina Osório e falar sobre poder judiciário ela é um dos melhores cérebros à disposição do nosso judiciário tinha feito já
um belíssimo trabalho no TSE quando lá por lá passou né e agora no Supremo tem essa visão macro do de Para onde vamos né o judiciário brasileiro Sem dúvida eu falei isso ontem ah um um dos cinco do mundo que mais USA tecnologia né tirando repúblicas digitais como a Estônia que talvez realmente ainda usa um pouco mais mas não é bem comparável ao Brasil né que o Brasil tem uma uma Vanguarda um protagonismo justamente por conta de discussões como essa que você demonstrou Aline a o estágio em que está a nossa esse nosso trabalho senhoras
e senhores eu preciso eh pedir-lhes eh licença para explicar uma situação desde ontem está acontecendo aqui em Brasília uma rada de repactuação de negociação da repactuação do daquele acordo de Mariana naquela tragédia Mariana ocorrida 9 anos atrás eu sou conciliador né e tô dividido entre estar presencialmente aqui presencialmente lá mas agora a pouco recebi a mensagem pedindo para que eu fosse lá por conta de uma reunião que vai acontecer E aí meu caro Bruno meu caro Lucas eu tinha dito mais cedo que eu ia fazer uma conspiração mas para deixar essa mesa majoritariamente feminina Então
se me derem a licença eu queria convidar a Dra Lara Porto que é que é membro do nosso GT para me substituir aqui na na coordenação dos trabalhos n e na sequência teros Laura Mendes que vai presidir o próximo painel Espero conseguir voltar a tempo de de acompanhar vou pedir licença de coração que eu preciso atender ess essas duas demandas mas tenho certeza que estaremos em muito boas mãos Muito obrigado com licença Bom dia a todos bom dia a todas que dificuldade de substituir o conselheiro Bandeira aqui um peso muito grande eu agradeço agradeço em
nome de todo o nosso GT todos que estão aqui participando tenho certeza que todos viram que o nível das apresentações que já foram feitas são de altíssimo nível né Eu quero agradecer a essas minhas musas pessoais que já falaram E trouxeram contribuições incríveis parabéns Aline foi sensacional sua fala agora e bom continuando a contribuição vamos agora convidar também o querido Bruno bioni do data privacy Brasil que é diretor fundador do data privacy Brasil Doutor em Direito Comercial e mestre em direito civil na faculdade de direito da Universidade de São Paulo integrou a comissão de jurí
sobre inteligência artificial no senado federal é membro do comitê de estudo sobre integridade digital e transparência nas plataformas de internet no processo eleitoral bem como co-chair da Força Tarefa sobre transformação digital inclusiva no T20 advogado e consultor na área de regulação e novas tecnologias então Bruno vai falar sobre o arranjo institucional e abordagem de risco e direitos na governança de tá com a palavra Obrigado D Laura bom Queria dar eh Bom dia a todas as pessoas aqui aqui presentes enfim eh cumprimentar todos os demais integrantes do GT na pessoa da da Laura relatora eh geral
e todos os colegas e colegas aqui presentes eh compartilhando esse painel bom eh como eu fui apresentado eh eu sou diretor fundador da data priv Brasil e ao explicar enfim a natureza da organização eh também eh consigo explicar as premissas pelas quais eu vou fazer minha exposição a data press Brasil é uma organização que é um espaço de intersecção e entre uma escola e uma associação de pesquisa que busca promover nosso objetivo principal é reforçar a gramática de direitos fundamentais daquilo que a gente chama de Justiça de dados Então como que esses processos de daica
de automatização tem que estar necessariamente atrelados com a reforço das nossas garantias de direitos fundamentais e é a partir dessa premissa que eu vou fazer uma primeira consideração mais geral e conceitual eh como foi bem eh colocado pela professora Ana Frazão e a gente tem sobretudo a possível eh inserção de Inteligência Artificial eh no plano da da prestação da atividade jurisdicional que não pode ser eh de certa maneira pouco deferente pelo contrário tem que ser extremamente deferente e compatibilizada com princípios constitucionais que regem eh esse tipo eh de atividade eh dentre eles eu destacaria três
em específico devido processo a própria perspectiva de juízo natural e de livre convencimento então Eh antes de mais nada me parece que esses três princípios eles são fios Condutores pra gente entender toda a sistematização pela qual a resolução que hoje tá sendo trabalhada ela tá sendo eh disposta em especial eh garantias muito importantes é de serem fixadas desde a perspectiva de informação de transparência e de um mínimo de explicabilidade e supervisão é de como que isso vai e acontecer depois eu vou entrar em um pouquinho mais de detalhes especificamente é sugestões de como que essas
ferramentas poderiam até mesmo eh serem aprimoradas do ponto de vista textual eh e da da resolução E então Eh me parece que é importante eh com exceção do princípio do devido processo que já tá nomeado eh no artigo 2º da resolução esses outros dois princípios também serem igualmente nomeados eh a própria perspectiva do juízo natural e a própria perspectiva eh de livre convencimento e também a própria perspectiva de dever né Eh da própria questão de fundamentação Quando essas ferramentas forem assim eh utilizadas eh e aí eh indo pra segunda parte que o gostaria de falar
eh um pouco mais e aí eh entrando especificamente eh em Pontos específicos da resolução para falar dessa conciliação de abordagem de risco e também de direitos eh a resolução ela vai muito bem eh dentro dessa perspectiva de harmonização É porque ela ao se apoiar hoje na técnica principal que vai desde Europa passando por Canadá e até em espaços globais como nesco eh ONU ela procura entender que essas soluções elas precisam ter um olhar de de um aspecto contextual né então o próprio peso regulatório a própria perspectiva das medidas de governança elas serem mais intensificadas ou
mais leves tá diretamente relacionado aos casos de uso eh e aí eh esse cotejo é muito bem feito eh a partir de três degraus que a resolução eh prevê eh um primeiro de de risco excessivo ou seja aonde que a aplicação de Inteligência Artificial comprometeria esses princíp que eu antes mencionei né Então aqui tem garantias eh muito importantes da não utilização por exemplo para questões relacionadas à previsibilidade de reincidência no campo eh penal né é uma das medidas vetadas então e esse é um um estágio um degrau dessa pirâmide de risco importantíssimo de ser olhado
e reforçado né a gente já tem casos e muito relevantes na literatura de como que esse é um risco que não vale a pena correr ou seja É um cenário inegociável para garantia de direitos eh fundamentais eh tem um um segundo pedaço dessa pirâmide um segundo degrau andar eh no miolo dela que é a própria perspectiva de alto risco né então aonde que sim eh esses essas ferramentas de Inteligência Artificial pode eh gerar algum tipo de ganho eh paraa atividade eh jurisdicional mas para esse ganho ele ser efetivo e ser responsável como a própria Aline
tava considerando Você Precisa ter eh em circuito medidas robustas de governança E aí a gente vê que esses direitos e essas obrigações elas são mais intensas tem questões eh muito específicas de olhar paraa própria perspectiva de representação daqueles dados como a Line tava mencionando de que esses modelos muitas vezes eles não são contextuais para atividade jurisdicional Então você vai ter que necessariamente fazer um fing tuning ou até mesmo pensar eh em em em modelos de uma escala talvez menor mas que seja mais responsável e seguro pra própria prestação eh da da atividade eh jurisdicional E
aí eh talvez eh determinadas determinados conceitos trabalhados n no texto da resolução que são equívocos eh como por exemplo juízo conclusivo Ou atos judiciais preparatórios que eh de certa maneira se relacionam eh e cai até para a ideia de baixo risco poderiam ser definidos na na parte eh inicial do texto para não criar de certa maneira algum tipo de equívoco interpretativo ou até mesmo dessa classificação eh que se enuncia eh no texto da da da resolução eh A esse respeito eh em em específico E aí indo pro pro terceiro eh patamar eh dessa pirâmide que
tá na na base que seria de baixo risco e ali também já tem eh uma enunciação eh muito muito assertiva eh de como que essa resolução também vem numa perspectiva de conciliação da adoção eh desse uso de ferramenta e como já vem sendo adotado historicamente eh no poder judiciário eh Há muito tempo a própria sist tematização ou distribuição automática de processos temáticos se dá por meio de sistemas de Inteligência Artificial há muito tempo né e não tem ali um risco muito significativo pra própria apensação da atividade eh jurisdicional e eu queria eh reforçar isso eh
quando a gente olha Eh para o sinapses E como que eh as mais de 100 iniciativas de eh sistemas de Inteligência Artificial eh tão ali publicados ou listados um recente eh estudo que foi inclusive conduzido por uma das integrantes do do GT de Inteligência Artificial do Conselho de Nacional de Justiça mostra que a grande maioria acho salve engano 70% das iniciativas hoje presentes sendo pensadas elas são de baixo risco eh então a própria regulação ela vem com essa perspectiva de que não vai necessariamente atrapalhar o uso a Inovação mas de novo com uma dose necessária
de precaução e cuidado e prudencial de como que isso deve avançar e sobretudo de como que isso também não deve cruzar determinadas linhas por isso o patamar de risco excessivo ele é muito eh relevante da maneira como que ele tá eh Posto eh nesse sentido e aí Eh toda essa lógica de efetiva harmonização de direitos e riscos eh me parece que também eh tá bem cadenciada eh no artigo eh 8e ele cria uma lógica eh de licenciamento né Eh para adoção desses usos de eh sistemas de Inteligência Artificial onde que o próprio tribunal ele teria
que autorizar eh esse uso ou pelo menos ali tem um mínimo de governança interna para que essa adoção ela seja responsável e hoje uma das maiores críticas eh que T sido feitas eh com relação a processos regulatórios ou proposições eh de regulação seja na Europa ou no Brasil é que eh a regulação que tá sendo pensada ela é muito liberalizante eh autores como o professor Frank pascali e outros eh dizem que necessariamente quando você entra eh em contextos muito cados sensíveis e prestação jurisdicional é um deles você deveria inverter a lógica a presunção ela é
de ilegalidade até que se prove o contrário quando há um alto risco e aí você precisaria ter uma autorização um licenciamento e essa é a lógica muito interessante da resolução porque ela eh determina que os próprios tribunais eles devem prever esse tipo de autorização e a organização de como que essa ferramenta ela vai eh ser efetivamente e adotada eh então eh com isso eu concluo eh uma primeira mensagem uma das principais eh esse cotejo ele é extremamente importante porque o que que a gente busca é com qualquer adoção de Inteligência Artificial seja no contexto da
prestação da atividade jurisdicional ou de outros é buscar não qualquer tipo de inovação mas uma inovação que seja efetivamente responsável eh E isso tem a ver diretamente com eficiência porque se a gente tem uma adoção é de sistemas de Inteligência Artificial que comprometem a própria lei legitimidade do Poder Judiciário a gente vai ter ineficiência e não eficiência a gente vai ter pouca confiança no poder judiciário e isso vai atrapalhar qualquer tipo de troca no sentido mais amplo não gosto muito do termo para enunciar a própria perspectiva de prestação jurisdicional de trocas econômicas né eh e
aí eh com relação a outros pontos também interessantes da resolução e é muito bem-vinda a à fixação e a localização eh do papel que que terá eh a sinapses eh com relação a quase como se fosse um elemento de coordenação de Transparência ativa eh desses sistemas hoje eh lá eh os sistemas de Inteligência Artificial já são listados mas a a a a resolução Ela traz a previsão de que inclusive eh ferramentas como avaliações de impacto algorítmico deveriam ter o seu sumário a sua publicação ali considerado especificamente para sistemas eh de alto risco e aqui Talvez
venha um ponto e específico de sugestão eh do jeito que a a resolução ela tá arquitetada ela considera eh alguns agentes é nessa cadeia acho que salve engano são desenvolvedores distribuidores usuários interno ou externos e tem a figura do tribunal contratante eh quem é o tribunal contratante nessa cadeia eh precisa ha algum tipo de definição ele é o operador ele vai ser eh o desenvolvedor por que que eu tô mencionando isso porque eh durante a condução eh dessas ferramentas de governança especificamente de avaliações de impacto algorítmico eh muitas vezes o tribunal não vai ter a
capacidade sozinho de fazer uma avaliação de impacto algorítmico Tem que haver uma previsão Expressa de cooperação de quem vai fornecer eh esse sistema caso contrário essa ferramenta de governança simplesmente será uma papelada artificial e pouco efetiva para fins eh de cuidados eh resilientes e centes eh e aí eh indo eh efetivamente eh mais pro pro final da minha fala e aí olhando pro segundo ponto que tem a ver com arranjos institucionais eh a a resolução ela prevê eh uma uma atribuição para um comitê aqui na própria casa do Conselho Nacional de Justiça que teria sobretudo
um papel AC conciliativo mas também última análise de normatização já que ele eh tá fixado inclusive para prever os casos de autorização eh e a assim por diante eh Sim Isso é é importante é é importante ter uma Instância de uniformização e de harmonização mas toda a lógica de governança ela reforça muito o papel de você ter uma governança em rede que não seja apenas de cima para baixo Mas também de baixo para cima então talvez na resolução a gente poderia ser mais ambicioso para estimular e já existem em alguns tribunais esses comitês que olham
para essa perspectiva eh de uma utilização ética e responsável de tecnologias né então ter uma previsão específica que incentiva e que sobretudo tenta de certa maneira haver uma troca entre esses comitês a nível Regional para subir pro nacional e é uma coisa importante de de ser pensada eh Porque caso contrário inclusive eh essa Instância de governança ela vai ter pouca escala e pouca agilidade para que isso possa se transmudar e em uma governança efetiva e portanto mais resiliente e por fim eh um uma outra questão interessante de se pensar em arran institucionais é como que
você pode de certa maneira trazer oxigenação em um cenário e menos hermético né E aí eh a gente tem visto também eh em várias propostas ao redor do mundo eh que a previsão por exemplo de um painel de especialistas num formato interdisciplinar que pode servir como um ponto de apoio pros comitês eh seja no próprio âmbito do CNJ ou até mesmo dos próprios tribunais eh me parece de extrema relevância por quê Porque aí você vai ter o olhar do próprio jurisdicionado Qual é o impacto eh para ele como que ele também contribui para para esse
para essa regulação esse processo de governança que é um processo contínuo de aprendizado e sobretudo também do ponto de vista interdisciplinar né hoje o dilema de governança de inteligência artificial é você não ter apenas eh especialistas das ciências eh duras mais técnicas Mas também de Ciências Sociais que olham para essa perspectiva inclusive do ponto de vista de antidiscriminação eh então Eh eu concluo eh enfim eh dizendo que acho que o saldo é extremamente positivo eh da resolução eh A partir dessa Cadência entre princípios constitucionais da prestação da atividade jurisdicional especificamente três devido processo juízo natural
eh e livre motivação há efetivamente uma conciliação entre abordagem de risco e de direitos Eh tem coisa eh potencialmente a a se avançar e por fim e de pensar de um ponto de vista um pouquinho mais estrutural eh o arranjo institucional que tá desenhado na resolução é pensar numa lógica não apenas top Down e mas também borrow up né aonde que o as próprias experiências de governança eh já bem sucedidas de de tribunais eh tem a a a se escalar e Inclusive a ser incentivada e promovida e por fim pensar em algum mecanismo aonde que
essa essa governança e essa conversa ela pode eh alcançar ganhos eh Democráticos eh inclusive com a participação eh de especialistas cientistas eh numa composição interdisciplinar e também com a visão eh do próprio jurisdicionado ainda que seja louvável a previsão da própria defensoria eh de membros da advocacia eh e de outros atores essenciais pro pro sistema de Justiça eh esse outro mecanismo eh só teria a ganhar do ponto de vista inclusive de legitimidade de como que essa governança ela e vai se operar e vai se dar efetivamente na prática obrigado obrigada Bruno excelentes contribuições e mais
uma vez assim como ontem nós vemos a importância da governança em todo o sistema que não não existiria um sistema seguro um desenvolvimento seguro inclusive com proteção de dados e todos os s temas aqui integrados sem a devida governança eu quero agradecer Sem dúvida vamos vamos rever todos esses pontos colocados eu passo agora a palavra ao Dr Lucas Borges de Carvalho que é da autoridade Nacional de Proteção de dados ele é assessor do Conselho diretor da autoridade Nacional de Proteção de dados anpd Doutor em direito pela UnB e mestre em direito pela UFC SC professor
e palestrante nas áreas de direito digital e proteção de dados pessoais procurador federal desde 2007 entre outros órgãos públicos atu na procuradoria da ANATEL e nas consultorias jurídicas dos Ministérios da cultura e das Comunicações Dr Lucas vai falar sobre inteligência artificial transparência e supervisão humana senhor está com a palavra bom bom dia quero inicialmente Agradecer o convite cumprimentar aqui os os colegas de mesa e também os audiência aqui presente e dizer que um prazer imenso né poder est aqui trazer um pouco da de eh minha visão aqui um pouco pessoal mas obviamente a partir do
do lugar no qual do qual venho que é da da autoridade Nacional de Proteção de dados né da npd então Eh obviamente há uma conexão eh muito grande né entre proteção de dados e inteligência artificial e a gente vem lá trabalhando com esse tema né Eh quase que diariamente respirando até diria e inteligência artificial né seja ali contribuindo né nos diversos fórun por exemplo no na discussão do pl 2338 né A npd tá colocada como eh pelo menos a última versão né do do do pl 2338 como uma autoridade Central né autoridade coordenadora enfim eh
do modelo institucional que tá pensado ali e eu tenho dito também que ainda que que não tenha PL ou ainda que a npd Não tem aquela posição a npd vai continuar tendo um papel Central né na discussão sobre inteligência artificial pelo simples fato de que eh Há uma conexão muito forte entre proteção de dados e inteligência artificial e lgpd ela já se aplica e uma série de questões que precisam ser resolvidas e enfrentadas né No que concerne a a inteligência artificial e essa relação entre lgpd né Por exemplo o artigo 20 da lgpd Fala especificamente
em eh decisões automatizadas né Tem a questão dos direitos a transparência né E também a discussão por exemplo sobre Bases legais né aplicáveis à à Inteligência Artificial Então esse é um tema que é prioritário para npd Está na agenda regulatória da npd on a gente deve inclusive em breve divulgar uma uma tomada de subsídio sobre esse tema né dando dando eh assim materializando ali o que tá previsto na na na agenda regulatória também é um tema eh prioritário paraa fiscalização né que tá no nosso mapa de temos prioritários então recentemente eh teve uma discussão do
caso envolvendo a empresa meta né do uso de eh de dados de usuários da da redes sociais de Instagram Facebook enfim para treinamento de a a npd eh emitiu uma decisão cautelar né uma medida preventiva suspendendo aquela eh esse uso de dados para treinamento da da inteligência artificial da Meta isso gerou depois um um plano de conformidade enfim com uma série de de alterações né Eh como por exemplo continua suspenso o uso de dados de criança e adolescente para treinamento de a houve eh uma simplificação ali do processo de de acesso aos direitos né de
optout e também de trans medidas de ampliação de Transparência né então é isso para dizer eh nesse a partir desse contexto A partir dessa dess dessas discussões que eu venho trazer então aqui as minhas eh as minhas análises assim as minhas contribuições para o debate aqui no CNJ destacando também eu acho que é um é importante acho que eh destacar o pioneirismo né eu diria do do CNJ com primeiro com a resolução desde 2020 né Eh regulamentando o uso de ar no judiciário e também agora que eu acho que é um momento propício né e
adequado para essa eh rediscussão dessa resolução dado as as transformações recentes seja do ponto de vista da tecnologia seja também do próprio aprendizado que a gente tem né nos últimos anos e Ganhos eu diria de aprendizados institucionais né e abordagens regulatórias que estão já refletidos eu diria na minuta que me parece caminha no no no caminho correto né Acho que tem acho que eu vejo com muitos bons olhos assim a abordagem que está colocada eh na resolução é claro que tem sempre pontos para aprimoramento né então Eh eu eu começaria também dizendo assim que eh
seguindo um pouco na linha da professora na Frasão Eu acho assim que tem algumas premissas que são importantes nesse debate um uma é a questão da cautela né cautela e um certo ceticismo né a gente precisa a gente precisa ser cético em relação à Inteligência Artificial né a gente não pode aqui é algo como como ulices que se e amarrou ali ao mastro para não ceder aos cantos da Sereia a gente precisa também eh eh fazer a mesma coisa né no sentido de que a gente não pode nenhum hipótese aceitar não pode ter uma presunção
cega sobre os resultados espera gerados né ou ter uma presunção sobre eh de que os resultados serão sempre positivos né É preciso ter obviamente evidências né Não pode ser a inteligência artificial não é uma questão de não é uma questão de fé mas sim uma questão de de evidências de elementos concretos que permitam a gente avaliar a própria eficiência do do sistema né se ele entrega aquilo que ele promete e também a justiça daquele sistema né se os impactos gerados eles são eh adequados ou não e isso é fundamental em todo lugar mas especialmente no
setor público que é o campo que a gente tá tratando aqui né no caso do Judiciário né Então essa questão eu diria da chamaria assim da cautela né que a professora Ana Frasão já havia falado aqui eu acrescentaria o ceticismo né uma postura cética a questão das evidências e avaliação dos impactos né que são gerados porque a gente sabe também que esse que os sistemas né eu diria até que são não são sistemas técnicos né são sistemas sociais né então tratando de sistemas de Inteligência Artificial são sistemas sociais no sentido de que eles eh se
inserem em determinados contextos sociais em instituições e vão muitas vezes reproduzir né a cultura reproduzir eh os valores né que estão eh imbuídos aqui naquela naquela instituição naquela Cultura né não há uma não há uma desconexão eh entre o um uma ferramenta eh utilizada qualquer qualquer seja ela especificamente no caso aqui de Inteligência Artificial e e a instituição né e os valores e a cultura porque ela tem uma tendência de reproduzir aqueles valores é por isso que a gente precisa ser eh cético nesse sentido nada disso quer dizer que a gente não deve utilizar Inteligência
Artificial Não é esse o ponto a gente só precisa eh tá com o pé no chão né e e e procurar assim os elementos que nos eh permitem o uso seguro e confiável né então eu queria eh também trazer um um caso um exemplo e a partir dele eh trazer e algumas contribuições muito rapidamente eh Gerais né a CGU fez uma uma uma análise né uma uma auditoria sobre o uso de de sistemas automatizados no NSS isso isso foi publicado no final do ano passado e enfim tem vários pontos lá mas um que um que
é bem interessante é que eh uma um achado lá dessa auditoria é que eh ao utilizar sistemas automatizados houve uma ampliação do indeferimento de de benefícios sociais né uma uma ampliação muito grande isso chamou a atenção né e eu vou citar só um um caso concreto né e qual que é qual que é a questão primeiro né de de ter gerado indeferimentos né porque houve houve isso isso por si só gerou um gargalo né porque era na primeira instância isso gerou eh muitos indeferimentos obviamente indeferimentos geram recursos né inclusive recursos administrativos e recursos judiciais né
Eh Então esse foi um primeiro ponto levantado né assim do ponto de vista da própria eficiência porque aquela eh aquela decisão mais rápida e indeferida muitas À vezes com problemas né Eh e essa é a questão também isso gerou ali um certo gargalo nos recursos né inclusive judiciais e também do ponto de vista da Justiça ali pessoas que deveriam ter recebido benefício não receberam né e um dos casos é que é o benefício salário maternidade né que é aquele benefício pago a a mães enfim né e e tem tem um um requisito desse benefício que
é o afastamento do trabalho né mas obviamente é um afastamento temporário né porque é para receber o benefício tem que estar afastado do trabalho mas não demitida do trabalho né afastamento temporário E essa era era a pergunta que o sistema é Central ali pro pro sistema com considerar eh essa o a possibilidade de conceder o benefício e isso é uma pergunta na verdade que ela era ambígua né isso a auditoria constatou e essa e essa pergunta então muitas vezes a pessoa respondia que que não não está afastado do trabalho mas no sentido de que eu
não fui demitida né e por isso então o sistema gerou eh um aumento muito grande né expressivo ali de cerca de 20 vezes do do quantitativo de indeferimentos em relação a esse salário maternidade né Eh então Eh eu tô dando esse exemplo para dizer primeiro né assim essa a questão da da da eficiência né eficiência aquilo que eu vinha ressaltando ela não é a gente não pode presumir eficiência então a gente precisa e acho que é um ponto fundamental aqui que é uma avaliação e monitoramento contínuo né nada disso mais uma vez significa que não
se deve utilizar eh eh sistemas automatizados mas a gente precisa avaliar e monitorar continuamente justamente para eh permitir corrigir os erros né Eu acho que talvez nesse ponto Inclusive acho que a resolução Ela poderia eh avançar um pouco mais né tem ali a previsão de auditoria né prestação de Cont contas mas talvez fosse interessante até a gente pensar eh uma sugestão né desse ponto de vista de avaliação dos resultados e monitoramento né Eh claro que tem ali o comitê enfim já tem já tem em parte essa previsão lá mas talvez ess fosse um ponto importante
a ser eh considerada né e segundo o ponto desse caso NSS mostra que o impacto sobre pessoas mais vulneráveis né Isso também costuma acontecer eh como eu falei são sistemas sociais né que estão eh que se inserem em determinados contextos sociais e por isso também vão gerar ali a eh impactos muitas vezes sobre esses grupos eh mais vulneráveis que vão ter dificuldades ali vejam que é uma um questionamento uma certa transferência de onas ali para para aquela pessoa e ela tem que interpretar corretamente aquela questão muitas vezes se não tiver orientação né ela pode eh
ali se dá mal no sentido de de ter um benefício negado por um problema eh de de até simpl de interpretação né então máquinas tecnológicas complexas às vezes é o seu o seu funcionamento pressupõe determinado tipo de informa relção um relacionamento com com o usuário ali eh que pode gerar problemas né que às vezes uma questão simples e precisa ser também eh avaliada pensar desse ponto de vista do ônus que gera também para e do impacto que gera sobre as pessoas que usam eh o sistema né então eh eh Então é isso né a gente
precisa tomar as medidas para evitar a automação de injustiças né Acho que esse aqui é que é um Ponto Central né em relação eh Mais especificamente à à resolução eh Eu acho assim que eh um ponto também que é que eu acho que a professora Ana Frasão Já falou um pouco né dessa questão da da elaboração de decisões judiciais por sistemas de a né Então tá na minha leitura que ele tá colocado como eh de alto risco né quando fala sobre juízos conclusivos eh e valoração e interpretação de fatos né E tem toda uma preocupação
da da minuta de resolução com a autonomia dos usuários internos né a natureza não vinculante da solução a o princípio da supervisão humana efetiva ele Tá previsto também expressamente né também é considerado como risco excessivo ah sistemas que não possibilita a revisão humana ou Gere vinculação absoluta Mas eu também acho aqui que falta um pouco eh que seria importante eu diria eh discutir mais ou ou detalhar um pouco mais o que que é essa supervisão humana efetiva né então ali no PL 2338 por exemplo você tem expressamente eh fala ali na capacidade de compreender e
interpretar decidir intervir no sistema g a né Então essa relação que se estabelece entre o ser humano e a máquina éa uma relação complexa porque eh já foi falado aqui também do risco da confiança excessiva nos resultados né gerados pelo sistema de a isso precisa ser adequadamente pensado e precisa ser adequadamente endereçado eu diria até eh na própria resolução porque a gente pode ainda que que ah a gente tem essa essa previsão aqui né jurídico formal de que a responsabilidade é sempre do ser humano do magistrado que não pode haver uma vinculação absoluta eh podde
ocorrer uma delegação de Fato né Eh isso inclusive eh em em em situações que aparentemente não são são simplórias né a classificação de um processo né a professora an Frasão mencionou aqui pode também eh por exemplo gerar algum tipo de de decisão ali que vai impactar a vida de pessoas e isso precisa ser eh pensado um pouco melhor né digo não pode ser tratado como algo que é simples né como se n os seres humanos eles vão eh eles vão tratar independentemente de de capacitação enfim ou de orientação eles vão lidar bem com a máquina
e não vão né porque o que a gente sabe é que é justamente o contrário né que H que é um risco sim de enfim o chamado viés da automação enfim um risco de de confiança excessiva né e desse ônus que a gente tem de até uma certa confiança eh que gera ali na no sistema aparentemente eh técnico né que se coloca perante o ser humano e isso especialmente aqui num contexto né que eu tô falando aqui de eh produção de eh decisões judiciais né Eu até pensaria eh que tem uma previsão que é H
prévia autorização do CNJ no caso de uso de sistema de reconhecimento facial né Eu acho que também E aí trago obviamente Como contribuição que eh nesses casos de sistemas que produzem juízos conclusivos ou interpretação de fatos e nor deveria se pensar também se não seria o caso de ter uma prévia autorização de CNJ também porque eu acho que isso aqui é um eh São casos de alto risco Como já reconhecido na própria resolução e que demanda um acompanhamento maior Porque mesmo casos aparentemente simplórios né e por isso quei o caso do INSS aqui eles podem
gerar problemas graves né no futuro então talvez seja interessante pensar aqui para esse tipo de caso né Essa esses casos que envolvem riscos de delegação eh de fato vamos chamar assim para máquinas de no caso de produção de decisões judiciais sejam também hipóteses de eh prévia autorização do CNJ né em relação a transparência eu acho que tem eh grandes avanços também né Acho que o Bruno também já mencionou aqui eh me parece que um ponto ser seria importante eh ter regras eh objetivas e padronizadas sobre a divulgação de informações né um exemplo aqui é o
artigo n da lgpd é claro que tem um artigo ali lá que fala de prestação de de eh prestação de contas né tem um sistema sinapses e fala do da avaliação de da do divulgação do sumário público do da avaliação de impacto algorítmico mas também não tem nenhuma regra sobre Que tipo de divulgação os Tribuna devem realizar né E isso eh na pesquisa feita no relatório feito pela FGV né sobre o uso de ar no judiciário na terceira edição que se não me engano é do ano passado esse foi um problema apontado né são as
informações elas são desencontradas né os pesquisadores mencionam isso fala que a gente encontra são notícias no site dos tribunais né claro que eles obtiveram ali paraa pesquisa informações diretamente do CNJ dos próprios tribunais mas esse foi foi uma falha eh detectada ali naquela pesquisa e eu acho que aqui não tá também ainda eh muito bem essado e seria interessante Talvez né Eh e obviamente aqui mais uma vez como como contribuição pro debate né que eh tivesse um posicionamento mais claro sobre Que tipo de informação ou uma certa padronização ali eh objetiva de que tipo de
informação os tribunais devem realizar porque o cidadão eh o cidadão ali no no estado né ele provavelmente não vai procurar no CNJ ele vai procurar eh talvez no site do Tribunal que é o com o qual ele está acostumado a se relacionar e e pode ser que aquela informação não esteja lá pelo menos eu eh a resolução aqui não não obriga né e a última coisa que eu que eu S mencionar muito rapidamente que é o uso de dados pessoais para treinamento de a eu acho que tem um ponto muito importante aqui que é uma
menção às Bases legais da lgpd eh que é o artigo 8 F Ciso dois né verdado o uso para outros fins Embora esteja previsto somente para i generativa eu acho que essa uma hipóteses para todo o sistema de a né tem que todo o uso de dados pessoais para fins de treinamento de a deve eh a meu ver seguir as hipóteses legais da lgpd E e essa previsão de verar para outros fins também ela é interessante né e o último ponto é a vedação de uso de dados sensíveis né meu tempo já acabou eh eu
não vou dizer aqui que eh que é permitido usar dados sensíveis para para tratamento de dados pessoais e eu entendo para treinamento de a eh pelo contrário eh mas também não quero dizer que é proibido né porque existe aí uma série de de meandros no meio do caminho né e isso é um ponto que está em discussão eh em diversos lugares do mundo né como como se dá esse uso de dados pessoais sensíveis por EA especialmente EA generativa eu pessoalmente tenho eh frequentemente feitos testes aí em em vários sistemas até se olhar no meu histórico
V achar que eu sou eh meio meio meio problemática né porque eu vivo perguntando para e Fulano é homossexual beltrano é tem problemas de saúde com objetivo de ver como eh como como são as entregas em relação a dados pessoais sensíveis mas em determinados contextos princialmente pessoas públicas por exemplo a gente pode ser eh importante que tenham eh dados pessoais sensíveis a isso aqui eu tô falando do ponto de vista geral é claro que aqui é uma discussão no poder judiciário mas eu trago esse debate eh mais como um um problema ainda a ser resolvido
que há essa essa relacionamento ainda tenso eu diria ou não resolvido entre eh dados pessoais sensíveis e treinamento diá então passei um pouquinho do tempo Peço desculpa e fico à disposição também para continuação dos [Aplausos] debates Parabéns agradeço imensamente pelas colocações eh nós sabemos a dificuldade ainda que nós temos em por de fato entender o funcionamento de algoritmos o impacto de colocar dados pessoais e dados pessoais sensíveis principalmente com a ia generativa e sem dúvida é algo que nós mesmo enfrentando diversos diversas preocupações não podemos deixar de utilizar a inteligência artificial ontem mesmo o próprio
Presidente Ministro Barroso comentou sobre uma obra que traz o mundo pós-apocalíptico né com a utilização da ia que ninguém iria querer utilizar ia se lesse de fato aquela obra mas até isso tem um ponto positivo que é nos nos eh nós vermos o que tem ali de ponto negativo e nos precavermos para que aquilo não aconteça da mesma forma estudos já realizados nós utilizarmos estudos prévios do que já pode ter dado errado do que já foram encontrados diversos vieses e tomarmos as precauções para que isso não aconteça mas isso sem dúvida é um trabalho constante
agradeço mais uma vez as colocações e Todas serão levadas em consideração pelo pelo GT eu passo a palavra agora para mais uma uma das musas femininas que estão aqui trazendo trazendo contribuições a Dra Paula Sion de Souza Naves que é advogada criminalista sócia do escritório Cavalcante Sion advogados formado em direito pela mackenzi pós-graduada em Direito Penal econômico e Europeu pela Universidade de Coimbra em parceria com o ibcm especializada em Direito Penal econômico pela escola de Direito da FGV formada como conselheira de empresas pela sampul escola de negócios e associada fundadora do iddd a Dra Paula
vai falar sobre o uso da inteligência artificial generativa no judiciário e necessária postergação de sua aplicação em matéria penal sensibilidade humana como vetor da Justiça penal senhora está com a palavra perfeito Deixa eu só ver se tá funcionando isso aqui tem que ligar aqui bom muito bom dia a todos eu Saúdo aos participantes dessa audiência pública tanto que estão aqui pessoalmente como quem não está nos assistindo no virtual eh graças à Inteligência Artificial diga-se de passagem eh queria saudar eh todos os membros dessa desse grupo de trabalho na pessoa da Dra Laura Porto eh eu
agradeço imensamente a oportunidade de estar aqui hoje para discutir esse tema que já é uma realidade e que tem tenho certeza que será um divisor de águas eh no modo em que a gente vem promovendo a justiça tanto no Brasil quanto no mundo hoje eu tô falando em nome do iddd é uma UnG fundada em 2000 eh pelo Salo o ministro Márcio Tomás Bastos eh eu sou diretora desse Instituto sou fundadora e eu criei dentro do Instituto um grupo de estudos de Inteligência Artificial voltada paraa matéria penal eh então em primeiro lugar eu queria dizer
que eu vejo com muito otimismo entusiasmo essa iniciativa do CNJ extremamente necessária tenho certeza que essa minuta aqui é fruto de muito trabalho da Dra la Dr Alexandre Dr Faustino e todos os membros da comissão Dr Felipe eh tem pontos extremamente importantes e eu gostaria de destacar alguns aqui que eu acho fundamentais a vedação das decisões automatizadas isso também tá na né na lgpd a vedação constante do do artigo 7 B com relação à avaliação preditiva Para determinadas finalidades como eh eh perfis e características humanas como forma de de decidir e essa vedação é muito
importante eh com relação a o artigo oavo parágrafo sexto que trata da exigência de apontamento do uso de a em nota de rodapé eu só queria fazer uma sugestão aqui já na largada que eu acho importante não só dizer o milagre mas também o santo Então eu acho que se eh tiver o o uso de uma ferramenta deveria ser descrito qual ferramenta foi usada naquele naquela decisão seja uma um uso de um programa privado do Poder Judiciário seja um chat eh de ebt da vida mas eu acho que deveria est dito também eh da onde
a informação eh de onde aquela decisão se baseou até para realmente haver uma transparência maior bom eu começo aqui no primeiro slide que eu trouxe com uma frase que me que me chamou bastante atenção porque retrata o momento que nós estamos vivendo eh é é uma é uma frase do Cai Fuli um cientista da computação e empresário de taian Taiwan ele fala que quando se trata de entender nosso futuro com a inteligência artificial somos todos crianças no jardim da infância estamos cheios de perguntas sem respostas tentando espiar o futuro com uma mistura de admiração infantil
e preocupações adultas e é assim que eu me sinto eh a gente ainda sabe muito pouco sobre o potencial dos dos algoritmos então a gente tá vivendo uma era de certeza é como se nós tivéssemos tentando trocar um pneu com carro já andando né e e nem mesmo os pesquisadores desenvolvedores sabem eh até onde isso vai ser capaz de de evoluir nos próximos anos Eu uso esse aqui eu acho que não tá funcionando Ah pois não bom aí eu coloquei um slide aqui que eu queria destacar que na a lei geral de proteção de dados
eh ela excep eh a sua aplicação paraa segurança pública em matéria Penal de investigação e repressão de infrações penais eh então teria que ter vindo eh uma lei um projeto eh que eh adotasse e regularize isso então o direito penal ficou num Limbo com a lgpd tô aqui com uma autoridade da npd e e teve um ante é capitaneado por uma comissão de juristas e que foi entregue em 2020 Mas isso não foi adiante localizei também um projeto de lei Mas ele tá parado eh então nós temos aí um Limbo né então de forma alguma
eh a intenção é que o direito penal permaneça eh num Limbo com relação à Inteligência Artificial mas eh sim chamar atenção paraa necessidade de um maior arcabouço protetivo eh por conta de tudo que envolve essa matéria e por envolver uma questão de de direitos fundamentais de liberdade então eh a nossa preocupação aqui hoje é olhar Como que o direito penal tá sendo tratado na resolução e propor algumas eh sugestões né para que isso eh reflita eh uma maior proteção pode passar tá aqui que eu trouxe não é acho que tem que voltar que não tá
funcionando isso ã trouxe aqui alguns dados que são do anuário de Segurança Pública eh nós temos 850.000 presos no sistema carcerário segundo o último levantamento eh desde 2001 aumento de 26 3% eh tem muitos presos em regime fechado e o que me preocupa que a gente vê um viés extremamente punitivista principalmente na primeira instância eh uma resistência por aplicar medidas cautelares que eh estão no código de processo penal eh uma uma dificuldade também de a implementação das medidas penalizador e o cenário que a gente tem hoje é esse eh acho que a inteligência artificial se
fosse usada eh para minimizar e e diminuir os padrões de decisões errôneas por exemplo dizendo ah magistrado essa sua como jurimetria junto né Essa sua tem uma chance de X por de ser modificada no tribunal acho que isso seria um ganho muito grande principalmente para quem tá na base do sistema eh em comarcas do interior que o juiz acumula eh vários tipos de processos e que a gente vê realmente eh o judiciário sendo eh muito assoberbado com demandas que não deveriam existir né pode passar mais um tá então eu localizei na resolução 332 ela tinha
uma proteção maior eh pro direito penal ela tinha um artigo 23 que dizia que a utilização de modelos de inteligência artificial em matéria penal não deve ser estimulada Sobretudo com relação à sugestão de modelos de decisões preditivas aí agora nesse novo cenário eh pode passar o próximo slide a gente vê na revolu na resolução que o artigo 23 está sendo revogado pode passar eh as ações criminais elas estão dentro do mesmo arcabouço das demais áreas do direito então no artigo 7 C eh onde tá escrito alto risco na minha visão eh o direito penal deveria
ser um risco excessivo e não uma um alto risco junto com todas as outras matérias acho que isso daria uma maior proteção e aí sim no sentido da postergação de determinadas e ferramentas que possam influenciar na tomada de decisão como por exemplo valoração da prov enfim e enquadramento do tipo penal e eu acho que isso seria um passo muito grande ainda mais com tudo que nós ouvimos aqui hoje da Line ouvimos da Dra Ana sobre as dificuldades da implementação desses sistemas pode passar mais então o que nós estamos sugerindo aqui seria a necessidade de um
tratamento diferenciado em matéria penal eh me preocupa também acho que eh não sei se foi o Bond acho que foi que que tocou no tema não foi meu outro colega tocou no tema de supervisão humana eh e viés da tomação né Nós temos diversos estudos que mostram que o ser humano tem uma maior propensão a acreditar num resultado de uma máquina do que de um processo manual então Eh justamente os colegas já falaram hoje a dificuldade de ainda que se atribua ao magistrado a responsabilidade pela supervisão humana com todas as metas com todo o acúmulo
de serviço e tudo eh a nosso receio é que esse esse viés da tomação opere para prejudicar direitos dos acusados no processo penal eh também já foi dito né que a inteligibilidade e a transparência não garantem o acesso né porque existe essa opacidade dos algoritmos é bastante difícil imaginar que algum advogado que não esteja eh totalmente eh vamos dizer acostumado com esses sistemas ele possa eh de alguma forma rebater uma decisão que tenha sido tomada com base num modelo de Inteligência Artificial porque ele não entende de algoritmos então fica um pouco complicado pode passar mais
uma aí eu fui pesquisar né no no na bibliografia eh achei pouquíssimos estudos no Brasil ainda focados na na ia no judiciário em matéria penal mas eu localizei muitos artigos interessantes é no exterior e separei bastante material li eh e essa discussão tá na ordem do dia a gente vê aí a justiça por algoritmos limites do uso de a numa sentença criminal eh as implicações éticas e esse assunto tem sido muito debatido no exterior pode passar mais um Eu localizei também essa resolução do Parlamento europeu que é específica eh sobre o uso de inteligência artificial
no direito penal e vocês vem aí no no artigo 16 que eles apelam paraa proibição do uso de a e das tecnologias relacionadas para propor decisões judiciais então eu trago aqui o link também dessa dessa resolução do Parlamento Europeu é de 2021 para ajudar a gente a pensar nesse tema eh do uso no direito penal pode passar mais uma e aqui eu chego na na questão eh que eu trago eh como tema da da minha fala que é a sensibilidade humana né Eh por toda a experiência Eu sempre tive do lado de cá do balcão
como advogada criminalista e tudo a gente entende como é uma atividade completamente eh dependente da sensibilidade humana e das relações intersubjetivas eh nós temos no âmbito criminal as audiências de Custódia que antes não existiam justamente para trazer o preso a presença do juiz agora o juiz de garantias que que serve para que aquela autoridade que decretou medidas cautelares não venha a atuar é na fase de julgamento nós temos a a questão da identidade física do juiz que deve eh ser o juiz da instrução deve ser o que sentencia o feito então Eh tudo tudo isso
para gerar uma livre convicção ao final né livre convicção essa dependente de intuição dependente de eh de Sabedoria dependente de experiência de vida de compaixão de uma série de fatores que a gente não Talvez não tenha de uma maneira tão forte em outras áreas e assim eu acho que não dá para comparar um julgamento penal eh com a dinâmica de outras ações por exemplo eu consigo imaginar uma sentença trabalhista eu consigo imaginar uma sentença paraa discussão de uma cláusula contratual uma execução por inscrição na divaa de um de um imposto eh tudo isso é muito
mais simples né mas são universos diferentes e que tem que ser tratados também de maneira diferente a gente não tem não localizei nenhum estudo eh de como tem já com relação ao reconhecimento facial eh questão de biometria eh dos do dos enganos e dos problemas existentes porque aí a generativa é muito nova então não tem nada dizendo olha usaram em determinado país e deu o problema x y z e aliás esses problemas só aparecem com o uso mesmo né Então essa é a maior dificuldade e qual que é o preço que a gente paga eh
de um erro judiciário no processo penal Então acho que merece uma atenção especial esse tema eh Inclusive acho que a ia pode ajudar muito na execução penal eh esse número de presos no regime fechado às vezes é por conta de não ter vaga no semiaberto de uma má gestão que eu acho que a inteligência artificial Poderia ajudar muito nessa nesse nesse pedaço né e inclusive para controlar presos que saem eh no semiaberto para trabalhar para se reinserir na edade eh tudo isso eu vejo com muito otimismo e acho que é nesse esforço que deve eh
se concentrar o uso da ia em matéria penal para favorecer os princípios e garantias constitucionais para eh puxar os magistrados para uma uma uma eh atribuição de pena que seja compatível com as balizas mínimas em casos de Réus primários enfim eh tantas coisas que a gente vê eh que há um exagero e que depois a gente vai entupindo o judiciário às vezes até o STF Aline para chegar e mudar uma pena para o que deveria ter sido feito lá na primeira instância Então isso é muito complicado pode passar eu trouxe aqui algumas sugestões eu acho
que deveria ter um arcabouço protetivo em separado dentro da resolução já prevendo paraa matéria penal eh eu entendo que um sistema desenvolvido pelo Poder Judiciário apesar de ser super sensível à questão do custo deveria ser eh muito testado antes e deveria ser exclusivo eh para uso em matéria penal né Eh a a questão da vedação da valoração da prova e sugestão preditiva para condenar decretar prisão ou ainda indeferir liberdade provisória acho que isso é uma preocupação não acho que isso seja uma uma questão de alto risco acho que é uma questão de risco excessivo em
matéria penal Então acho que deveria haver uma recategorização aí e não o de direito penal junto no artigo 7 C eu acho que deveria separar e manter um Arc bolso eh mais protetivo com relação ao direito penal e sim Seria lindo se o algoritmo pudesse trabalhar em favor da presunção de Inocência do direito de responder ao processo em liberdade e de respeito às balizas mínimas para Réus primários que a gente vê muito erro nesse sentido é isso acho que a última slide agora pode passar então então eu eu queria pedir aqui pra Dra Laura Se
a gente pudesse apresentar e depois mandar uma uma sugestão com esses pontos eh seria muito interessante e aí só por último agradecer os membros do do do grupo de estudos do DDD eh agradecer a professora Eloí Estelita minha amiga que sempre me ajuda muito nesses temas e todos os membros Eh que que estudaram junto comigo pra gente poder fazer essa fala aqui muito obrigada boa tarde eu agradeço imensamente Dra Paula pelas contribuições e sem dúvida noss GT queremos muito que envie essas essas sugestões e recomendações para atualização Porque como a própria Doutora falou o tema
do eh é muito novo da do da utilização da ia no direito penal e é um tema que sem dúvida nós temos que ter muito muito muita precaução para lidar com ele nós conhecemos obviamente todos os vi que são encontrados Como o próprio Bruno comentou essa questão até ética racial que impacta muito a questão penal Então tem que sem dúvida ser utilizado com muita parcimônia e sabedoria e muito estudo então Tod todos os pontos sem dúvida vão ser levados em consideração muito obrigada Eu que agradeço bom agradeço mais uma vez todas as contribuições em nome
do GT finalizamos agora este painel e devolvo a palavra para pro cerimonial muito obrigada senhoras e senhores agradecemos os pronunciamentos realizados e neste momento faremos um breve intervalo retomamos com a programação em 15 minutos obrigada imina por favor eu que vou comar senhoras e senhores neste momento para a condução das manifestações dos especialistas tem a palavra a doutora Laura chtel Mendes muito bom dia a todas e a todos prazer poder continuar esse senhoras e senhores neste momento ah essa manhã aqui da da audiência pública Eu acho que eu vou pedir aquele aquele microfone Se for
possível o outro muito obrigada bom queria então Eh em primeiro lugar agradecer aqui a presença dos nossos convidados e temos aqui virtualmente Professor Fábio cosman e professor titular aqui eh da USP diretor do centro de Inteligência Artificial Engenheiro pela Escola Politécnica Eu também queria virtualmente a gente vai ter o Caio César Vieira Machado que advogado cientista social focado em questões de tecnologia e sociedade pesquisador nas escolas de direito Engenharia e ciências aplicadas de Harvard e doutorando na universidade de Oxford e da USP temos A Patrícia florice ela é diretora técnica no Office eh do Chief
technology Officer do Google Cloud desde 2020 e lidera pro proet de inovação colaborativa é com clientes temos também Tarcísio Silva que é pesquisador Sênior em política de tecnologia na Fundação Mozilla e consultora em direitos digitais na abong na net temos também o Gustavo zaniboni que é fundador e da headcore matemática e mestre em Ciência da Computação tem mais de 30 anos de experiência no mercado de tecnologia bom esse nosso painel eh se segue já né Tá na sequência de um outro painel muito importante acho que foi muito esclarecedor também eh queria dar os parabéns aqui
paraa condução da Laura Porto e para todos os colegas e professores que participaram do painel anterior e eu tenho certeza que esse debate sobre essa minuta de resolução que o CNJ vai editar no futuro sobre o uso e o desenvolvimento da ia no poder judiciário eh certamente vai ser muito importante e tá sendo muito enriquecedor esse esses três dias eu quero fazer a sugestão vou seguir aqui com a ordem que me foi dada eu vou fazer a sugestão da gente se os colegas tiverem de acordo da gente começar com aqueles que estão presentes virtualmente pode
ser assim e depois a gente segue então com os nossos eh ilustres palestrantes que também estão presentes aqui eh conosco hoje no CNJ então eu já queria eh passar a palavra pro professor Fábio cosman Fábio você tem a palavra é um prazer estar aqui eh e te e te escutar você tem 15 minutos Muito obrigado queria agradecer primeiro perguntar se estão me ouvindo bem estamos sim sim bom primeiro queria agradecer o convite a oportunidade de estar aqui cumprimentar a professora Laura cherta que já já encontrei em alguns outros seminários e palestras parabenizar aí pela condução
e parabenizar o CNJ pela iniciativa por tudo que está sendo feito né na pessoa do Conselheiro Bandeira bom eh eu tô representando aqui o nosso centro de Inteligência Artificial e aprendizado de máquina que é uma um órgão ligado à Reitoria da Universidade de São Paulo que eu coordeno em parceria com o meu colega professor André pon de Leon que inclusive falou eh ontem eh dirigiu algumas palavras eh nesse evento eu queria parabenizar o o conselho pelo documento acho que é um documento eu tive a oportunidade de estudar o documento para esse evento e achei bastante
sério com boas definições muitas vezes é difícil definir Inteligência Artificial é Um Desafio sempre definir vários termos eu achei o documento muito muito sério nesse ponto e e muito alinhado também com algumas premissas do projeto de lei né 2338 que a professora Laura nessa condução na questão de riscos né acho que a nova edição tem toda uma parte de riscos que me parece bastante interessante né eu queria eh comentar aqui em alguns minutos eh alguns pontos né Eu queria começar dizendo o seguinte e eu vou dizer uma coisa bastante Ger mas do fim vai ser
importante que inteligência artificial é uma área que tem algumas décadas e que se eh ao longo do tempo se desenvolveu de várias formas diferentes né hoje em dia o que nós chamamos de a generativa eh é a forma predominante mas existem outras maneiras de lidar com eh algoritmos que procuram agir de forma inteligente que não seguem os preceitos daquilo que a gente chama I generativa que é basicamente coletar um monte de dados processar encontrar padrões e fazer alguns modelos de grande enorme tamanho para gerar palavras ou ou áudio ou vídeo né então existem outras técnicas
existem técnicas que que valorizam o raciocínio lógico existem regras que eh valorizam aquele raciocínio que se usa em economia para tomar decisões né é um conjunto de técnicas né então dentro dessa perspectiva eu queria eh falar três coisas apenas eu eu tive a oportunidade de ler o documento dei os documentos e ouvi ontem eh participei ao vivo de manhã de tarde eu eu não pude mais de noite assistir as palestras e agora assistir as outras Então eu vi que há muita riqueza de opiniões eu não vou procurar repetir coisas importantíssimas que foram faladas a respeito
de potenciais riscos da necessidade de se ter um certo eh cuidado né e e também um certo Realismo né não confundir inteligência artificial generativa com ficção científica né as coisas têm limites as coisas ainda têm que ser comprovadas têm que ser discutidas com cuidado então eu vou fazer eu queria falar três pontos né um é sobre governança eh outro sobre explicabilidade que é uma palavra que apareceu várias vezes e falar um pouquinho sobre o própria ideia de a generativa que tá no no no documento né na proposta de de nova resolução sobre a governança eu
queria falar um pouquinho no sentido de alguns subsídios paraa implementação desse processo todo né dessa proposta de de de novas eh diretrizes eh no sentido talvez de ajudar um pouco o comitê de Inteligência Artificial que tá eh previsto nessa nova regulação o o que me parece é que a regul ação é muito rica em em prever manuais de de uso repositórios de dados de programas mas é necessário que se pense como é que vai ser a estrutura de verificação e acompanhamento e auditoria disso né Eh se falou muito ontem da necessidade de se ter formulários
né para efetivamente saber o que que tá sendo feito nos vários tribunais se ter treinamento né isso acho fundamental os funcionários sobretudo vão precisar de treinamento para dar suporte adequado e conscientização de riscos porque o que tá na na no texto é bastante eh complexo se você for pensar como é que você traduz os riscos altos médios baixos paraa realidade do dia a dia né então há uma necessidade de entendimento e e de treinar as pessoas e passar isso adiante garantir que seja feito que é bastante complexa né eu diria que existem dois aspectos um
é a auditoria do sistema né como é que você garante que o sistema haja sem viés haja de forma que proteja os dados que não entregue os dados de forma inadvertidamente para empresas que você não consegue controlar como ho já foi falado mas existe auditoria dos sistemas e a certificação dos processos né fazer com que os processos aconteçam nos vários tribunais eu acho que essas duas coisas exigem uma previsão então a minha contribuição é no seguinte sentido nesse contexto existe bastante estudo sobre como fazer governança de de Inteligência Artificial hoje acontecendo existem basicamente três eh
linhas uma são guias voluntários que as empresas mesmo fazem para si mesmas alguns governos têm tem tem indicado isso por exemplo o governo americano atribuiu a um órgão chamado nist a a criação de documentos de governança existem eh organizações não governamentais que também estão fazendo documentos sobre como fazer governança Isso serve internamente é uma é um seriam e refinamentos do que já está na na na na proposta mas existem também padrões internacionais então por exemplo existe o padrão ISO 42001 e principalmente o padrão ISO 387 que é um padrão sobre como fazer governança de Inteligência
Artificial eu acho que seria muito interessante pro comitê de Inteligência Artificial quando for eh montado dessa estrutura que procure entender esses padrões e adotar o que for possível para que seja o mais próximo possível os processos que vão as processos de certificação e verificação do que tá acontecendo no mundo como um todo né e e nesse sentido eu acho que o o CNJ ele pode eventualmente decidir adotar algum padrão Ou ter o seu próprio padrão porque afinal de contas é um órgão com extrema competência eh para isso isso né E a academia pode ajudar as
Universidades estão fazendo isso estão discutindo com empresas com instituições com órgãos públicos Como que você implementa e certifica as coisas né então eu acho que a minha sugestão é que haja um estudo sobre como fazer essa certificação que os padrões estão acontecendo né que as diretrizes estão acontecendo na ponta né Eh Então esse é é uma sugestão o segundo ponto que é um pouquinho mais técnico V se eu se eu Casto alguns minutos nisso é sobre uma palavra que foi bastante usada aqui ontem e hoje também que é explicabilidade né Essa é uma palavra que
entrou no jargão da Inteligência Artificial há uns 5 6 anos porque os modelos começaram a ficar muito complexos E isso aconteceu antes da i generativa explodir tá quer dizer existem vários diferentes modelos que são muito opacos né e eu acho que vale a pena de distinguir três coisas que eu não vi não vi não não vi que que foram distinguidos eu queria fazer essa reflexão aqui para procurar ajudar o CNJ nesse processo uma coisa é a transparência né uma coisa é você deixar claro tudo que tá acontecendo e expor tal outra coisa é a interpretabilidade
do sistema quanto que aquele sistema é relativamente simples e o outro a explicabilidade quanto que aquele sistema consegue se explicar né então eu queria diferencial interpretabilidade e explicabilidade e muito muito embora essa discussão exista na literatura técnica também né Qual que é a diferença entre as coisas se existe se não existe como fazer como reagir Eu acho que o próprio fato disso existir na literatura técnica eh traz um alerta para o CNJ né que eu acho que isso tem que ser continuamente avaliado diretrizes técnicas T que ser continuamente editadas para se adequar ao consenso técnico
que tá se formando né porque eu só vou distinguir da seguinte maneira existem vários sistemas que não são de a generativa que podem ser muito úteis pro Judiciário por exemplo para encontrar documentos para melhorar a logística e que são muito opacos né E então você pode preferir impedir que sistemas sejam tão opacos escolhendo apenas aquelas técnicas que são interpretáveis isso pode parecer um pouco difícil mas é o que acontece com o banco central por exemplo o banco central exige que os bancos se limitem a certas técnicas que são consideradas interpretáveis os seres humanos consegue entender
aquilo dentro de limites né e e dentro de qualificação certo cada um entende o que consegue que estudou e que que aprendeu mas existe uma regramento para dizer olha essas técnicas são interpretáveis essas Vocês pode usar né agora o o a palavra explicabilidade em geral ela é usada quando você tem um sistema que consegue se explicar ou gerar explicações né Isso é um nível muito mais complexo tá e e é um nível que a i generativa e aí sim eu queria falar da i generativa Ela traz novos desafios porque hoje se você perguntar pro chat
GPT alguma coisa e você pedir para ele explicar Ele vai gerar um texto né então o desafio aqui é o seguinte qual é a explicação que você aceita a explicação que o próprio sistema gerou o ser humano tem muita facilidade de gerar explicações paraas suas decisões a posterior né Nós queremos que os nossos sistemas interal também se expliquem a posterior então ele toma uma decisão onde há discriminação mas ele explica ele explica com outra história né Então esse é um cuidado que eu teria ao pensar em explicabilidade que eu não vi discutido ainda e queria
trazer essa reflexão eh é preciso regrar Tecnicamente e colocar algumas diretrizes técnicas que talvez o comitê de inter social depois tenha que fazer com a ajuda da academia de uma forma dinâmica para dizer o que que é uma explicação válida né o que que se o que que se limita eh esse a que que se limita esse processo tá então eu acho que essa é uma questão que merece muita reflexão muito cuidado a diferenciação entre o que é interpretável e o que se o que consegue se explicar é importante né e os cuidados que isso
traz também são Finalmente eu queria eh encerrar a minha minha fala aqui eh dizendo o seguinte que eu como eu já disse eu li o documento achei muito muito muito sério muito interessante do ponto de vista técnico claramente é feito por pessoas que sabem o que que estão fazendo então não tenho muitas críticas mas eu diria o seguinte que existe um excesso de foco na palavra generativa né porque eu acho que pela próprio momento que a gente vive eh a IAG generativa tá em muita evidência e eu acho que talvez há uma reação ao fato
que o o as diretrizes anteriores não foram editadas em 2020 não não existia ainda esse esse Grande e esse grande reboliço em torno da e generativa mas eu acho que muito do que tá escrito ali com o adjetivo e com com para i generativa é se aplica a muitas outras técnicas E aí o que que pode acontecer pode acontecer Que bom alguém diz bom isso aqui serve só para e generativa mas agora tem a que não é generativa que usa por exemplo raciocínio lógico você não não aplicaria nisso também eu acho que na verdade as
as boas ideias que estão no documento se aplicam a todos aqueles programas de computador que pela sua complexidade e pela dificuldade de de interpretação deles e tal exigem cuidados né Não só aquilo que hoje está vamos dizer na moda entre aspas que é EA generativa né então eu tomaria um pouco esse cuidado para essa sugestão para paraa reflexão aí do do conselho mas com isso eu encerro agradeço muito eu queria ser relativamente Breve Aqui focar em alguns pontos específicos eh eu acho que vários que já foram levantados no no decorrer do dos seminários aqui que
são muito importantes então agradeço muito agradeço de novo a professora Laura e parabenizo novamente o conselho Professor Fábio eh obrigadíssimo pela sua contribuição acho que trouxe pontos importantíssimos acho que essa discussão sobre o que que é uma explicação válida acho que é um ponto muito interessante a discussão sobre govern que você trouxe e eu gostei muito do ponto que você colocou como a resolução ela pode eh parecer complexa e a governança também vai ser complexa e portanto a conscientização sobre os riscos né e é fundamental e como implementar acho que a preocupação sobre como ela
vai ser implementada é muito muito importante também eh então muito obrigada pela sua participação prazer e escutar sempre te escutar professor e eu já queria Então passar a palavra sem mais delongas aqui pro Caio César Vieira Machado Caio é um prazer eh ter você aqui conosco também eh você tem a palavra muito obrigado eh eu consigo compartilhar uma apresentação ou ou só no Consegue sim sim então eu preciso da autorização mas enquanto a gente eh enquanto isso é é liberado eu já vou inici minha fala pra gente não não atrasar eh bom primeiro queria agradecer
muito o convite a a Dra Laura ao Conselheiro eh Bandeira de Melo queria cumprimentar todos os presentes que eu não consigo ver muito bem quem tá H eh mas queria muito agradecer esse espaço bom eu vou falar hoje eh sobre arbitrariedade eh Na verdade eu tô tendo dificuldade aqui então vou só falar infelizmente eu não vou conseguir mostrar os slides mas eu circulo eles depois eh eu vou falar sobre um estudo que a gente fez aqui em harv que traz uma perspectiva de um tipo de risco que eh ainda é pouco estudado porque ele foi
detectado recentemente Então eu vou passar uma boa parte da apresentação falando sobre esse experimento E aí no final eu trago para trago a minha contribuição em termos de de implicações jurídicas tá desculpa mas eu acho que dá para você você conseguiu a apresentar disseram que você não precisa de autorização eu acho que é uma questão de de configuração na minha ponta ele tá pedindo deixa eu ver se agora ele vai ele vai pedir para para eu desligar e ligar de novo não tranquilo então então vou então para não para não prejudicar os os demais eu
vou e eu circulo a apresentação depois que tem as referências eh só fico chateado porque porque era uma apresentação bastante lúdica eh mas enfim eh então eu vou explicar vou discutir esse experimento que a gente fez sobre arbitrariedade tá arbitrariedade eh quando a gente fala de algoritmos diz respeito a decisões aparentemente inócuas inofensivas no momento do treinamento que afetam o resultado de predições específicas lá no final da cadeia então pensem o seguinte eh por algum motivo ou desculpa por algum motivo não a pessoa que tá treinando os dados precisa ordenar a base de dados de
alguma forma do nosso ponto de vista a ordenação pode ser aleatória a gente não tem particularmente uma necessidade de um um dado tá na quarta posição na décima E por aí vai mas na ponta esse elemento aleatório pode acabar influenciando o resultado E aí um ponto importante é que não necessariamente o resultado a a acurácia geral do modelo muda mas sim em casos específicos então por isso que é arbitrariedade então a gente tá comparando modelos que são igualmente bons que T por exemplo uma taxa de acerto de 95% mas aí em casos específicos eles discordam
e a única forma da gente detectar essa Essa arbitrariedade é comparando modelos quer dizer a gente pega o mesmo modelo ainda não treinado treina E aí compara os resultados não sei se até aqui tá dando para para acompanhar Espero espero que sim então o que a gente fez foi a gente pegou modelos abertos da da Microsoft e da Google e a gente treinou esses modelos para fazer moderação de conteúdo ou seja detectar certas publicações e e determinar se aquilo era considerado tóxico ou não tóxico Isso é uma atividade muito comum em redes sociais provavelmente as
pessoas aqui presentes já ou tiveram né já passaram por essa situação ou viram ouviram de amigos por exemplo quando o Instagram detecta violência e manda uma mensagem assim olha esse vídeo contém violência você quer mesmo assistir ou uma publicação que é removida do ar eh ou no YouTube por exemplo quando eh Há uma marcação embaixo Olha isso fala sobre covid procure informações confiáveis eh então isso essa governança de conteúdo passa por eh modelos né algorítmicos mas implementa regras regras que são tanto das plataformas né políticas termos de uso e tudo mais e até leis por
exemplo resolução do TSE determinando a a remoção de conteúdo por similaridade então a gente usou essa Instância que não é do Judiciário essa aplicação que não é do Judiciário mas para que é um microcosmo controlado pra gente testar esse fenômeno da arbitrariedade E aí a gente obteve dados muito interessantes eh para para dar um pouco mais de detalhe sobre o experimento a gente treinou 60 modelos que tinham acurácia parecidas V da né que é da Google e 40 do da toxy que foi desenvolvido pela meta pela pela Microsoft e esses modelos são amplamente usados na
indústria então a gente não tá falando de algo que é artesanal né feito digamos aqui Por um punhado de pessoas mas sim algo que foi dado pela indústria né que é código aberto e que é usado como padrão por uma série de Serv isos E aí a gente pegou uma série de base de dados e treinou aí treinou o modelo ã E aí fizemos essas comparações então Imaginem como uma discordância de perspectiva talvez vocês tenham visto já aquele aquela charge que há H uma um número desenhado no chão e uma pessoa de um lado diz
um seis diz que é seis do outro lado diz que é nove então é mais ou menos essa os modelos discordam sobre instâncias específicas e a gente mapeou essas instâncias E aí o que é muito curioso é que em até 30% dos dados a gente detectou arbitrariedade Isso significa que há elementos aleatórios influenciando essa categorização em até 30% dos dados que para nós né o primeiro ponto é algo um tanto iante porque a gente tá falando da classificação de texto A gente tá falando de algo que é menos complexo por exemplo que a classificação de
vídeo áudio enfim Outras aplicações que também usam esses modelos e importante lembrar que por mais que em alguns casos apenas um modelo discord dos outros 59 esses modelos são igualmente bons então a gente não tem como dizer que os 59 estão certos e aquele um modelo está errado um segundo ponto importante é entender que essa aleatoriedade não eh incidiu na população de forma igual e aí a gente como a gente tá falando de modelos de detecção de toxicidade que foi o nosso nosso teste aqui as eh afirmações as publicações que eram consideradas tóxicas eram dirigidas
a determinados grupos sociais então elas estavam atacando alguém em razão de raça em razão de orientação sexual em razão de gênero e dependendo do grupo social que que o alvo né o alvo desses ataques se encontrava essa aleatoriedade podia ser maior ou menor ou seja pra gente digerir essa informação a gente tem um grau de aleatoriedade no modelo de linguagem que é só detectável quando a gente compara modelos tá segundo ponto essa aleatoriedade não incide igualmente em todos os casos ou mesmo em todos os grupos sociais e aí por fim a gente comparou a aleator
a discordância entre os anotadores né os dados que a gente usou foram anotados por pessoas que olhavam e falavam assim isso aqui é tóxico ou não é tóxico e a gente imaginou que que a discordância dos modelos fosse replicar a discordância eh das pessoas isso acontece muito mas não é sempre o caso e aí a gente percebeu que os modelos em muitas situações não conseguem perceber coisas que são unimas unânimes e não são ambíguas né são unívocas para humanos ou seja o uso da máquina em alguma medida introduz uma cza isso é algo que a
gente precisa prestar atenção também então Eh trazendo isso pra nossa discussão aqui hoje eh o objetivo desse experimento não é dizer não vamos usar Inteligência Artificial generativo ou não eh fazer um discurso apocalíptico atacar as empresas pelo contrário o objetivo é contribuir para esse mapeamento de riscos porque hoje não se fala em arbitrariedade por diversos motivos né um é muito caro detectar Isso você precisa de fato treinar modelos e o treinamento de modelos como esses que são usados como do chat GPT tá cada vez mais mais caro hoje treinamento do modelo é estimado ali entre
10 eh e 100 milhões de dólares pelo menos essa estimativa que eh a opi tem dado e com a perspectiva por conta da da do crescimento em escala de em breve um treinamento de modelo chegar a um milhão de dólares não sei se é apenas Hype né se é Mas de fato há um crescimento em escala do custo e treinar diversos modelos impliquem custos pros desenvolvedores agora a gente também tem que pensar que se há esses riscos a gente precisa repassar esses custos para quem tá implementando Essas tecnologias né seja empresa seja enfim alguém que
contrata esses serviços então e também criar incentivos para que a arbitrariedade seja Considerada no individual Porque no momento a gente parece que tá falando de um de um dano que não existe porque a acurácia é parecida em todos os casos e Essa tem sido a postura da indústria inclusive dizendo bom a gente tem um modelo que é igualmente igual mas pro indivíduo que é afetado que por exemplo no modelo a não tem um direito violado e no modelo B tem para essa pessoa interessa saber que aleatoriedade em alguma medida está influenciando a decisão dela E
aí trazendo também pro eh pro Judiciário isso implica numa ruptura com procedimento a gente parte do pressuposto que a operação de instituições é aplicação de regras se em algum momento a aleatoriedade é introduzida a gente precisa ter o mapeamento desse processo dessa introdução de aleatoriedade pra gente poder ter as amarras e as garantias que garantem processo e por fim a o dano mais Óbvio é a própria discriminação então eu trago aqui esse novo risco por assim dizer justamente porque é algo que a gente precisa discutir a gente precisa levar em conta e algo inerente ao
modelo de linguagem Então por mais que a gente tenha testado numa situação de vou chamar de adjudicação privada né porque a gente tá falando em questões de disputas privadas de moderação de conteúdo é algo que se traduz em qualquer medida eh seja na classificação né de de recursos seja no uso de predições para por exemplo fazer resumos eh essa aleatoriedade tá presente e a gente precisa ter recursos de mapear isso de auditar isso então para concluir a minha fala eh eu trago para uma lista de recomendações que a gente fez que a gente publicou no
no T20 que é encaminhado para o G20 Eu posso também eh encaminhar junto com os slides esses esses documentos eh quando a gente introduz algoritmos para em situações de gerenciamento de recursos críticos a gente tem que pensar nessas amarras de forma muito necessária eu sei que o CNJ tá eh tá ciente disso o termo que a literatura tem eh que a literatura concebeu eu acho muito interessante que é a ideia de um Leviatã algorítmico né e e esses leviatãs surgiram de forma invisível já estão operando em muitas situações E aí eu não tô falando só
do Brasil mas por exemplo crédito ã recrutamento educação Então muitos casos ao redor do mundo a gente vê essas situações em que um Leviatã é criado em que um algoritmo de alguma forma faz uma alocação de direitos e recursos na sociedade e que se a gente não tiver essas amarras essas auditoria a gente pode criar introduzir riscos e aí eu alio isso a um outro ponto também que é a ideia de monocultura a gente tem produtores únicos no mundo são pouquíssimas empresas que produzem Essas tecnologias e elas se espraiam por onde elas são introduzidas seja
na moderação de conteúdo que a Open ai vende via GPT 4 as implementações de empresas do GPT do chat GPT enfim são pouquíssimas empresas que aí oferecem esses serviços pro mundo todo e por isso as falhas e também né consequentemente os riscos que estão inerentes àquele modelo acabam sendo implementados em outras atividades ã em diversos outros setores então a gente precisa tomar cuidado também em ter essa prestação de conta e auditoria onde na fonte Estão onde eles estão sendo produzidos mas também nas implementações são camadas distintas com isso eu concluo a minha fala eu agradeço
espaço ao convite eu cumprimento todos presentes e enfim Peço desculpas por não conseguir colocar os slides eu encaminho eles se for do interesse muito obgado [Aplausos] eh muito obrigada Caio pela sua participação como sempre eh muito enriquecedora acho que você trouxe pontos importantíssimos Como por exemplo o fato de que nem sempre um modelo eh Nem sempre a acurácia pode ser o único elemento né o único eh eh a a ser considerado Talvez o único critério a ser considerado eh quando você fala de a arbitrariedade a aleatoriedade eu acho que traz muito também um elemento de
justiça que a gente já vem eh trazendo e comentando ao longo desses últimos eh painéis e Sem dúvida nenhuma quando a gente tá falando da aplicação da ia no judiciário eh esse elemento ele é ainda mais relevante eh acho que também quando você fala de Leviatã algorítmico ele traz várias outras referências Como por exemplo o conceito de algoritmos como instituição né que o professor Virgílio Almeida também sempre traz e o acho que é muito propício e muito adequado também para esse para esse nosso contexto então muito obrigada mais uma vez Caio pela sua participação e
sem mais delongas eu já queria passar então a palavra pra Patrícia florice eh do Google Cloud que vai falar sobre o futuro da ia hoje eh macr momentos evolutivos eh do uso de a generativa no sistema de Justiça Patrícia agradeço eh mais uma vez aqui a sua participação e você tem a palavra muito obrigada ã vamos ver se os slides Obrigada Bom dia professora Laura chert al Mendes coordenadora deste painel e todos e todas aqui presentes meus cumprimentos aos organizadores particularmente ao conselho Lu ao Conselheiro luí Fernando Bandeira de Melo pelo convite para participação Na
audiência pública sobre ia no poder judiciário convocado pelo CNJ o futuro hoje quando se fala de Iá generativa estamos vivendo o futuro hoje A Iá generativa representa um momento histórico secular que irá acelerar o desenvolvimento da humanidade e transformará o modus operand do Trabalhador do conhecimento como por exemplo os magistrados os analistas do Judiciário e de servidores do direito hoje conseguimos enxergar pelo menos três macr momentos evolutivos no sistema judiciário impulsionados por ia o Primeiro Momento acontece quando a ia possibilita ao servidor do direito conhecer e analisar processos de uma maneira bem sistemática salientando os
documentos de mais relevância dentro do contexto de uma atividade específica extraindo informações essenciais desses documentos e criando resumos que facilitem o entendimento do desenvolvimento do processo ao longo de sua linha temporal Neste vídeo vemos um servidor de direito receber um e-mail solicitando análise de um processo o servidor é então levado para um Google Drive onde encontra os arquivos mais relevantes previamente selecionados e um resumo do caso como um todo o servidor pode facilmente obter acesso a informações de cada documento e um resumo do que cada documento contém o servidor pode também interagir com o conteúdo
usando uma linguagem natural estes avanços t o potencial de trazer consistência metodológica eficiência no processo da e constância na acurácia dos resultados o segundo momento acontece quando a ia possibilita ao servidor do direito a economizar tempo e ter mais acurácia na busca para encontrar o que se tem sobre determinado assunto discutido no processo através da pesquisa da lei ordinária da Constituição Federal da processualística dos códigos de casos relacionados de precedentes de súmulas vinculantes e de outras fontes de conhecimento que se tornem necessárias para uma apreciação Coesa e profunda de um processo Neste vídeo nós vemos
uma representação da constituição brasileira que sempre me emociona quando eu vejo que foi criada pela I Gener onde Cada nó representa um título um artigo um capítulo uma sessão um parágrafo ou uma linha vemos também um servidor de direito poder selecionar a opção para visualizar a anatomia do conteúdo de um processo onde o processo é um nó numa base de conhecimento que inclui as súmulas vinculantes os precedentes artigos e outros conteúdos relevantes a ia generativa permite hoje a coleta e Construção dessas bases de conhecimento do conteúdo escrito a aplicação de raciocínios para análise dessa informação
e inferência de mais conhecimento com a identificação de potenciais tópicos de repercussão geral e interface usando linguagem natural para interação e exploração dessas bases o uso dessas bases de conhecimento Podem trazer diversos benefícios como por exemplo a redução de Alucinação quando a i generativa restringe sua pesquisa a essas bases de conhecimento mecanismos de Transparência quando expõe a anatomia do conteúdo narrado e mecanismos de explicabilidade quando torna-se visível o rastreamento do fluxo de pesquisa usado para embasar uma conclusão esses avanços tecnológicos da ia generativa tem o potencial de acessorar ainda mais na aplicação forme da Justiça
na coerência no tratamento da Lei e na abrangência do processo analítico o terceiro momento acontece quando o ia oferece ao servidor do direito instrumentos capazes de compor decisões que não só são embasadas no entendimento rigoroso do caso informado por uma pesquisa uniformemente aplicada mas que também pode contar com a simulação de um painel de Agentes de Ia onde cada agente é uma aplicação da ia generativa que atua como um especialista numa área criando um fluxo de trabalho argêntica neste vídeo vemos um servidor de direito selecionar a opção para obter pontos de vista num processo navegando
do processo a um chat onde pode conversar com diversos agentes de Ia onde cada agente assume o papel de especialista e Guardião de um direito fundamental específico dando uma perspectiva de como um direito está sendo ou não preservado esses avanços tecnológicos da ia generativa tem o potencial de trazer pluralidade quando pode expandir a amplitude da análise de uma decisão a inclusão consciente de perspectivas controversia e a rastreabilidade das linhas de raciocínio é importante parar e refletir sobre o potencial paradoxo do impacto de quando ao mesmo tempo podemos vê-la como potencial veículo de adição de riscos
a garantia dos direitos fundamentais e potencial veículo de guardião sistêmico das garantias desses mesmos direitos fundamentais passemos para um futuro responsável em 2020 sudar p shai ceod da alfabet disse a ia é muito importante para não ser regulada a ia é muito importante para não ser regulada correto ente reconhecemos que tecnologias avançadas Podem trazer grandes Desafios que precisam ser abordados de maneira clara ponderada e afirmativa parabenizo a iniciativa do CNJ na regulação da ia generativa que é necessária e que exige que seja feita corretamente porém a trilha do Futuro ela precisa ser norteada por uma
estratégia Clara que define dentro de cada contexto os objetivos do uso de a e os objetivos para os os quais a ia não será mais usada em 2017 a Google decidiu se tornar uma ai first Company e em 2018 definiu seus princípios de ia que definem objetivos para criar uma ia benéfica como também as aplicações de ia que não vamos adotar incluindo tecnologias que causam ou podem causar danos Gerais armas ou outras tecnologias criadas para causar ferimentos a pessoas tecnologias que col o uso informações para vigilância que violam as normas aceitas internacionalmente e tecnologias que
TM um objetivo contrário aos princípios amplamente aceitos das legislações internacionais e dos Direitos Humanos a medida que adquirimos mais experiência nesta área esta lista pode aumentar uma vez definidos os principais os princípios partimos para identificar os riscos que conhecemos hoje e criar planos concretos de como podemos prevenir esses riscos Ou pelo menos mitigar o impacto dele hoje focamos em quatro áreas que objetivam prevenir ou mitigar riscos identificados por organizações privadas e públicas por questões de tempo eu vou me focar agora na ia responsável porém aplicamos essa mesma metodologia para todas as áreas mencionadas Nós pensamos
de I responsável como uma constelação de termos que focam em conceitos e valores como a explicabilidade a transparência a Equidade responsabilidade ética confiança e também termos e métodos bastante relacionados aia a gente é hoje uma tecnologia emergente onde definições e padrões vão continuar evoluindo por um muito tempo e por e onde muitas complexidades e riscos ainda são desconhecidos assim sendo usamos uma metodologia para revisão de cada produto funcionalidade a ser adicionada em nossa infraestrutura e nossas soluções a metodologia consiste em identificar potenciais riscos segundo avaliar a probabilidade desses riscos acontecerem e medir o impacto e
terceiro mitigar os danos através de planos sociotecnológicas metodologia está sempre embasada nos nossos princípios de ai exemplos desses planos sociotecnológicas para e generativa que usam hoje que usamos hoje incluem mitigações tecnológicas como filtros de conteúdo avaliações de modelos protetores de políticas como políticas de uso e termos de serviço documentação e transparência como relatórios técnicos ferramentas como citações e grounding e mecanismos de feedback sempre incluindo o ser humano para dar criar canais para feedbacks de usuários à medida que a ia generativa evolui o aprendizado precisa continuar e requer que esses planos de mitigação sejam reforçados em
todo o ciclo de vida dos produtos incluindo durante o desenho o desenvolvimento a implementação e o uso o futuro concreto a regulamentação em si só não é suficiente para garantir que seja cumprida a regulamentação define o que se deve fazer mas não necessariamente especifica como fazê-la quem não se lembra da história dos três porquinhos três porquinhos com a mesma definição do que fazer ou seja construir uma casa para se proteger do Lobo Mal três diferentes versões de como fazê-la ou seja usando palha argila ou cimentos e três resultados fundamentalmente diferentes na conformidade do objetivo de
proteção do Mal como garantir os princípios de i e como prevenir as atividades indesejadas Precisam fazer parte do desenho de uma arquitetura solidificada em concreto na Google acreditamos numa arquitetura de tecnologia modular organizada em camadas na nossa Fundação temos uma infraestrutura desenhada para ser segura e resiliente desenhada para ser regular segura e resiliente repito mais uma vez desenhada para ser segura e resiliente não pode ser um pensamento posterior construída especificamente para iar generativa permitindo a escala exponencial de modelos de I em cima desta camada tem uma plataforma de software para construir e usar ia que
oferece um Model Garden para acessar uma coleção de modelos curados que já foram pré-treinos sejam eles eh privados ou públicos ou open source um Model builder para construir os modelos de Ea para costumizar os modelos de ia e Agent builder que é para criar agentes de ia inteligentes essas camadas viabilizam o praticante de ia a desenvolver e costumizar modelos e aos desenvolvedores de ia a descobrirem modelos tonificar esses modelos para tarefas customizadas e lançar seus próprios projetos de ia acreditamos que a funcionalidade de a deve encontrar o trabalhador do conhecimento onde o trabalhador está e
não forçá-lo a sair do seu habitate para poder ter acesso a tecnologias de Ea hoje encontramos 3 bilhões de usuários na plataforma da Google work Space e acreditamos que ferramentas como editor de texto editor de planilha e e mais sejam estão sendo usadas eh diariamente através da Integração de eh ferramentas de ah produtividade como workspace e plataformas de nuvens como a Google Cloud também viabilizam tecnologias de a generativa de ponta de forma democratizada consistente e responsável a ário final o uso dessas tecnologias ela abre caminho para o CNJ e outros órgãos para que eles esses
órgãos comecem a oferecer uma plataforma de serviços de tecnologia que abstraem funcionalidade de cunho comum aos servidores de direito e esta plataforma do sistema judiciário serviria Então como embasamento para as aplicações que são finalmente oferecidas aos usuários o o futuro Brasil hoje nesse processo histórico evolutivo as sementes que plantamos e cultivamos determinam o potencial da floresta que pode ser gerada a riqueza do ecossistema que pode ser criado e a rapidez do processo de crescimento não basta regulamentar precisamos também estudar ensinar e viabilizar o cumprimento dessas regulamentações como instrumento de ordem e progresso para estabelecer o
Brasil como líder mundi em adoção de ia a ia generativa pode se tornar um Guardião e o Brasil se encontra em posição privilegiada ao conjunto imenso de riquezas naturais que temos como nação foquemos também nas nossas riquezas digitais que incluem elementos fundamentais para a adoção e crescimento da Iá generativa número um a disponibilidade de dados digitais em grande escala número número dois o acesso à tecnologia de ponta e a metodologias de seu uso responsável e número três o capital humano qualificado reconhecemos que o desafio é grande quando se trata de adoção de tecnologias emergentes extremamente
complexas como a i generativa e gostaria de me pôr à disposição para aprofundar do ponto de vista tecnológico em qualquer ponto de interesse em nome da Google gostaria de mais uma vez Agradecer o convite ao oportunidade de compartilhar a nossa visão como arquitetos Engenheiros e provedores de tecnologia e inovação com o objetivo principal de colaborar de perto para que juntos fomentemos alices sólidos de I generativa no Brasil enquanto que enraizados na preservação enquanto que viés para viabilização e enquanto que provedor de garantia dos direitos fundamentais do cidadão o momento é único o momento é nosso
o futuro Brasil é nosso muito obrigada Dora eh Patrícia florice Muitíssimo obrigada pela sua contribuição a gente trouxe elementos também muito importantes para pro nosso debate acho que seja a evolução né da ia impressionante a gente perceber como no mundo do direito a inteligência artificial tem sido ou tem evoluído de Fato né para atividades de fato operacionais e de atividades operacionais para atividades relacionadas à tomada de decisões acho que isso foi muito importante passando também pela importante atividade de pesquisa eh também muito importante na sua fala os elementos da ia responsável e certamente acho que
esse é o grande objetivo eh não só da regulamentação mas de todo esse debate que é como buscar essa I responsável né certamente Isso fica muito claro também na sua fala eh Há uma série de pressupostos para que a gente possa atingir eh os objetivos importantes que a gente conseguiria sim e pode conseguir e vai conseguir com a aplicação da Inteligência Artificial mas os pressupostos não são simples e uma regulamentação eu diria complexa completa ela é muito relevante Sem dúvida nenhuma esse debate acho que bastante plural que o CNJ tá realizando ele nos permitirá chegar
nesse resultado né Ou pelo menos é assim que é isso que a gente espera então mais uma vez muito obrigada eh pela sua participação e pela sua contribuição e eu queria Então Pass a palavra ao querido tario Silva da fundação Mozila que vai falar sobre e a responsável justificação e modelos Seguros Tarcísio mais uma vez obrigada pela sua participação você tem a palavra muito obrigado D Laura é um prazer poder estar aqui n nessa são Ah quer agradecer prazer estar aqui nessa nesse debate considerando né que é uma mesa mediada pela senhora né que tem
produzido eh muito na questão de discriminação algorítmica que é um dos pontos que eu vou focar bastante aqui então queria primeiro né saudar os doutores doutoras do grupo de trabalho eh pela elaboração do ótimo trabalho né dessa minuta de atualização da resolução né e a incorporação de mecanismos sendo discutidos socialmente seja no no senado seja organizações internacionais e também né e parabenizar o Conselho Nacional de Justiça em estabelecer mecanismos de escuda da sociedade especialistas eh contextualizando um pouco eu estudo os impactos eh de sistemas algorítmicos como pesquisador e como consultor daa sociedade civil através de
dois chapéus O primeiro é pesquisador apoiado pela Fundação Mozila que é uma Fundação que busca promover o uso e desenvolvimento responsável de tecnologias digitais que sirvam a todos eh evitando né A extração indiscriminada de dados e o colonialismo digital que a gente tem visto de uma forma tão forte eh o resultado da pesquisa que eu desenvolvo para da fundação Mozila também formada pelo doutorado que eu faço na UFABC estão disponíveis no site desvela Org para quem tiver interesse e enquanto sociedade civil faço parte do projeto na net da Bong Associação Brasileira de organizações da sociedade
civil buscando trazer mais Organizações e mais pluralidades pros espaços de debate sobre tecnologia afinal de contas como quase todos disseram eh para defender né as perspectivas da ia a tecnologia digital está aí perpassa né toda a nossa vida então a gente acredita que se passa por todas as esferas da vida a conclusão decorrente é que todos devem participar e ser representados nas desi sões sobre tecnologias digitais então o primeiro ponto que eu eu gostaria de ecoar o que colegas como a ministra Edilene Lobo trouxeram sobre a importância né da participação social nesse debate considerando né
que os estudos sobre impactos algorítmicos a literatura na área tem mostrado uma enorme dificuldade sobre responsabilização e transparência devido sobretudo a simetria de poder entre bigtech startups impulsionadas pelo capital financeiro e o resto da população que sofre os impactos eh da falta de transparência da falta de controles de qualidade então assim tanto para fins republicanos de controle social quanto para fins de qualidade epistêmica do desenvolvimento das tecnologias reforço também o apelo para incluir mais mecanismos de participação social na minuta E aí dito isto eu queria trazer três pontos rápidos focados na questão da chamada ia
generativa ou como eu prefiro chamar sistemas algorítmicos derivativos são sistemas desenvolvidos em grande medida sobre enormes bases de dados extraídas de ambientes online em sua maioria sem autorização ou consentimento dos autores Além disso com muitos problemas de representação eh e conhecimentos nocivos incorporados já provado pela literatura científica eu gosto muito da metáfora que a beba biran chama de Vitória pírrica no desenvolvimento de grandes modelos uma vez que práticas do desenvolvimento de grandes modelos que foram apropriados né pelas bigtech normalizaram práticas problemáticas então aparente Vitória técnica mas uma vitória pírrica onde muitos literalmente milhões são prejudicados
Pelo modo como isso é feito nesse sentido os impactos nocivos reais das práticas problemáticas socialmente eh São provados né e estão disponíveis em muitos repositórios além do repositório que eu mantenho no projeto desvelar eu queria posso citar por exemplo a ai intersections Database da Mozilla o artificial intelligence Database do coletivo responsible ai collaborative ou mesmo o ai incident monitor da ocde então a literalmente milhares de casos que mostram que o que as bigtech tem feito sobre inteligência artificial eh tem trazido muitos eh malefícios eh que poderiam ser eh resolvidos com mais responsabilidade Mas isso não
tem acontecido quanto a grandes modelos de linguagem eh obviamente né não conseguiria aqui citar milhares de casos que podem estar Associados né a Organizações como a meta alfabet a Google e outras que estão sendo né fazendo Lobby para serem eh computadas pelo por todos os poderes inclusive o poder judiciário mas eu queria citar três recentes títulos de artigos ou de Investigações abre aspas grandes modelos de linguagem propagam crianças racistas na medicina publicada na Nature abre aspas tema da openi discriminar currículos a partir dos nomes investigação do intercept e um preferido meu abre aspas Coma uma
pedra por dia e bote cola na sua pizza pizza como a Ea da Google se descolou da realidade porque o sistema né de e a nos buscadores da Google foram lançados com esse tipo de eh recomendação vulgar e nociva mas essa é só a parte da história recentemente a Confederação sindical internacional lançou a lista de corporações que minam a democracia em 2024 e no top c duas delas são bigtech que também oferecem serviço de generativa temos muitas evidências sobre os problemas eh em compartilhar dados estratégicos com empresas estrangeiras dos Estados Unidos Israel e China e
que são apontados por especialistas em cibersegurança e soberania digital Então a partir dos acúmulos sobre os impactos algorítmicos alguns juristas e ativistas têm aprofundado as chamadas abordagens de justifica e confiança zero nesse Panorama a explicabilidade parece insuficiente a maioria das abordagens de explicabilidade oferece uma perspectiva limitada por ser intrínseca e descritiva focada em métricas internas sem levar em conta fatores institucionais a justificação Move para uma abordagem normativa e sistêmica PG e aqui foi bacana que o Dr Bruno Bion inclusive mencionou isso né então foi um spoiler importante do que eu troue eh pasqual maer propõe
abordagem justificação como indo além da apenas transparência sobre a tecnologia e seus processos mas uma justificação sobre a legalidade Justiça necessidade precisão e legitimidade de certas decisões automatizadas antes de qualquer uso ou contratação quando se trata de autor risco ou escala do ponto de vista da sociedade civil eu posso citar a proposta de fiança zero apoiada por organizações como ai Now a cont btec e epc.org que são organizações do Estados Unidos da Europa e do Canadá enquanto brasileiros temos uma posição muito mais frágil e deveremos ser muito mais rigorosos a abordagem de confiança zero proposta
por esse coletivo considera que as organizações eh essas organizações né consideram que os custos sociais da corrida corporativa pela supremacia da Inteligência Artificial estão se acumulando à medida em que empresas aeam sistemas inseguros para o mercado que promovem discriminação algorítmica ou promovem desinformação inclusive alguns pontos mais vulgares como essa questão de os médicos proporem comer uma pedra por dia como foi o caso do Google mas o principal problema está no mais Sutil que a gente não consegue pedra por dia como foi o caso do Google mas o principal problema está no mais Sutil que a
gente não consegue avaliar de forma em escala então na medida em que esse Essas tecnologias produzidas esse estoque de caixa por causa dessa competição tudo isso é Integrado de forma imprudente em produtos e serviços essenciais então a perspectiva de confiança zero que é um conceito que vem da cibersegurança é proposto pela sociedade civil pra gente pensar inteligência artificial na sociedade Então em vez de confiar na boa vontade das empresas considerando que a gente tem visto exemplos de mafé pelo contrário eh necessário não encarregar as instituições estatais com recursos insuficientes ou os usuários finais eh de
provar e prevenir danos ou de confiar em processo de auditoria pós comercialização pelo contrário por essa perspectiva as empresas devem provar antes que suas ofertas de a não são danosas E aí um segundo ponto de de sugestão mais prático muito ligado ao anterior é a adição mais explícita de considerações sobre avaliação de discriminação indireta durante os processos de avaliação auditoria e análise de impactos em itens Como por exemplo o artigo 7º e o artigo 8c a convenção Americana contra o racismo a discriminação racial e formas correlatas de intolerância estabelecem que os estados devem Abrir aspas
realizar pesquisas sobre a natureza as causas e as manifestações do racismo da discriminação racial e formas correlatas de intolerância coletar compilar e divulgar dados sobre a situação de grupos ou indivíduos que sejam vítimas do racismo da discriminação racial e formas correlatas de intolerância a convenção que já possui estatus e gema constitucional relembra né o conceito de discriminação indireta que foi né Depois de colaborações da da sociedade civil incorporado por exemplo no PL 2338 né que está em debate no senado como deve ser de fato uma vez que tem esse estado de estatus né de emenda
constitucional mas essa esse não é um debate novo o debate sobre discriminação algorítmica tem mais de 20 anos e as grandes empresas que poderiam eh ser mais responsáveis com produção de tecnologias eh poderiam de fato utilizar esse conhecimento acumulado mas não está sendo realizado como vários diagnósticos mostram lançado em 2020 o relatório discriminação racial e tecnologias digitais emergentes produzido pela então relatora especial da ONU Tend shum recomendou que os estados devem tornar avaliações de impactos em Direitos Humanos igualdade racial e não discriminação um pré-requisito para adoção de sistemas baseados em Tais tecnologias por autoridades públicas
estas avaliações de impacto devem incorporar oportunidades significativas para codesign e co implementação com representantes de grupos étnico-raciais marginalizados Então essa é uma recomendação de 2020 que reúne acúmulos né de décadas sobre o tema e proposta pela D tendai shumi relatora especial da ONU que oferece essas sugestões aos Estados membros né da organização neste ano a nova relatora especial da ONU para a discriminação racial e intolerância está realizando um novo documento né sobre essa temática nós eh enviamos uma colaboração do ponto de vista de especialistas brasileiras e brasileiros quem tiver interesse tá disponível pode me pedir
Ou seja é uma questão amplamente conhecida que já poderia ter sido evitada então nessa perspectiva considerando a repetida eh descoberta de casos eh problemáticos né de sistemas algorítmicos das bigtech é necessário até essa perspectiva de justificação e de confiança zero e tudo isso tá ligado à questões de segurança de dados e de soberania digital mais de 500 pesquisadores entregaram ao presidente atual uma carta sobre soberania digital liderada pelo Lab livre do professor Sérgio Amadeo que vai falar aqui amanhã também que pediu que o ministério de ciência e tecnologia tome ações para a prospecção de tecnologias
e experimentos tendo como princípios da tecnodidattica considerando o contexto brasileiro o plano brasileiro de Inteligência Artificial me parece né que um esforço conjunto entre os poderes para superar esses riscos né que o poder judiciário tem ao fazer parcerias e contratar serviços né de empresas com esse histórico problemático me parece um momento ímpar um momento muito interessante para isso E aí trazendo a terceira recomendação específica que o tempo já tá indo embora eu sugiro que o ótimo caput do artigo oo é que define que os modelos de linguagem poderão ser utilizados individualmente pelos magistrados e pelos
servidores como ferramentas de auxílio em suas atividades desde que o acesso seja habilitado fornecido e monitorado pelos tribunais seja mantido e que V além em termos de segurança hoje é plenamente possível que modelos de de linguagem sejam rodados localmente a partir de tecnologias Open e seguras Há muitos desenvolvedores no mundo todo que tem buscado pro abordagens que possam prescindir de prendar as bigtech com nossos dados e o poder de enzar epistemic as decisões e ideologias das nossas instituições das Universidades do Poder Judiciário e etc a Mozilla por exemplo tem o lama file que é uma
metodologia que transforma qual qu quer modelo de linguagem em executáveis basicamente contém os pesos de qualquer modelo de linguagem aberto além de tudo o que é necessário para rodar no computador literalmente qualquer pessoa que sabe utilizar um computador consegue rodar isso localmente sem oferecer os dados para bigtech eu trago a Mozilla obviamente né do meu eh lugar de fala enquanto pesquisador da Mozilla mas queria citar que isso não é uma inovação específica da Mozila há várias organizações de desenvolvedores fazendo isso por exemplo eh desenvolvedores que fizeram modelos prontos para os modelos lava Mistral Rocket e
muitos outros então resumindo que o meu tempo vai estourar e eu queria parabenizar novamente o grupo de trabalho o CNJ e todas as especialistas que dedicaram tempo né nas colaborações e reforço a necessidade do olhar para a participação social responsabilidade crítica e sistêmica na escolha de tecnologias Muito obrigado [Aplausos] bom Muitíssimo obrigada eh Tarcísio pela sua excelente como sempre brilhante contribuição Eu destacaria talvez começando pelo final da sua fala acho que toda essa discussão isso o grupo de trabalho eh debateu muito eh o problema da segurança dos dados né Eu acho que esse é um
ponto que você trouxe muito importante seja sobre aspecto da soberania e seja também sobre o ponto de vista do Judiciário de fato que trata dados muito sensíveis né assim de uma forma muito simples pensar será que a gente consegue fazer um upload né de um Será que é possível Será que poderia ser será que é legítimo você fazer o upload de um de um processo e em Sistemas pouco Seguros né Eu acho que a resposta claramente eh seria negativo Então acho que esse é um ponto foi muito debatido no grupo de trabalho e certamente é
um dos pontos mais sensíveis desse debate acho que você trouxe um ponto muito relevante para Além disso como sempre e acho que é um debate eh da discriminação algorítmica é um debate muito sensível eh quando a gente tá falando do do Brasil é ainda mais importante né num país em que a gente tem um racismo estrutural eh e quando a gente tá falando do Judiciário ainda mais porque o judiciário ele é também pensado como uma instituição de transformação da sociedade então se a gente for pensar eh certamente a gente não quer que os nossos sistemas
sejam eh papagaios estatísticos né como na crítica de de muitos eh teóricos e e acadêmicos nesse tema muitas vezes a gente não quer apenas eh reproduzir eh nem poderíamos pela nossa Constituição reproduzir discriminações eh nós precisamos também pensar no judiciário como um uma instituição também eh de transformação da sociedade eu acho que esse ponto que você traz também é muito importante eh e eu destacaria esse dentre vários eh elementos muito relevantes que você nos trouxe então Muitíssimo obrigada aqui pela sua participação e eu queria Então passar a palavra eh para o Gustavo zaniboni que vai
falar Eh sobre a regulação da tecnologia da ia então por favor Gustavo eh mais uma vez obrigada pela sua presença e você tem a palavra eh obrigado Dra Laura eu tô muito feliz de estar aqui Agradeço o convite e quero cumprimentar todas as pessoas que estão nos assistindo agora ou que vão assistir depois eu acho muito importante esse tipo de de conversa que a gente tá tendo aqui eu acho que a gente tem que ouvir todo mundo para poder conseguir tirar eh uma regulação uma minuta um uso melhor dessa tecnologia tão importante que tá resolvendo
um monte de problemas que a gente não resolvia há algum tempo atrás eu vou tentar passar rápido eu não sei se eu vou conseguir falar tudo que eu queria falar na verdade só ouvindo Eh os outros companheiros fazendo suas apresentações Eu já fiquei com vontade de de fazer uma apresentação totalmente diferente né só vou apontar o que o Tarcísio falou ainda bem que a gente tem mais de 800.000 modelos abertos disponíveis no huging Face com todos os pesos e a maioria deles com os dados usados no treinamento disponíveis eh quem quiser seguir uma linha de
ter um grande modelo como o Google faz como Cloud Como openi pode continuar seguindo essa linha é um tipo de produto e quem quiser usar o seu modelo pce num ambiente de hag que a gente fala e com o seu próprio sistema pode escolher Então pelo menos a gente tem essa hipótese hoje mas vamos lá se eu falar Inteligência Artificial cada um de nós que tá nessa sala e cada pessoa que tá nos assistindo vai construir alguma coisa na sua cabeça e eu consigo defender que a maioria das pessoas não vai pensar na mesma coisa
cada um vai ter uma percepção diferente do que é a inteligência artificial e hoje a gente tem e ouvido muito se falar que Inteligência Artificial são sistemas que fazem coisas que dependem da inteligência do ser humano que dependem do raciocínio do ser humano e daí eu queria perguntar né alguém daqui lembra como é que calcula eh raiz quadrada eu acho que calcular raiz quadrada é um negócio que exige muito raciocínio do ser humano então a gente já tem inteligência artificial faz muito tempo que é a nossa calculadora né Eh e Brincadeiras à parte eu vou
voltar nesse tema daqui a pouquinho pra gente falar um pouquinho mais o que e a mas eu quero trazer aqui um ponto de vista sobre a necessidade que a gente tem eu até fiz uma brincadeira com as palavras que é preciso ser preciso a necessidade que a gente tem de ter um pouco mais de precisão técnica quando a gente tá olhando para como usar e para Como regular Inteligência Artificial tá eu acho que isso é é é muito importante e a gente tem que lembrar que o ser humano ele tem uma tendência de automatizar tudo
que ele puder automatizar então a gente não tá falando de ou de tentar imitar um um ser humano mas a gente tá falando de resolver problemas e de automatizar coisas e até 3 anos atrás ou 2 anos e meio atrás eh tinha um monte de problemas que a gente não sabia resolver muitos desses problemas e eu sou desenvolvedor mais de 30 anos a gente sabe lidar com questões de sintaxe faz desde a década de 70 ou antes mas com questões de semântica interpretação de texto problemas relacionados a gente conseguir dar instruções que não são botões
que não são muito bem pré-determinadas para um computador para um programa de computador a gente não consegue resolver esse tipo de problema e de repente a gente dormiu em 2022 acordou no final de 2022 com o chat chpt que consegui implementar um algoritmo que é de 2017 e que conseguiu fazer isso então hoje a gente vai ter a capacidade de automatizar muita coisa que a gente não era capaz de automatizar há do anos atrás tá eh só como aptes né os modelos de imagem não os de texto M Journey etc o artigo original deles é
de 2014 é mais antigo ainda só que isso apareceu de uma vez no final de 2022 começo de 2023 e a gente tá acostumado com inteligência artificial sem chamar de Inteligência Artificial a gente tem sistemas que já estão H algum tempo funcionando divisão computacional na indústria Isso já é aplicado eh hoje acho que nenhum de nós consegue e pedir um táxi pondo a mão na rua a gente usa aplicativo e o aplicativo ele não é uma inteligência artificial e a principal função dele no usa Inteligência Artificial mas ele tá usando técnicas de inteligência artificial para
calcular o tempo estimado para você chegar para definir qual que é a melhor rota que você vai ter e até para ver quanto que ele vai te cobrar tudo isso tá rodando inteligência artificial tem uma pessoa que eu gosto muito que tá aqui que é o Alexandre que F sempre falou desde a primeira vez que eu ouvi ele falar que quando a gente e tem ali a inteligência artificial definindo qual é o próximo filme do Netflix tudo bem se ele errar não tem problema mas is se eu vou definir com inteligência artificial quem que vai
entrar num próximo leito de UTI então a gente começou a ter o problema a gente começou a ter o problema mais sério o problema começou a ficar sério tá então o que que tem debaixo do capô para responder aquela pergunta do que é inteligência artificial e eu tenho que começar a olhar PR pr pra Inteligência Artificial Tecnicamente de uma forma que eu consiga ter uma base sólida para construir as teses jurídicas a regulação e definir como eu vou fazer o uso dela sabendo da sua limitação se eu não conheço a limitação da tecnologia se eu
não sei exatamente o que ela pode me entregar ou não Provavelmente eu não vou conseguir usar ela de uma forma correta então o que é inteligência artificial é uma coisa é o é o humanoid é uma máquina inteligente não Inteligência Artificial é o como eu resolvo um problema eu posso resolver o mesmo problema usando Inteligência Artificial ou sem usar Inteligência Artificial vou dar um exemplo bem rápido bem simples eu posso identificar que tem uma pessoa passando num ambiente com uma câmera usando técnicas de processamento de imagem simples como erosão dilatação e transformada de fourrier ou
eu posso usar um algoritmo que usa inteligência artificial qual é a diferença Eu acho que isso é importante a gente saber quando eu uso uma técnica de Inteligência Artificial eu como programador eu não digo exatamente o que o sistema tem que fazer eu preparo uma estrutura e eu apresento exemplos para esse programa e esse programa ele tem seus parâmetros estimados a partir desses exemplos eu tô treinando um sistema ele tá aprendendo Mas se a gente antropomorfa se a gente fala visão computacional inteligência aprendizado bate na nossa cabeça na cabeça de cada um de nós uma
visão muito particular do que tá acontecendo e não necessariamente é a visão correta e tudo bem se eu não tenho problema nenhum desde que eu não vá usar isso para afetar as pessoas ou que eu vá regular a tecnologia Porque daí eu preciso ter uma clareza técnica do que tá acontecendo para eu conseguir descrever os requisitos Claros do que eu preciso fazer para proteger e eh as pessoas do uso desse tipo de sistema tá então o que que é esse aprendizado por que que a gente fala muito de dados a gente tem que tomar muito
cuidado quando a gente fala do uso de dados porque eh no modelo do tipo llm eu uso dados mas eu uso texto eu uso texto livre eu eu formato esse texto de um jeito para que o modelo aprenda completar frases isso é muito menos agressivo apesar de ser corpos de Trein treinamentos muito grandes trilhões o o o último Lhama o 3.1 usou cerca de 15 trilhões de tokens dá aproximadamente uns 12 trilhões de palavras texto tá eu posso ter um modelo para um para eh propensão de compra no e-commerce em que eu tô usando muito
mais dados pessoais por exemplo ou dados estruturados que foram coletados para outra finalidade e que eu preciso usar para fazer esse meu modo de propensão O que que tá colocando ou tá impondo um risco maior para aquela pessoa para aquele dono daqueles dados ou para aquela pessoa que tá sendo afetada pelo sistema a gente tem que entender que eu tô falando de mais do que uma coisa eu tô falando de uma área de desenvolvimento e eu preciso tomar esse cuidado e daí eu volto no que o Caio falou ele tava falando de aleatoriedade ele tava
falando de eh imprevisibilidade ele não usou essa palavra mas eu vou pôr na boca dele essa palavra toda vez que eu tenho Inteligência Artificial eu tenho redes neurais eu estou falando de um sistema que é imprevisível porque eu não explico passo a passo que ele tem que fazer como programador ele eh teve uns parâmetros decididos através de exemplos sejam exemplos que eu falei isso é um gato isso é um cão e daí eu chego com pinguim se eu só mostrei Cães e Gatos pro meu modelo ele não vai saber o que é o pinguim e
ele vai chutar qualquer coisa eventualmente um cão eventualmente um gato a gente tem que saber que isso é uma característica Isso não é um erro e eu tenho que tomar cuidado com quando a gente fala de viés viés e discriminação é muito importante a gente tem que prestar muita atenção nisso só que tem um tipo de viés que é um viés que eu não controlo que é o viés do processo é o viés da realidade não é um viés embutido no modelo mas é um viés que existe naquele processo que eu quero modelar e muitas
vezes o meu modelo tem uma acurácia muito alta o meu modelo tá com todos os dados disponíveis no mundo eu tô fazendo esse treinamento com todo o cuidado que eu preciso só que eu tô modelando um processo que é enviesado e daí a a a a doutora falou mais cedo É eu tô repetindo o passado e talvez eu não queira repetir o passado então a questão ética ela vem antes ela vem muitas vezes no processo que eu quero ã modelar Só que tem uma notícia boa muitas vezes eu posso ter um processo que é enviesado
modelado e o meu sistema que usa esse modelo cons conseguir lidar bem com isso muitas vezes eu posso ter um modelo que ele não tem tanta acurácia mas na hora que eu vou fazer um sistema que vai fazer o uso desse modelo eu consigo lidar com essa situação e isso a gente precisa entender quando eu venho pros llms eu tenho que entender que um llm ele não é um modelo que sabe o que é certo ele é um modelo que sabe linguagem llm large langua Model nós estamos usando llms e tem o efeito colateral que
como eu treinei o llm num monte de textos disponí e a maioria desses textos tem relevância estatística são textos corretos quando eu faço uma pergunta pro llm eu ganho uma resposta correta tá bom Gustavo Mas e a tal da Alucinação exato a Alucinação ela não é um erro ela é inerente dos modelos quando eu tô olhando só pro modelo por quê Porque eu não garanto eu eu não treinei o modelo com o que é certo treinei o modelo para ele aprender a lingu então eu lembro que nas primeiras vezes que que a gente tentava usar
por exemplo um llm no meio jurídico para ele fazer uma Inicial ele fazia bonitinha a estrutura da Inicial só que ele inventava um um um caso que ele citava ali no meio da Inicial Por que que ele inventava Ué porque ele sabia que tinha que ter uma citação de um caso ele sabia que aquele caso tinha a ver com a pergunta original porque isso é a matemática que garante por trás do modelo só que ele simplesmente não não ia lá e pesquisava um caso real e colocava ali no meio simplesmente porque ele não é feito
para fazer isso e daí a gente começa a usar os esquemas de rag que a gente fala que é onde eu não tenho um treinamento mas eu tenho uma base de informação que serve de de Pilar para que o meu modelo não tenha que falar nada da cabeça dele o meu modelo ele vai interpretar aquela informação que eu entreguei para ele e ele só vai responder em cima daquela informação os dados é um problema se eu pego toda essa base de informação e veja e não é o modelo eu não tô dando dados para eu
não tô treinando o modelo o modelo já tá treinado lá só que eu tô tendo que subir por exemplo toda a jurisprudência do do STF certo e eu vou colocar essa informação em algum lugar para ela ser acessada pelos meus modelos PR os meus modelos poderem se basear nela para me ajudar na minha tarefa do dia a dia onde essa informação vai est disponibilizada onde ela vai est armazenada eu tenho que prestar atenção eu tenho que tomar cuidado tem uma questão de soberania que para alguns casos é extremamente relevante dados pessoais a gente tava conversando
agora de pouco talvez para treinar um llm o problema com dados pessoais seja muito menor do que tá sendo pintado a gente vai ter que discutir isso ainda isso é uma questão em aberto mas para treinar um modelo de medicina provavelmente eu tô usando dados pessoais que foram coletados nos exames para outra finalidade que eu vou ter que usar para treinar os meus outros modelos enfim eu sabia que o tempo ia ser apertado o mundo tá mudando eu posso usar pro bem ou pro mal eh só que a gente tá fazendo uma regulação e eu
queria fazer uma última colocação só não tem como a gente regular uma tecnologia como Inteligência Artificial sem diferenciar O que é um algoritmo O que é um modelo e o que é um sistema que usa Inteligência Artificial Eu acho que o caminho da gente usar risco para regular é muito bom só que se a gente não conseguir diferenciar essas três coisas a gente vai tratar um modelo com o mesmo Rigor ou com os mesmos requisitos de uma aplicação e um modelo por si ele não tem risco quem tem risco é a aplicação Infelizmente eu não
tenho tanto tempo eu agradeço eh a oportunidade novamente eu vou entregar paraa comissão correções e sugestões pontuais ao texto da minuta mas eu queria deixar esse recado eu acho que eh se a gente conseguir explicar Tecnicamente dar exemplos Tecnicamente os nossos juristas sem como construir regulações e e e definir como o uso desses sistemas vai acontecer de uma forma muito melhor do que se a gente não tiver uma base forte técnica por por trás Muito [Aplausos] obrigado bom obrigadíssimo Gustava pela sua fala acho que você trouxe elementos muito importantes em especial acho que a discussão
sobre conceitos né e eu gostei muito da de várias das das frases que você trouxe mas talvez a mais interessante de todas acho que muito aplicável também é a ideia de que se você não sabe o que que aí a e quais são os seus limites eh você não tem como usar isso direito né e eu acho que essa essa essa sua frase acho que ela traz um alerta importante eh para todos nós eh que é exatamente como a capacitação e a conscientização que também o o Fábio cosman trouxe na fala dele eh a conscientização
sobre os riscos né eu preciso entender o que que o sistema de fato como é que ele performa eh o que que ele pode me trazer digamos eh O que que ele de fato faz e o que que ele não faz e eu acho que isso no judiciário vai ser muito importante a ideia de que você tem que ter uma capacitação e e uma sensibilização eh e conscientização dos riscos acho que é muito importante e esse é um ponto que eu diria que a nossa resolução eh que a resolução do do CNJ vai precisar talvez
avançar ainda mais trazer uma capacitação mais institucionalizada pela própria infan eh e com essa conscientização dos limites do sistema me parece fundamental e acho que isso foi um ponto trazido também por todos os os palestrantes inclusive também em outros painéis e se eu puder acho que já fazer um um fechamento muito rápido aqui eh acho que a mesa Foi bastante interessante queria agradecer mais uma vez eh todos vocês que participaram aqui todos os nossos palestrantes ilustres e tá vendo talvez fazendo um um rápido overview né a gente começou com o o Caio eh não não
não começou com o Caio mas acho que o Caio trouxe um um elemento importante que foi o elemento da arbitrariedade e da aleatoriedade e esse elemento é curioso porque ele é bastante paradoxal quando a gente traz esse ele pro ambiente do Judiciário né todo o o sistema de justiça ele é construído de certa forma para que a gente eh pelo menos acredite que as decisões não são arbitrárias eu acho que talvez esse seja um paradoxo importante eh da fala né dele que é exatamente bom como é que a gente supera e e tudo se a
gente for pensar em toda a teoria da justiça também é pensada nessa forma como como superar se você me permite tinha uma frase que eu ia falar que eu É acho que cortaram é tinha uma frase que eu i falar que eu não que eu não falei mas eu acho que é importante exatamente no que você falou um humano você dá 10 perguntas para ele e ele vai acertar oito ou nove e vai errar uma ou duas um sistema de inteligência artificial você dá 10 vezes a mesma pergunta para ele e ele vai acertar oito
ou nove vezes e vai errar uma ou duas é a questão da aleatoriedade a questão da da da da imprevisibilidade e para eu usar no judiciário Com certeza eu não posso dar o o o o o julgamento final porque imagina se eu acerto oito e erro duas vezes eu não isso faz todo sentido então e só para completar Muito obrigado perfeito Gustavo acho que é exatamente ess o ponto e e aqui é interessante porque eh acho que esse é o paradoxo que a gente tem que com o qual a gente tem que lidar né É
como fazer com que esses sistemas que muitas vezes trazem essas decisões eh que tem decisões que pressupõe essas decisões que foram tomadas de forma arbitrária e como trazer ele pro ambiente eh do Judiciário e aqui é interessante eu vou trazer também a fala do Fábio cosman Quando Ele Diz bom como é que a gente lida muitas vezes com a arbitrariedade a gente lida eh fundamentando essas deis né explicando essas decisões e curiosamente é exatamente também esse é mais um limite muitas vezes desses sistemas porque eu não consigo eh explicar exatamente como essas decisões foram tomadas
Então se a gente eh quando a gente Alia o elemento da arbitrariedade com o a pouca justific eh mostra mais uma vez um desafio um paradoxo e quase uma contradição mais uma vez com o sistema de Justiça eh de uma forma geral esse talvez fo só para para trazer o alerta mas eu acho que a gente tem muitas potencialidades E aí eh eu queria trazer também aqui a fala da Patrícia e acho que você trouxe elementos muito importantes eh Patrícia em especial mostrando como o eh primeiro que é muito Ampla a Gama eh de possibilidades
de uso pelo direito né seja paraa pesquisa seja pro pro pros aspectos operacionais seja inclusive Quando você diz que bom podemos eh trazer mais pluralidade eventualmente né quando a gente amplia essas pesquisas e eu acho que esse ponto também é importante para mostrar que nós temos uma área eh muito Ampla em que os sistemas podem ser usados claro mitigando esses riscos Claro trazendo eh governança para esses sistemas Sem dúvida nenhuma nós temos uma uma um um uma área muito Ampla eh de utilização desses sistemas né por outro lado e aqui eu vou trazer de novo
a fala do Gustavo quando estamos falando de decisões finais com inclusivas até uma das expressões que tá na na na minuta de resolução e que também eh eh não deixa de ser polêmica mas aí é bastante Complicado quando a gente pensa eh em Sistemas tomando de fato decisões né e aqui eu vou vou eu acho que o a escolha de quando nós vamos usar esses sistemas e para quais situações nós vamos eh usar eh os sistemas me parece essencial eu vou queria só lembrar rapidamente um um texto muito importante da professora Sandra Vara em que
ela mostra que muitas vezes os sistemas que também eh que podem ser digamos tem acurácia que estão supostamente foram desenvolvidos de forma correta mas são aplicados em momentos ou em contextos que vão trazer uma injustiça enorme Qual que é a situação que ela cita é exatamente eh no momento da pandemia quando uma agência chamada ofqual e no Reino Unido foi utilizada para atribuir notas pros alunos e eu acho que esse caso é bastante interessante porque ele me lembra um contexto eh talvez tão sensível né quando a gente fala da educação como um contexto do Judiciário
em que ela disse bom eh Nesse exato eh contexto um sistema um algoritmo simples foi utilizado para atribuir notas aos alunos exatamente pela impossibilidade de fazer de realização daquelas provas e o que ela diz bom o sistema Ele simplesmente ele intuiu que eh aqueles aqueles alunos bons alunos de boas escolas eles eh foram atribuídos a esses alunos boas notas mas bons alunos de escolas eh periféricas e que tinham notas eh historicamente ruins essas escolas esses alunos foram prejudicados E aparentemente o sistema não agiu de forma digamos equivocada ele não foi programado de forma equivocada ele
apenas estava refletindo e repetindo a injustiça é uma injustiça histórica né E claro depois o sistema foi corrigido notas eh foram atribuídas eh pelos próprios professores mas eu acho que essa quando a gente pensa na educação que também tem esse fator transformador e me lembra muito a sensibilidade eh da escolha de para o que vamos usar os sistemas né Em quais situações Eles serão bem aplicados e certamente eh eu acho que Patrícia você eh trouxe exemplos acho que a sua apresentação foi muito esclarecedora como a a ia pode ajudar o sistema judiciário eu diria Talvez
o direito como um todo do todo o campo jurídico de uma forma extraordinária né Mas ela precisa ser bem utilizada ela precisa ser nós precisamos escolher muito bem eh as situações em que vamos utilizá-lo acho que esse é um um alerta muito importante e tío aqui já para também eh encerrar essa breve reflexão com uma fala acho que muito importante que você trouxe é exatamente para que a gente não reproduza esses eh essa nossa a a injustiça eh muitas vezes eh arreg na nossa sociedade é que nós precisamos ter esse olhar né Nós precisamos eh
pensar em formas de governança eh mais adequadas você trouxe vários acho que vários eh Várias Vários exemplos e várias formas eh em que podemos eh aprimorar essa governança eu acho que esse é um alerta muito importante especialmente pro Brasil né que acho que o objetivo do Judiciário nunca foi e nunca será reproduzir desigualdades reproduzir a discriminação e ao contrário Então Então acho que esse é um elemento muito importante também é de reflexão eu com isso eh eu gostaria então de agradecer imensamente aqui é Tarcísio Patrícia Gustavo ao Fábio cosman e ao Caio que também estiveram
conosco eh virtualmente queria dizer que o CNJ eh está muito contente né Por por termos esse debate acho que bastante plural Então eu queria agradecer e eu não poderia encerrar essa essa mesa eh parabenizando aqui ao Conselheiro luí Fernando Bandeira de Melo ele tem liderado todo esse grupo de trabalho juntamente com o Ministro Ricardo Vilas Boas Cueva eh tem feito um trabalho brilhante eh eu diria muito eh democrático também bastante participativo e eu acho que essa audiência pública né de três dias eh mostra Exatamente isso então Muitíssimo obrigada para eh a todos aqueles que têm
contribuído eh e a gente tá bastante ansioso com essas contribuições inclusive também por escrito muito obrigada senhoras e senhores agradecemos os pronunciamentos realizados e neste momento faremos um breve intervalo para o almoço retornaremos com a programação às 14:30 l