gente vamos lá então boa noite a todas todos e todos uma alegria a gente retomar o nosso projeto de aulas abertas eu tô aqui com a Paula tudo bom Paula Oi Bruno tudo bem Prazer tá aqui de dinossauro com você e tá com todo mundo aqui no YouTube legal gente é bom a nossa aula aberta hoje é sobre inteligência artificial eu vou pilotar essa aula aqui junto com a Paula a gente preparou alguns slides para facilitar nossa conversa é a gente tá transmitindo essa Live obviamente aí essa aula aberta pelo YouTube então eu e a
Paula a gente não tá com acesso direto ao chat do YouTube mas a gente pede que vocês possam comentar interagir bastante pelo chat envia perguntas reflexões concordâncias discordâncias e o nosso time do data ele vai na medida do possível filtrar e trazer aqui para gente Para a gente deixar isso mais dialógico e dessa maneira é portanto mais dinâmico a gente vai primeiro fazer uma breve apresentação do data Porque tem uma turma aqui que a gente já percebeu que a gente ainda não conhece é ótimo então conhecendo uma galera nova e e o data ele é
um espaço de intersecção entre duas organizações a Dataprev Brasil Escola ensino e a dataprevice Brasil é pesquisa uma associação de pesquisa segunda portanto sem fins lucrativos então a ideia do Dataprev é com essas duas organizações elas produzem dois tipos de saberes distintos mas mais sinérgicos que a ideia da gente produzir conhecimento para qualificar o debate público sobre governança e regulação de novas tecnologias então por exemplo essa aula é a junção desses dois tipos saberes coisas que a gente vem já trabalhando em cursos que estão chegando na quarta quinta edição por exemplo um curso específico sobre
inteligência artificial outro cursos que estão na quadragésima primeira edição como de privacidade e produção de dados pessoais e de pesquisas que a gente conduz na nossa Associação de pesquisa A Paula é inclusive pesquisadora por lá e a gente então aqui vai tentar mobilizar esses dois tipos de produções é o data a escola e o data como todo se coloca como uma plataforma para a gente poder produzir conexões e uma rede vibrante para falar sobre o assunto né a gente foi a primeira escola com o curso específico sobre o tema de privacidade de produção de dados
antes da lgpd no Brasil essa é a nossa missão formar essa rede colaborativa com conhecimento teórico e prático e que o aluno o aluno enfim é quem tá aqui com a gente possa ser protagonista da produção é desse tipo de saber desse tipo de conhecimento e com isso a gente consegue desabar um conteúdo que seja de excelência é uma linguagem também bastante acessível né então depois se vocês quiserem podem dar uma olhada no nosso site tem uma longa trilha pedagógica esse daqui é o nosso curso carro-chefe é com mais de 60 horas aula mas começou
aí tem cursos específicos temáticos um dele por exemplo é justamente sobre inteligência artificial e essa nossa estrada ela continua a gente também lançou no ano passado é um projeto é muito bacana que foi um dos projetos enfim mais ambiciosos de toda a história do data e foi uma plataforma é que é chamada de clube da lá você vai ter acesso a diversos conteúdos exclusivos como relatórios de inteligência então fica npd tá querendo dizer com esse determinado guia e que isso impacta essa decisão de um Superior Tribunal de Justiça esse último relatório que saiu de um
centro de pesquisa de ponta lá no estrangeiro uma revista também temática que a gente da nossa quinta edição que envolve produção de dados pessoais na área da saúde e você também vai ter uma biblioteca né Hoje é no cenário dos vários grupos de zap WhatsApp muitas vezes a gente pede vários materiais bacanas que acabam ficando enterrados naquela longa lista de mensagens e na nossa biblioteca a gente consegue taguear tudo isso e você consegue então portanto acessar facilmente essa informação e evitar é um determinado tipo de fadiga né eventos a gente teve masterclass com grandes nomes
nessa área por exemplo um deles o professor Frank pascalli para quem estuda Inteligência Artificial sabe bem a referência que ele é e também é uma Central de Vagas Então pessoal para quem aqui tiver interesse a gente vai mandar aí no chat acesse o nosso Clube data que é uma plataforma contínua de aprendizagem de troca Nossa dudata para com a nossa comunidade vice-versa me direcional a coisa como um todo é a gente enfim como mencionamos a gente trabalha muito com a perspectiva de qualificar toda a discussão pública sobre privacidade e produção de dados e outras tecnologias
e a gente se orgulha muito também de ter iniciativas como essa com o nosso programa de bolsas que tá chegando aí perto da marca de 200 pessoas impactadas e portanto facilita a democratiza o acesso ao conhecimento outra marca Bacana aqui nesses vários números é que o data já foi por duas vezes amigo do supremo no Tribunal Federal é isso que significa me cuscure em dois dos mais importantes casos sobre privacidade e produção de dados pessoais que o nosso Supremo a nossa Suprema corte Decidiu a gente tem diversas maneiras de comunicar as pesquisas e o conhecimento
que a gente gera é um deles é por exemplo nosso podcast o dadocracia com mais 120 episódios é sensacional mesmo o João que é o jornalista que tá à frente desse projeto faz um trabalho brilhante obviamente todo mundo que se envolve para a produção de conteúdo e você pode também acompanhar o nosso tabuleiro e a nossa newsletter que também é uma maneira de você estar sempre atualizado e manter sempre um contato com conosco E aí a gente também obviamente em várias redes a gente é muito presente no Insta no Linkedin como mencionei nos tocadores de
vários podcast e pular você vai ter novidades de relatórios de lives de outras aulas abertas de novos cursos então que fica a dica para você nos seguir e nos acompanhar nesses espaços todos é mencionados bom então vamos lá vamos falar um pouco do que a gente se reuniu aqui para uma terça-feira fia em São Paulo conversar é que é sobre o tema de regulação de inteligência artificial é depois que bombou o chat GPT né Tem gente trabalhando com tema há 20 30 anos mas depois que bombou o chat GPT depois que a União Europeia tá
bem próxima de finalmente é ter uma lei é sobre o assunto a pergunta que tá na mesa de bar e também outros jornais é essa né chegou a hora é o momento em que a gente vai ter uma regulação de Inteligência Artificial que que você acha Paula e acho que você pode já dar um Pitaco e também se apresentar Oi pessoal eu fiquei boa noite mas dando boa noite de novo é feliz demais tá aqui vídeo nessa aula com o Bruno eu acho que a gente está realmente agora no Hype de falar muito de chat
GPT né mas a inteligência artificial e a regulação ensino já vem de alguns anos para cá então agora tá mais em voga mas essa questão já tá aí sendo discutida bastante tempo mas sabe apresentar rapidinho eu sou Paula sou pesquisadora aqui na Associação Brasil de pesquisa Mas além disso sou doutoranda e mestre em direito pela Universidade Católica portuguesa meu doutorado ele é específico nessa parte de regulação de inteligência artificial com foco em avaliação de impacto focando Nas questões de Sub Global então especificamente no Brasil é que é até um pouco o foco da nossa aula
de hoje né a gente dividiu em três partes primeiro falar um pouquinho do porquê regular a inteligência artificial depois falando um pouquinho só para botar todo mundo na mesma base né da regulação baseada em risco cursinho parte principal aqui da aula vai ser realmente pensar e conversar sobre a regulação de Inteligência Artificial um foco no Brasil e acho que até esse assunto ficou ainda mais envolve agora depois do lançamento da última temporada de black mirror tá todo mundo vindo falar comigo sobre o primeiro episódio e fala um pouco sobre viagem negativo Então essa questão do
chat de PT algo nesse sentido então fica também em convite para vocês verem esse episódio está bem está bem legal e o Bruno falou do nosso da nossas redes do podcast da burocracia fazendo um jabazinho aqui muito rápido recentemente eu e a Marina garrote que também é pesquisadora do gato a gente falou especificamente sobre essa questão de regulação de inteligência artificial no Brasil Então quem quiser saber já Depois dessa aula aqui dá uma complementada fica um convite também E aí eu passo a palavra de volta para o Bruno legal gente então sejam bem-vindas bem-vindos mais
uma vez eu vou me apresentar também propriamente para quem não me conhece eu sou o Bruno Bruno bioni dos diretores fundadores do data a minha formação é toda na área do direito eu sou Doutor em Messi pela pela USP e acho que tem é uma coisa que eu queria destacar que eu também integrei a comissão de juristas formada pelo senado federal no ano passado e é produzir um relatório e uma proposta de regulação que a gente vai abordar aqui hoje no nosso encontro de hoje que é o PL 2 3 3 8 de 2023 e
hoje eu também estou no Conselho Nacional de privacidade de produção de dados pessoais como bem do tipo titular representando a sociedade civil com que vocês podem também perceber eu continuo gripada e um pouco fanho então peço aí a paciência de vocês com com a minha voz e etc bom pessoal é a Paula adiantou a gente vai dividir em três partes o nosso encontro de hoje primeiro a gente vai dar um passo atrás e entender porque que esse Hype tá acontecendo E por que que hoje a gente tá discutindo Porque e como e talvez não mais
se devemos regular governar Inteligência Artificial aí a gente vai numa segunda parte entender Quais são as técnicas as estratégias para poder falar em governança e regulação de Inteligência Artificial e no terceiro e último momento a gente vai falar especificamente do que que tá acontecendo no Brasil tentar construir aí uma linha do tempo Aonde estamos e aonde podemos estar no futuro a médio e longo prazo é no contexto brasileiro bom então vamos lá tá todo mundo olhando com um certo encantamento para o chat de PT mas também tem muito receio como que ele pode amplificar desinformação
discurso de ódio tem já bastante tempo o pessoal tá falando e olhando muito especificamente para como que a tecnologia de reconhecimento facial são racistas reforçam práticas discriminatórias Então por que que a gente tem que falar ou deveria estar falando de governança e regulação nessa grande área é de Inteligência Artificial Então a primeira pergunta é por que que se deve regular como que se deveria ser regular e será que a gente já consegue estar no momento hoje Aonde que a pergunta não é mais se devemos regular mas como fazer E aí então é uma questão que
a gente pode ponderar e trazer é Verificar como que pelo menos de quatro anos três anos cinco anos para cá a gente tem casos muito emblemáticos pelo qual eles foram aumentando a temperatura o termômetro dessa discussão sobre inteligência artificial no mundo inteiro né a gente tem principalmente a partir do ano de 2019 é casos muito emblemáticos seja de um lado ou outro do Atlântico seja nos Estados Unidos ou na Europa ou no Brasil é que brigam disputam essa narrativa do Porque que a gente deveria estar falando sobre regulação é de Inteligência Artificial isso daqui apenas
uma amostra né de casos emblemáticos aonde que a gente viu essa acontecer com maior força né Por exemplo dentro de todo o movimento de vidas negras importam né que aconteceu muito forte nos Estados Unidos e também verificando como que tecnologia de reconhecimento facial abordam encarcero aprendem mais corpos negros houve um movimento muito forte nos Estados Unidos em Maio de 2019 aonde que se discutia é toda perspectiva de banimento de reconhecimento facial de inteligência artificial no campo da Segurança Pública também em 2019 começou a ver uma preocupação muito grande de como que Essas tecnologias elas poderiam
automatizar entrega de Publicidade ou qualquer outra coisa do tipo baseado em nossas emoções né então é o Santo Graal né que alguns mencionam dessa Nova Onda de marketing de Publicidade né que que significa por exemplo você tentar manipular alguém quando ele está no estágio depressivo ou algo do tipo algo de qual você poderia se valer dessa vulnerabilidade é cognitiva a gente viu campanhas também surgindo de banimento para esse tipo de tecnologia ou houve também casos muito significativos no campo das Universidades aonde que também campanhas lutaram para ela não implementação de tudo isso e por aí
vai né aí surgiu relatório no contexto da União Europeia as autoridades de produção de dados pessoais também dando seus pitacos e aqui no Brasil todo esse movimento também de banimento de moratória de tecnologias de reconhecimento facial aconteceram com força tem uma campanha muito forte que é tire meu rosto da mira da coalizão direitos na rede que também exemplifica é tudo isso então a gente tem caso sistemáticos e Evidências empíricas de como que o lançamento dessa tecnologia no nosso dia a dia tem causado certo curto-circuito né tem causado danos efeitos colaterais né esse é um outro
trabalho de um pesquisador brasileiro muito importante que é o Tarcísio aonde que você tem uma linha do tempo interativa aonde que ele vai mapeando toda pesquisa que sai e que identifica mapeia como que esses Casos eles irão eles vencem se desobrando pelo menos desde 2013 a gente tem evidências A esse respeito né então desde a minha do tempo do Tarcísio que faz um apanhado sistemático bastante holístico até casos muito específicos como por exemplo a da campanha que Eu mencionei tire meu rosto da mentira ou seja ainda não há maturidade para que essa tecnologia ela seja
lançada no meio ambiente sem causar prisões Ilegais e reforçando a discriminação daquele tipo de população que é mais encarcerada que a população é negra a gente chega hoje num cenário no qual Principalmente dentro do bum e de chat GPT e outras e as chamadas generativas e também de fundacionais é movimento até mesmo de quem desenvolve essa tecnologia alertando para o risco sobretudo dessa tecnologia de Inteligência Artificial caso ela não venha ser governada caso ela não venha ser regulada né alguns inclusive trazem uma analogia de que isso poderia causar um risco existencial para a nossa humanidade
tal como foi a pandemia ou mesmo risco de uma guerra nuclear Então você tem aqui comentários organizações inclusive essas que lideram uma corrida para o desenvolvimento de inteligência artificial é alertando para tanto né então aqui a gente faz uma pausa e reflete em conjunto né a gente tá vendo um cenário no qual é aparece muito forte a justificativa de que a gente tem que entender Quais são os instrumentos de governança para que o saldo da implementação das tecnologias ele seja Positivo né Então hoje você já tem um cenário no qual inteligência artificial é uma discussão
do presente não é do futuro e haja faz automatização de processo seletivo você passou ou não passou na primeira fase e a já faz a escoragem a nota o ranqueamento da sua capacidade de conseguir pagar ou não um crédito que você toma no banco não é mais o seu gerente cara e crachá mas é o famoso sistema que vai analisar a sua capacidade como sendo de um bom ou mal pagador é justamente esses sistemas de Inteligência Artificial que estão por trás de todo o cenário no qual a gente recebe conteúdo e também publicidade a gente
tá num cenário no qual essa discussão ela não é portanto futurista que nesse sentido vem todos esses alertas do Porque que a gente deveria regular né então tal como foi a regulação trabalhista lá atrás tal como foi a regulação de consumo Ela traz me parece que hoje a gente está numa quadra histórica em que a discussão não é mais se devemos regular que devemos governar a inteligência artificial mas como fazer e aqui vem é um primeiro argumento muito importante é de ser pontuado é falar em regulação não é contrário a Inovação não é contrário é
desenvolvimento econômico porque o que tem acontecido quando você tem esses casos muito emblemáticos de erros sistemáticos de Inteligência Artificial a gente está falando como que a não regulação causa uma quebra de confianças nessas trocas econômicas né E como a regulação pode ao trazer direitos e deveres projetar desenhar tecnologias que sejam mais confiáveis e que portanto irão Ressoar de forma mais adequada e de forma menos traumática na nossa sociedade é como um todo isso remonta é como que todo debate é sobre inteligência artificial e sobre governança de Inteligência Artificial foi conduzido e foi pautado até aqui
né antes de 2019 antes de 2022 antes de 2023 ainda havia uma aposta muito grande de como que o próprio mercado ele poderia se auto regular Como que o próprio poder público poderia se auto regular ao criar e ela implementar todos esses sistemas de inteligência artificial numa agenda muito de uma perspectiva ética né como que essas boas práticas poderiam surgir e poderiam Florescer então uma perspectiva de quem de quem próprio desenvolve de forma privada de quase como se fosse de forma monopolizada é criar essas boas práticas e dizer olha eu dou conta né eu que
tô aqui da fábrica conheço todos esses riscos e você está nesse primeiro momento não precisa vir bater na minha porta não precisa criar uma regulação porque eu conseguiria dar conta e fazer o dever de casa sozinho né Foi esse curso uma narrativa que de certa maneira tornou mais paralisante iniciativas que vinham sendo propostas em termos de regulação né olha não precisa de supervisão auto-regulação ela vai dar conta no máximo uma regulação muito príncipelógica porque isso é o necessário simplesmente para poder nos cutucar a fazer algo que seja melhor mais ético mais responsável né E hoje
portanto a gente tá num cenário onde que esses Casos eles vêm se acumulando E aonde é o reconhecer que a discussão sobre inteligência artificial é uma discussão do presente da nossa geração a importância da gente complementar assim códigos de boas práticas sim perspectivas éticas também com o movimento mais forte do próprio direito irregular e também governar como que Inteligência Artificial vai impactar sua cidade como todo então muito mais uma perspectiva de uma discussão pública né Aonde que a lei tem um papel importante fazer aonde que uma rede de supervisão muito mais do que simplesmente quem
desenvolve a tecnologia também tem um papel importante para que haja boas práticas para que haja responsabilidade aonde que você tenha mecanismos de coerção né então causou um dano como que a gente vai buscar reparar esse dano antes de lançar um sistema de tecnologia ou de Inteligência Artificial Quais são os instrumentos que o Direito pode propor e pode obrigar no sentido de trazer essas melhores práticas enquanto promessas para uma realidade aí se situa por exemplo uma das Ferramentas tão faladas como de avaliações de impacto né E aí a literatura já vem trabalhando isso há bastante tempo
para que a gente age haja uma modificação efetiva de comportamentos a gente deve trabalhar para além de uma perspectiva de uma lavagem ética do tema a gente tem que dar um salto não só olhar para princípios mas para olhar como que uma lei ou uma proposta de governança que para em pé seja afirmativa de direitos e deveres é que eu volto no meu exemplo quando a gente tá falando de sistemas como esse que impactam significativamente nosso dia a dia por exemplo direito social ao trabalho não faz sentido é existir uma lei algum tipo de proteção
que permita você entender porque que você não passou da primeira fase ou da segunda fase de um processo seletivo mais do que entender você eventualmente desafiar aquela decisão porque ela pode ter sido errada né são são leis desse tipo de perfil que irão trazer muito mais do que um direito de Transparência mas um direito de revisão mais um direito de contestação e até mesmo algum tipo de documentação pela qual a gente possa ter a explicação de todas essas práticas e isso de certa forma se reflete no cenário brasileiro e aqui eu não vou me aprofundar
muito porque a Paula vai cobrir essa parte no momento final da do nosso encontro aonde que a gente vê Exatamente esse salto da edetização uma agenda forte de governança de regulação se refletir em duas propostas que foram debatidas em momentos também igualmente distintos no cenário brasileiro em 2020 quando ainda não havia check GPT quando ainda não havia G20 as grandes potências econômicas no Globo inteiro dizendo que é necessário avançar é numa regulação de Inteligência Artificial quando ainda não havia diretrizes da Unesco quando ainda não havia uma agenda super forte como a da organização para cooperação
e desenvolvimento socioeco qual você der ainda se justificava minimamente proposta regulatórias que fossem mais psicológicas e mais generalistas né aonde que você dizia sim Inteligência Artificial não deve ser maléfica ela deve produzir benefícios para a sociedade Mas como que eu concretizo Esse princípio é essa pergunta de interrogação que fazíamos todos quando a olhar para esses princípios e a olhar para eles previstos em propostas projetos de lei eles não vinham acompanhados de direitos e deveres que poderiam tornar essas promessas realidades né tão pouco quem que seria o estado quanto o regulador para poder de certa maneira
fiscalizar estas práticas como tudo né Isso é muda com o cenário pelo menos Desde o ano passado quando foi criado uma comissão de juristas Essa é a sigla no senado federal para tratar do tema de Inteligência Artificial de certa maneira é uma continuidade portanto desse trabalho iniciou na Câmara dos Deputados que chega no senado federal é aonde que essa comissão Ela olha para esse trabalho internaliza esses princípios mas ela procura minimamente colocar quais ferramentas que irão procedimentalizar e tornar esses princípios todos concretos né E a gente vai trabalhar como que esses direitos e deveres eles
acabam se espraiando numa proposta regulatória que ela é mais robusta que ela é mais pelo menos prescritiva nesse sentido e menos né genérica inclusive com linguajar muito forte para tentar endereçar as assimetrias estruturais hoje existentes no nosso país né onde que a gente tem grupos vulneráveis desde questões associadas a raça mas também questões associadas a gênero e outros que a gente poderia imaginar Então hoje a gente tá no outro patamar dentro das opções regulatórias que hoje temos no Brasil por isso que é saudar realmente como que nesse ano agora em Maio de 2023 o próprio
presidente do senado federal acabou por adotar integralmente desse relatório da comissão de juristas com essa comissão que eu fui um dos membros integrantes sobre a presidência do Ministro Ricardo Vilas Boas Cueva e da relatoria da professora Laura shetel Mendes porque isso nos coloca sobretudo num cenário de interoperabilidade de diálogo com que o mundo inteiro está discutindo seja no Canadá seja na União Europeia seja na Unesco seja na ocde ou qualquer outro tipo de arena internacional que a gente possa imaginar ou até mesmo qualquer outro país que também tá pensando seriamente sobre o assunto isso daqui
pessoal é muito importante porque quando a gente olha para como que também desde 2019 Tem surgido várias opções ou movimento de regulação e de governança de Inteligência Artificial a gente vai perceber que seja do Conselho da Europa até mesmo a ocde ou até mesmo passando pela preocupação dos países do G20 olhando para processo de transformação digital de automatização de processos e até mesmo de propostas que também Tem surgido nos Estados Unidos a gente vai verificar e todas elas têm um vocabulário um dicionário comum elas trabalham com uma perspectiva muito associada a uma regulação que seja
também afirmativa de direitos de deveres mas também baseada em risco Esse é o termo a palavrinha mágica que aparece em todos esses documentos em todas essas propostas em todos esses essas ondas regulatórias de 2019 a 2021 é isso é ou Essa época dizer Esse é o fio condutor pelo qual esse debate de governança de regulação ele tem sido enredo e Bruno basicamente o que que isso quer dizer basicamente uma regulação que é baseada em risco ela segue uma lógica em que ela reconhece que o objeto alvo regulatório Ele é dinâmico ele é plástico ele é
muito variante e que você não consegue pensar numa regulação numa proposta de regulação que ela seja universal para multiplicidade de benefícios e de problemas que essa atividade econômica ela possa gerar Então você tem que pensar em Como que essa tecnologia a mais variada possível ela vai ser aplicada em diversos contextos e o risco que ela vai gerar para a população para o indivíduo para cidadã será também igualmente distinto e que aí você tem que ter uma dosagem proporcional do peso da regulação sobre essas respectivas atividades econômicas eu traduzi basicamente eu e a pau é mais
de 80 páginas ou tentamos fazer uma síntese daquilo que tá na exposição de motivos da proposta da União Europeia mas de novo não é só da União Europeia é também do Conselho da Europa e agrega mais do que apenas os países da União Europeia mas da grande Europa Continental como todo a gente tá trazendo aqui essa Perspectiva da ucde e tem ali um fórum todo multilateral que tem Canadá tem Estados Unidos também das principais economias do mundo que também tem pensado sobre essa perspectiva então é hoje a partir do pele dois três e 8 principalmente
a gente vai ter uma proposta que ela é interoperável com o que o restante do mundo tá discutindo e falar portanto numa proposta interopevel tá diretamente ligada à perspectiva de como que a gente cria uma jabuticaba não amarga a gente vai falar que a proposta brasileira também tem as suas particularidades ela não é simplesmente Um transplante E aí a gente pode falar digamos assim numa jabuticaba um pouco mais doce a gente vai falar um pouco dessa especificidades todas agora Bruno como que isso se reverbera na prática dando exemplos né a gente pode pensar nessa nessa
perspectiva mais figurativa de uma pirâmide né aonde que esses riscos Eles serão divididos em degraus ou andares de um determinado é difícil e a medida em que você Vai identificando que esse risco ele leva Ou ele diminui você vai tendo propostas ou pesos da regulação intensificação de direitos deveres de maneira também cambiante de acordo com risco respectivo Então vamos começar pelo mais drástico pelo topo dessa pirâmide é que é onde você tem uma intervenção regulatória a mais pesada e a mais forte imaginável possível que é quando você tem uma proibição ou seja esse risco aqui
ele é inaceitável esse direito aqui é inegociável então tem cenários Aonde que a proposta brasileira mais outras estabelecem que determinados tipos de inteligência artificial nem poderiam ser desenvolvidos é o cenário por exemplo aonde que você tem um possível sistema de Inteligência Artificial que poderia fazer para utilizar que é um exemplo que a Paula já cantou a bola uma coisa meio Black mirror você vai ter uma escoragem social e essa nota Universal vai dizer porque que você deve ser atendido na frente do Bruno no SUS o sistema único universal de saúde vai dizer porque que você
deve passar na frente da Paula para tirar um passaporte ou qualquer outra coisa do tipo ou seja uma nota Universal que você não tem ali um critério É objetivo do porquê e não abusivo do porque determinados cidadão deveria ser elegível deveria ter um atendimento preferencial em detrimento do outro esse por exemplo um risco ou um tipo de a que não deveria nem ser desenvolvido e nem ser implementar tem uma lista ali assim é prevista por exemplo reconhecimento facial em espaços públicos também é um deles dado é o caráter sistemático de erros que esses sistemas devem
produzir você tem um segundo degrau é um degrau aonde que pode colocar o carro na rua pode desenvolver sistema de Inteligência Artificial mas sistema de Inteligência Artificial ele é de alto risco porque ele impacta por exemplo é um direito uma liberdade fundamental ou um direito difuso coletivo muito significativo para a sociedade como todo então pensa por exemplo no sistema de Inteligência Artificial que vai automatizar a gestão de recursos críticos como por exemplo hidrelétrica barragem né Então tá aí Mariana não nos deixa mentir Olha o desastre a catástrofe ambiental que isso gerou e se por exemplo
porventura um sistema de Inteligência Artificial vai automatizar o gerenciamento desse recurso crítico dessa atividade que pode causar um risco enorme enorme para a população é esse é um sistema de Inteligência Artificial que tem que passar por um processo de governança para garantir a robustez dele ao ditabilidade dele tem uma avaliação dos riscos e dos benefícios uma avaliação de impacto algoritmo que seria recomendável exigível para que fosse minimizado ao máximo esse ciscos dentro desse contexto aonde que essa inteligência artificial ela vai ser lançada de novo voltando aqui no próprio ponto é de a e mercado de
trabalho também seria um cenário onde qual é um sistema de Inteligência Artificial poderia ser considerado É de alto risco e outros degraus que estão aqui mais da base dessa pirâmide aonde que esse risco ele seria muito moderado limitado baixo mínimo e aí você poderia ter o peso da regulação muito mais frouxo muito mais leve né então se para um sistema de Inteligência Artificial que decide se a pessoa vai ser ou não contratada eu tenho que exigir transparência eu tenho que exigir explicação que eu tenho que garantir uma possível Instância de revisão para pessoa questionar porque
a máquina também é para um sistema de Inteligência Artificial que vai simplesmente fazer uma filtragem de spam ou que vai simplesmente automatizar uma comunicação de reclamação do Consumidor e hoje sistemas de Inteligência Artificial já o fazem um chatbot alguma coisa desse tipo me parece que você não poderia ter o mesmo peso os mesmos direitos do que no outro cenário que eu acabei de escrever então para esses casos qual é o direito básico Qual que é o peso mínimo um direito transversal é você ter o direito de Transparência pelo qual você tá se comunicando com uma
máquina Mas seria adequado proporcional você exigir que houvesse uma explicação de todos os parâmetros pelo qual essa automatização é feita como por exemplo por que que foi parar na Espanha porque que não foi parar no spam parece que aí seria um fardo muito grande então essa técnica essa abordagem baseada no risco é procura tentar entender que é muito multifacetado o objeto da regulação e procura portanto nesse sentido é fazer uma calibragem dinâmica do peso da regulação para que ela garante assim direitos mas ao mesmo tempo também ela não esfrie inovação e desenvolvimento econômico então isso
pessoal é muito ilustrativo muito explicativo porque para entender como que a regulação e a governança entra em jogo a gente não olha digamos assim para técnica que é utilizado para colocar um sistema de Inteligência Artificial de pé aprendi isso muito com o professor Diogo cortis que dá um curso junto com a gente pode ser uma lógica de regressão logística pode ser por meio de uma perspectiva de árvore decisão onde vai ter redes neurais processamento de linguagem natural de imagem Sistema de recomendação pode ser qualquer uma dessas mais variadas e diferentes técnicas Mas isso não me
mostra contextualmente qual que é o risco desse sistema de Inteligência Artificial né a governança é a regulação vai lá justamente para particularidade dentro de qual é o contexto no qual um sistema de inteligência artificial que pode utilizar a mesma técnica mas representar riscos muito distintos para a população para o cidadão no dia a dia talvez olhar para perspectiva de uma que faz automatização de uma tradução Ainda Que ela possa causar ali algum tipo de discriminação a gente viu que causa né Principalmente da perspectiva de gênero tem vários casos que documentam isso esse é um contexto
que ele é muito menos grave de quando a gente está falando de uma discriminação por exemplo de novo de um processo seletivo e que a gente viu que também vários casos reais aonde que sistemas de a reproduzir ambientes de trabalho machistas e também é brancos né E aí nesse caso é ainda que seja a mesma técnica para colocar de pé no sistema de Inteligência Artificial contextualmente eles acabam trazendo riscos muito distintos e aqui tem vários exemplos nesse sentido que a gente vai procurar trabalhar daqui a pouco então é o que a gente tem visto assim
quase como se fosse um fio condutor uma correia de transmissão é como que a gente consegue colocar de pé uma proposta de regulação de governança que entende como que essa técnica de uma regulação baseada em risco ela abre espaço para que a gente consiga ter sobretudo é uma discussão pública de quais são os riscos toleráveis aceitáveis que a gente quer enquanto sociedade ou seja a gente não pode perceber de perspectiva que é a pessoa de carne e osso que vai ser afetada lá na ponta seja por uma catástrofe informacional ambiental ou por uma questão muito
individual que pode acontecer por exemplo com uma discriminação dentro de um processo seletivo né E essa perspectiva de você trabalhar com camadas é o que tem sido ou que tem se mostrado é dentro de uma lógica comum de toda essa efervescência regulatória que Tem surgido não apenas aqui no Brasil mas em vários outros cantos e ao redor do mundo então a gente quis fazer esta longa introdução para situar aonde que nós estamos E aí eu vou passar a palavra para Paula para ela desenvolver o cenário brasileiro e a gente até fazer uma coisa sempre com
vocês dialogar da medida que vocês forem aí comentando e falando as coisas no chat assim tem uma vontade para mandar dúvidas fazer perguntas e assim por diante resumo da Ópera eu queria tentar deixar um pouco Claro esse mapeamento é e o que a gente tentou colocar aqui um pouco dessa aula aberta a gente fez uma linha do tempo de como que os sistemas de Inteligência Artificial são já implementados no nosso dia a dia da nossa tomada de crédito do acesso ao mercado de trabalho em toda a discussão sobre desinformação discurso de ódio coisas mais triviais
de como que um e-mail vai parar numa caixa de spam ou de como que hoje você fala com uma máquina ou com sistema de Inteligência Artificial seja no WhatsApp para reclamar sobre um determinado produto ou serviço ou até mesmo não concentra então falar em converter regulação de Inteligência Artificial não é uma discussão futurista uma discussão do presente é nessa quadra histórica que nós estamos mais do que isso a partir de vários cenários Aonde que a implementação desgovernada desse sistema de Inteligência Artificial causou danos e Danos dos mais sensíveis como de liberdade de ir e vir
de uma pessoa que é abordado de forma indevida é por exemplo sistemas de reconhecimento facial no campo de Segurança Pública a gente está no cenário onde que se a gente não governar não estabelecer uma regulação a gente vai ter uma Quebra de Confiança em todo o lançamento de toda e qualquer tecnologia nos mais diferentes cenários né então a gente tá falando de como que a regulação ela pode reforçar a confiança nessas trocas econômicas e portanto como que ela não teria um efeito paralisante É nesse momento que a gente tá num momento onde que a gente
parece que caminha para uma discussão abandona a reflexão se devemos regular o si devemos bem governar sistemas de Inteligência Artificial mas como fazê-lo né E qual é o papel do direito Qual que é o papel do estado em formatar modelar uma regulação que seja afirmativa de direitos e deveres e ao mesmo tempo abre espaço para quem desenvolve para quem está no chão da fábrica conhece os benefícios conhece os riscos seja colaborativo nessa regulação que pode ser um empreendimento colaborativo e também é coletivo obrigada pela sua introdução agora eu fico com a missão aqui de compartilhar
os slides passar um segundinho para vocês que aí fica mais fácil de seguir por aqui a gente consegue ver minha tela direitinho bom [Música] bom então eu fiquei agora com essa missão de falar um pouquinho sobre a regulação de inteligência artificial no cenário brasileiro com essa missão ainda mais difícil depois do Bruno falar então peço paciência comigo mas antes de mais nada eu queria trazer uma linha do tempo do cenário de regulação de inteligência artificial no Brasil que como o Bruno falou né os primeiros projetos começaram a pipocar ali por volta de 2020 quando ainda
não existia esse raio tão grande por mais que a tecnologia ela já existisse ela já fosse implementada e eu tivesse casos de discriminação que a gente consegue até estudar naquela linha do tempo que o Bruno mencionou do Tarcísio mas foi em 2020 que foi então protocolado esse PL 21 de 2020 que ele trazia uma abordagem mais Príncipe biológica que ele não trazia é tanta essa questão de coercibilidade então ele foi proposto em 2020 e dei até a sua efetiva aprovação na Câmara depois de aprovação de urgência nesse meio do caminho a gente teve também a
publicação da Estratégia Brasileira de Inteligência Artificial a hebia em abril de 2021 que basicamente queria ela propôs nove eixos de estratégia do governo para implementação da tecnologia de Inteligência Artificial pelo Brasil mas ela também foi algo de muitas críticas porque ela previa questões importantes com os princípios ela seguir os princípios da ocde E por aí vai mas ela não tinha tantas questões práticas como questões orçamentárias quem iria executar cada uma das políticas ali definidas Então ela era também mais como uma carta de intenções ela também foi algo de críticas nesse sentido e além de uma
crítica bem aberta de falta de participação da sociedade civil de outras entidades além do governo e das pessoas que o próprio governo chamava para participar dessa consulta então o PR 21 de 2020 ele foi proposto em 2020 e só em 2021 também depois do contexto da União Europeia de ter sido apresentado yayá ali em abril de 2021 que o PR 21 ele começou a correr efetivamente ele teve então aprovado Esse regime de urgência e ele foi efetivamente aprovado na primeira casa do congresso na Câmara dos Deputados de setembro de 2021 só que ele foi alvo
de muitas críticas porque ele era extremamente psicológico Então por mais que ele trouxesse algumas questões que são sim importantes como objetivos princípios ele não trazia dentes ele não trazia formas de implementação de governança efetivas então ele não trazia procedimentalização dos processos de como aquelas questões ali seriam implementadas na prática assim como também não trazia direitos e deveres que são questões centrais de uma regulação eficiente quando a gente está pensando em tecnologia E além disso ele sofreu também muita crítica por ser um processo muito acelerado que deixou de Fora discussões públicas e participação da sociedade é
além de uma discussão mais aprofundada que a questão da Inteligência Artificial que é uma questão complexa e muito setorial demandava então desde desde aprovação da do pl21 na Câmara houve então uma série de críticas da sociedade civil de outros de outros setores o que fez com que fosse então instalado em fevereiro de 2022 como Bruno muito bem pontue como ele também fez parte a comissão de juristas no senado é Federal que tinha ali o objetivo de criar então substitutivo um texto novo para essa regulação de Inteligência Artificial essa comissão Então ela se desenvolveu ao longo
de 2020 inteira e ela teve realmente muito mais participação pública por mais que inicialmente ela tenha sofrido algumas em relação a sua composição por falta de diversidade em termos de raça e regional ela ao longo do seu funcionamento ela tentou Balancear essas questões proporcionando a possibilidade de uma participação pública é diversa e também Ampla então houve consultas públicas ou ver audiências públicas inclusive com diversidade Regional questões também muito setoriais de fora do Brasil tivemos especialistas internacionais especialistas internacionais de diferentes regiões do Brasil Então tentou se Balancear essa falta de diversidade que foi ali pontuada na
nos membros da comissão durante o processo de funcionamento da comissão que se deu até dezembro quando foi apresentado então um relatório de 900 páginas com ali todo funcionamento das audiências públicas das consultas públicas das fontes principais e também um novo texto Então testes projetos de inteligência de regulação de inteligência social que estavam sendo discutidos no senado esse projeto esse relatório ele foi apresentado em dezembro de 2022 e até os primeiros meses de 2023 ele tinha ficado ali esquecido em uma em um protocolo efetivo foi feito para transformar esse esse documento que era um relatório da
comissão efetivamente um projeto de lei até agora em Maio de 2023 quando então Senador Rodrigo Pacheco ele fez o protocolo do pl 2338 que é exatamente o texto de lei que foi criado o texto de projeto de lei que foi criado pela comissão de juristas e aqui é relevante mencionar que ele não foi protocolado como um substitutiva pl21 ele foi em um novo protocolo um novo projeto de lei pelo Senador Rodrigo Pacheco que então tem por isso que tem esse novo número né de 23 38 e ele é então o momento atual em que estamos
né esse projeto ele foi isolado e ele e ele traz uma regulação que conta muito mais com a participação pública obviamente que a gente vai discutir aqui que ele tem algumas questões ainda que podem ser aprimoradas ao longo da discussão provavelmente vai isso decorrer ao longo dos meses mas é uma vitória que esse projeto da comissão de jurista estranha efetivamente virado um projeto de lei para que a gente continue essa discussão ao longo dos meses e é importante até reforçar o ponto que o Bruno tava trazendo que a regulação ela não deveria ser associada a
impedir a Inovação o que se quer aqui é que a gente tenha inovação então que o sistema de Inteligência Artificial eles Tragam sim inovações mas que sejam inovações responsáveis vocês vão inovações que sejam protetivas aos direitos fundamentais das pessoas Então esse Essa é a intenção Central quando a gente fala de uma regulação eficiente de inteligência artificial E então agora entrando especificamente no PL 2338 e a gente vai interessar mais esse pele em si Porque ele é o que tem hoje no Brasil de mais avançado quando a gente fala de regular a inteligência artificial ele não
é apenas uma mera carta de intenções como a gente se referenciava ao pl2120 mas ele é uma continuidade a gente pode entender como um avanço das discussões daquele pele Inicial 21 que conforme foi se aprofundando nas discussões que foi madurando também as questões com participação pública se chegou a esse PL 2338 Então vamos lá algumas premissas principais do 3 do texto proposto é que inclusive Estão ali na exposição inicial do relatório da comissão de juristas foi a intenção de fazer essa conciliação de uma abordagem baseada em riscos como Bruno bem falou como abordagem baseada em
direitos então o PL ele traz essa essa conciliação dessas duas abordagens porque ele ele não prevê uma regulação que é uniforme então de acordo com o grau de risco daquele sistema de Inteligência Artificial o ator de ir a regulado ele vai ter menos ou mais grau de intensidade das obrigações ali da legislação então por exemplo então a gente fala de Inteligência Artificial de alto risco ela vai estar associada a dar o maior número de obrigações e a maior número de direitos dos indivíduos também do que uma ia de risco baixo moderado E além disso como
também foi muito bem pontuado pelo Bruno inicialmente que o texto proposto pelo pelo PL 2338 ele não é a mera mera o espelho da regulação que temos fora obviamente que a gente tem algumas questões que foram trazidas também de discussões mais aprofundadas do cenário internacional mas se buscou olhar o Brasil e o contexto brasileiro é com as suas particularidades então está falando de uma sociedade que tem desigualdades estruturais especialmente o racismo Então essas questões elas foram muito bem pontuadas ao longo do texto da comissão de juristas então esses são as duas principais questões que a
gente pode destacar desde logo e dizer que esse esse pele ainda vai ser muito discutido nos próximos meses mas que ele já é um avanço grande em relação ao que a gente tinha com 21 e 20 então falando o Bruno já trouxe a questão da categorização de riscos mas considerando pele O que que a gente tem né expressamente o PL prevê dois tipos de risco Então seria o risco excessivo e o alto risco ele não fala sobre risco moderado ou baixo mas a gente presume tudo que não seria então risco excessivo e alto risco seria
então uma classificação subsidiária não tá ali explícita no texto de lei mas é mas está presente como algo subsidiário então o risco excessivo ele seria todos aqueles sistemas desde já vedados então eles não poderiam ser aplicados em um mercado ou disponibilizados em serviço porque eles estão atrelado a exploração de certas vulnerabilidades ou indução de comportamentos manipulação de comportamentos que seriam nocivos aos direitos fundamentais ou até mesmo é uma avaliação e classificação desse cidadãos pelo poder público então não seria possível como Episódio de black Mirrors tem uma um score de todas as pessoas e que isso
iria estar atrelado com direitos dos indivíduos Então essa questão específica ela tá vedada desde logo pelo PL 2338 e aqui é importante ressaltar que a intenção do da comissão de jurídico quando ela pensou nessa classificação de riscos era fazer com que o projeto ele não fosse cristalizado e não fosse imutável mas sim como a regulação ela é mais lenta do que a inovação tecnológica pensar em um texto de lei que pudesse acompanhar então o desdobrar e a Inovação em si Então ela prevê expressamente a possibilidade desse Raul que é um rol exemplificativo de sistema de
Inteligência Artificial de risco excessivo então desde logo vedadas ela seja tem a possibilidade de se atualizada de tempos em tempos pela competente Então ela poderia tirar ou colocar novos sistemas de Inteligência Artificial nesse nesse rol de riscos excessivos e quando a gente fala de alto risco são riscos significativos ou então Aqueles que são desconhecidos mas que eles causam impactos significativos em Direitos Humanos na democracia ou no estado de direito e que por mais que sejam significativos existe na realidade daquele cenário em específico medidas para mitigar esses riscos à direita então o pele também não traz
um rolo fechado de quais são esse esses casos de alto risco mas ele fala de finalidades que são consideradas de alto risco também com a possibilidade da autoridade competente aí mudar eventualmente quais são essas finalidades entendidas como de alto risco ou não tem ali a previsão de alguns critérios quantitativos e qualitativos e o risco que não tá ali Expresso como eu tava bem falando de de subsidiário que seria Então essas viagens de baixo ou médio risco e aqui já dei uma palhinha prévia mas o artigo 18 do projeto de lei ele deixa claro então que
essa autoridade ela pode de tempos em tempos atualizar esse rolo de risco excessivo ou de alto risco e prever critérios também para atualização né então inclusive por exemplo se esse sistema de Inteligência Artificial ele pode ser discriminatório se ele tem será atingir grupos vulneráveis então tem ali uma série de critérios no Artigo 18 que permite que esse órgão regulador então a posteriori atualize essa regulação para que ela não fique cristalizada no tempo mas que ela Siga e continue atualizada conforme a tecnologia evolui também e falando especificamente sobre a classificação exemplos de sistemas de Inteligência Artificial
que seria enquadradas em cada um desses riscos pelo que foi proposto pelo PL quando a gente fala de risco excessivo Então seria por exemplo um sistema de Inteligência Artificial que ele é utilizado para identificar alguns padrões de comportamento publicidade por exemplo Em alguns momentos de Euforia ou até o momento de depressão quando a pessoa tá triste ele pode mandar um anúncio específico para comprar algum tipo de remédio ou então manipular o comportamento daquelas pessoas para terem comportamentos maléficos para si mesmo ou para terceiros são casos de risco excessivo de Inteligência Artificial que estariam Então atrelado
essa exploração de vulnerabilidades ou de estados mentais por exemplo quando a gente fala de casos de ar de alto risco Então são os algoritmos de filtragem de currículos que estariam relacionados a finalidade de candidatura e de emprego Então esse essa finalidade específica que o PL prevê definição de crédito então definição de crédito também seria um caso de alto risco e eventualmente um sistema automatizado do governo para avaliar possibilidade de uma pessoa receber ou não um benefício social estaria também atrelado a finalidade de avaliação de elegibilidade ou de revisão ou atualização de de recebimento de certo
serviços públicos ou até mesmo privados então esses seriam casos de alto risco pelo PL 23 38 e aí como Bruno falou também previamente casos de risco moderado ou limitado seria filtragem de spam então em meios por exemplo aquela automatização de e-mails que vão para o seu spam e até mesmo falar que aquele chatbot de alguns serviços seriam casos de risco moderado que estariam atrelados alguns algumas questões então a gente falou bastante aqui o PL 2338 ele lida com formas de concretizar as previsões então ele tem ali instrumentos efetivos de governança e um dos grandes instrumentos
é a avaliação de impacto algoritmo que eu vou tentar dar uma palinha muito rápida sobre ele porque daria por si só uma aula só sobre avaliação de impacto algoritmo especialmente trazendo todos os pontos que são ali trazidos pelo PL mas aqui a gente queria reforçar que foi que a comissão ela tentou fazer com que essa avaliação de impacto algoritmo fosse um instrumento de consolidação de um caráter público Então aqui tem dois momentos em que o pele ele traz essa compatibilização dos riscos com a sociedade então A ideia é que a partir de uma avaliação prelim
toda todos os atores de Inteligência Artificial Eles teriam fazer essa avaliação preliminar que seria então avaliar o grau de risco inicial do sistema E caso fosse ali constatado no início de ser um risco excessivo essa esse sistema ele não poderia ser implementado seria vedado desde logo Caso seja um sistema de alto risco seria obrigatório então a elaboração prévia de uma avaliação de impacto algoritmo que tem uma sessão do pl específica para ele e aí então essa avaliação de impacto algoritmo teria o objetivo central de identificar os riscos daquele sistema E aí trazer então mitigações de
como fazer com que o sistema de Inteligência Artificial ele seja menos arriscado quando colocado na prática né intenção mesmo de proteger direitos fundamentais então o centro de avaliação do instrumento de avaliação de impacto é o próprio o ser humano e quando a gente fala aqui de desse caráter público é que a intenção em dois momentos do pl2338 era de trazer participação pública então trazer os atores eventualmente impactados ou partes interessadas nesse sistema de Inteligência Artificial elas pudessem participar do processo de avaliação de impacto O parágrafo segundo do artigo 26 ele deixa claro essa participação pública
nos processos de atualização da avaliação de impacto algoritmo aqui fica uma lacuna do pele que é uma crítica que a gente já pode fazer que não tem Expresso a possibilidade dessa participação pública no primeiro momento de avaliação de impacto Inicial antes mesmo dessa atualização eventualmente se espera que isso seja incluído né no projeto Na continuidade das discussões desse projeto mas desde logo ela Traz esse caráter então de você dividir o risco com a sociedade no sentido de que a sociedade ela deve estar ciente do que aquele sistema traz de risco e poder também de certa
forma participar desse processo E aí um segundo momento é que ele traz esse display inicial de segredo industrial e Comercial mas que as conclusões Então os pontos centrais ali da avaliação de impacto elas deveriam ser públicas É permitir Então esse discutindo da sociedade se controle social desses agentes então não seria apenas uma autoridade de supervisão Então as próprias empresas que fariam checagem de como essa avaliação Se daria mas a própria sociedade Ela poderia atuar em conjunto sobre isso até porque normalmente estamos as próprias pessoas impactadas por esses sistemas de Inteligência Artificial e vão poder também
dar contribuições efetivas quando a gente fala de avaliar os riscos então só dando uma palhinha sobre avaliação de impactos poderia ficar horas falando aqui mas é importante que o pl2338 ele não só prever essa obrigação de que os atores de Inteligência Artificial de risco elevado façam essa avaliação de impacto algoritmos ele também traz certa procedimentalização ele traz algumas etapas iniciais Não não taxativa são exemplificativas ele traz também alguns critérios de avaliação e essa possibilidade de atualização dessa avaliação de impacto que a intenção é que realmente seja um processo contínuo durante todo toda do processo de
existência desse sistema de Inteligência Artificial e que ele também permita essa participação pública Então esse caráter público dessa ferramenta de governança bom outro Ponto Central também que é um é um avanço do pl 2338 em relação ao 2120 é a questão da responsabilidade civil quando o pl2120 foi aprovado na Câmara dos Deputados ele previa uma responsabilidade subjetiva então ele dependia de culpa o que era um retrocesso um pouco quando a gente pensava no histórico de proteção até de grupos vulneráveis dicionário brasileiro quando a gente pensa por exemplo no Código de Defesa do Consumidor na proteção
dos grupos vulneráveis que seriam os consumidores ele traz a responsabilidade de objetiva independentemente de culpa então a versão do pele anteriormente ela era até um retrocesso na proteção de direitos no cenário brasileiro como as discussões de como as consultas públicas que foram feitas ao longo do processo da comissão de jurista chegou Então essa solução que se diz um pouco meio termo então para esse sistema de inteligência artificial muito excessivo ou de alto risco seria a responsabilidade objetiva então independentemente de culpa e aqui voltando um pouquinho atrás para quem eventualmente aqui tá com a gente que
não é do direito responsabilidade civil é então tentativa de reparar um dano a um direito por exemplo quando um sistema de Inteligência Artificial ele causa esse esse dano para as pessoas Então tem essa esse direito de reparação de indenização então quando a gente fala de sistemas de risco excessivo de alto risco seria essa responsabilidade objetiva Então depende de comprovação de culpa e quando a gente fala dos outros possibilidades de sistemas então subsidiárias baixo risco e Médio risco seria uma responsabilidade subjetiva mas com a culpa presumida então a Brenda também essa inversão do anos da prova
a favor da vítima e ele traz algum ali no artigo 28 casos mais restritos em que seria afastado essa responsabilização mas em regra seria então essa responsabilização objetiva dos sistemas de Inteligência Artificial e de alto risco aqui falando bem rapidamente sobre sandbox regulatório eu não sei se todo mundo tá na mesma na mesma linha sobre o que que seria esse sandbox regulatório mas basicamente é um ambiente regulatório experimental é a legislação como a gente estava falando ela não é um entrave a Inovação do sistema de Inteligência Artificial E isso também fica claro pela previsão desse
desse artigo 38 que traz a possibilidade de que certas entidades que queiram a autoridade competente é para que elas possam testar seu sistemas que seriam eventualmente de risco excessivo ao alto risco num ambiente controlado então no ambiente em que não existiriam danos concretos a realidade de direitos é a democracia o estado de direito então o artigo o PL prever ali alguns critérios e algumas características que essas entidades elas teriam que cumprir para solicitar esse sangue de box regulatório para o seu sistema específico e esse essa proposição ela seria feita para autoridade que teria então a
competência de autorizar ou não esse ambiente de teste seria um ambiente seguro isso aqui é até um pouco de inspiração do que a gente tinha no próprio na própria regulação de inteligência artificial na União Europeia mas falam falando um pouquinho sobre essas questões é mais específicas eu queria voltar esse ponto de conciliação então entre abordagem de riscos e direitos a gente falou da classificação de riscos do sistema de Inteligência Artificial pelo pelo PL Como eu disse também o próprio relatório da comissão de juristas eles deixam claro que ou você tentativa de trazer uma conciliação de
uma abordagem baseada em risco de uma abordagem relatória baseada em direitos e como que isso acontece na prática né Então existe um hall de direitos previstos no artigo quinto do pl e alguns desses direitos eles são possíveis de exercício pelos indivíduos independentemente do grau de risco do sistema de Inteligência Artificial então aqui a gente está falando de direitos de informação direitos de transparência São Direitos que são devidos independentemente do grau de risco e conforme esse sistema ele vai esse ator que ele tem risco maior ou menor também vai acompanhar então o nível obrigacional assim como
os direitos que podem ser exercidos então quando a gente fala de sistemas de risco alto a gente estaria falando também de mais obrigações e mais direitos para os indivíduos e aqui quando a gente fala de mais direitos por exemplo seria o direito de contestar e também de intervenção humana que tá ali entre os artigos nono e 11 do projeto e agora especificamente sobre o rol de direito previstos no PL 23 38 muitos desses direitos não são novos ele já existem algumas outras regulações com a própria lgpd como o CDC mas é importante que o PL
reforça esses direitos no seu texto com esse Hall é ali claro os direitos no artigo quinto Então existe esse direitos para todos os sistemas de Inteligência Artificial que estão ali no artigo 7º e 8º em Direito de informação e compreensão decisões tomadas por sistemas de Inteligência Artificial Então as pessoas elas teriam que independentemente do Risco desse sistema saber que elas estão lidando ali com o sistema automatizado saber informações sobre esses operadores saber quais os tipos de dados que são tratados de inscrição do que aquele sistema faz e por aí vai um direito também que seria
geral seria um direito de explicação de eventuais de decisões recomendações ou previsões de sistemas que são discussões que vem até da própria lgpd a gente fala de dados pessoais e São Direitos aqui reforçados com direitos Gerais de todos os sistemas de Inteligência Artificial independentemente do Risco e aí conforme a gente vai elevando o risco entrar em outros direitos como esse direito de contestação de decisões e de intervenção humana e aqui especificamente nos casos de decisões previsões ou recomendações que trazem efeitos jurídicos relevantes o que impactem de maneira significativa interesses dos indivíduos que lhes trazem a
possibilidade de correção de dados de contestar discriminações feitas por inferências que seriam diferentes discriminatórias ou irrazoáveis e também traz expressamente a possibilidade e a necessidade de participação humana em determinados casos então nos casos de processos difícil de reversão ou até de alto risco que ali envolve eventualmente danos a direitos fundamentais seria necessário uma participação humana e eles até qualificam essa participação humana como significativa Então são questões que são importantes para o exercício de direitos é por isso que a gente fala que a questão da abordagem de riscos e direitos está associada Porque quanto maior o
risco maior também o número de direitos e a carga obrigacional dos atores regulados e essa questão aqui de não discriminação e correção de vieses é um Ponto Central porque como eu estava falando o projeto de lei ele tenta também reforçar o contexto brasileiro e que a gente tem essas discriminações estruturais da sociedade então ele trouxe como Central o direito a não discriminação e correção de vieses e ele deixa Claro que seria então vedado que fosse utilizado esses sistemas que possam apresentar vieses diretos ou indiretos viagens legais ou abusivos né porque tem alguns casos de discriminações
positivas então que seriam autorizadas por lei bom acho que a gente bateu bastante nesse ponto mas eu acho que é bem importante trazer é os momentos específicos e que o PL Pensa nessa questão da realidade Brasileira de reconhecer que o Brasil é uma sociedade permeada por desigualdades estruturais então o primeiro o primeiro Ponto Central tá logo ali no início nas definições o PL traz uma definição de discriminação direta e indireta que foi extraída também da convenção inter-americana contra o racismo Então ela definição ela teve embasamento também regulações internacionais e que o Brasil faz parte e
traz expressamente também o direito como eu tava falando a não discriminação e a correção de viagens discriminatórias além disso em alguns outros pontos da lei a questão da discriminação não é reforçada então na própria metodologia da avaliação de impacto há um destaque para para o impacto discriminatório de um eventual do sistema de Inteligência Artificial nessa avaliação de impacto essa questão ela um ponto central de análise nesses processos de governança e na própria na própria no próprio processo de atualização dos casos de risco excessivo de alto risco pela autoridade competente elementos de caráter discriminatório a eventual
afetação de grupos vulneráveis específicos também é levado em conta para saber se um determinado sistema ele vai entrar ou não nesse rolo de risco excessivo ao alto risco em eventual atualização pela autoridade então é um ponto central da regulação brasileira pensar nesse cenário de discriminação estrutural então o racismo e outras formas de discriminação elas não são atitudes individuais apenas Mas elas estão ali reforçadas em toda a camada da sociedade inclusive de forma indireta muitas vezes O Bruno também já falou um pouquinho sobre o chat PT mas aqui eu queria trazer algumas questões sobre a regulação
E como que o PL 2338 ele traz um eventual regulação sobre essas viagensgenerativas porque tanto no contexto europeu quanto ali no áudio de discussão da comissão de juristas ainda não tava no Hype tão grande da idade generativa e do chat GPT E se eu não me engano ele começou a ser introduzido no final de novembro do ano passado e o relatório da comissão ele foi apresentado ali em dezembro e as discussões ano passado também do apartamento europeu da comissão europeia da União Europeia do eles não tinham previsto essas questões de agenerativo e recentemente houve aprovação
né de um texto penal pelo pelo União Europeia em que eles fizeram eles trouxeram algumas algumas emendas para incluir a questão tiva de tanto que eles estavam preocupados com essa tecnologia diante de todo Hype que a gente apresentou aí nos últimos tempos então o pele ano passado apresentado o texto né o relatório apresentado pela comissão de juristas ela já trazia uma previsão específica sobre regulação dessas inteligências artificiais de propósito geral além de trazer a conceituação dessa dessa idade propósito geral essas viagens generativas também tem ali uma disposição específica no Artigo 13 parágrafo primeiro que toda
viagem para fotos geral elas precisariam efetivamente na avaliação preliminar indicar desde logo as suas finalidades e as aplicações indicadas então é quando a gente pensa em regulação a regulação que a gente tem hoje em dia pela comissão de jurídica que foi proposta pela comissão jurista de hoje em dia ou PL 23 38 ela é basicamente totalmente aplicada para estes temas e ela ainda traz questões específicas ali no Artigo 13 mas realmente assim como aconteceu na União Europeia é provável que nas futuras discussões e conversas no processo legislativo alguma outra questão também sobre regular especificamente essas
viagens negativas venham a aparecer no contexto brasileiro mas queria dizer desde logo que o texto atual do pl 2338 já cobre quase que 90% é como regular essas viagens negativas trazendo também de forma adicional essa menção específica e a de propósito geral no contexto da União Europeia ano passado quando surgiu o Hype da e agenerativa o texto da União Europeia não trazia nada específico sobre isso e agora mais recentemente eles incluíram essas questões então eles adicionaram o conceito de modelos fundacionais que seria que entraria né nesse contexto da idade generativa e além disso ele aumentou
e ele trouxe também um artigo específico para obrigações desses modelos Funda Nesse artigo 28 B então é um rol enorme de obrigações mas aqui eu destaquei algumas como fazer então essa avaliação de riscos e também essa efetivação de medidas mitigação desses riscos à saúde ao meio ambiente a democracia o estado de direito é tem a obrigação de fazer um registro na base de dados da União Europeia desse sistema e também requisitos adicionais de Transparência sobre esse sistemas então houve diante de todo Hype de todo medo também vinculada essa tecnologia do chat PT e agenerativas o
cenário europeu incluiu de última hora assim é questões específicas sobre o essas viagens negativas pode falar que eu só vou trazer uma informação de risco tá legal é pessoal é uma das discussões que pega fogo que é foi isso que a Paula colocou E aí a gente chega aqui na parte final já do da nossa aula aberta até para responder um pouco as reflexões e questões que que vocês trouxeram o problema é de argenerativas ou de Aço de propósito geral é justamente porque elas estressam o sistema baseado em risco porque ele é muito contextual né
então a gente tá falando de malhar ela aplicava para diferentes funções e você pode ter outras camadas de desenvolvimento em cima dela então o que é União Europeia fez foi dizer o seguinte Ok mas ainda assim é você poderia enquanto desenvolvedor tentar os riscos razoáveis dentro dos diferentes cenários ou contextos onde que isso poderia se desenvolver principalmente é entendendo questões por exemplo de acurácia as próprias questões de entender em termos de linguagem como que esse é mecanismo poderia ser abusado é questões de discriminação etc e aí mantendo toda a perspectiva também de quem vai desenvolver
em cima dessa idade propósito geral e vai lançar dentro de um determinado contexto aí Assim aplica com forças perspectiva de taxonomia e de classificação de riscos é como um todo essa discussão literalmente pegou fogo porque teve gente que literalmente disse comum de asgenerativas principalmente do chat app dizendo inteira não para de pé e a resposta foi justamente o contrário disso a gente precisa azeitar algumas coisas talvez remodelar quem a quem na cadeia Econômica de desenvolvimento mas não simplesmente restartado zero a proposta regulatória E aí Paula como a gente chegou no horário às 8 horas da
gente tentar Navegar aqui pelas reflexões que o pessoal trouxe no chat tem várias perguntas super interessantes eu vou eu vou começar aqui a gente vai fazendo Esse bate-bola é uma pergunta que veio do Douglas diz o seguinte Olha aí ele tem esse tutorial de que essa autoavaliação de impacto regulatório seja efetiva vejam distintos foram certo desconfiança nem todos os fatos pretéritos da empresa meta também da própria opinião então isso daí tá diretamente relacionado é até um dos temas que a gente iria tratar nessa aula aberta mas o tempo acabou ficando no curto de que regulações
como essa elas apostam muito nessa perspectiva de governança em rede então o que que a Paula trouxe foi a perspectiva de como por exemplo essas avaliações de impacto ainda que seja uma autoavaliação de impacto ela vai ter que ter objeto de Transparência de Publicidade né então é uma proposta que que vem é dentro desse pele da comissão é a criação de uma base de dados publicamente acessível aonde você teria todas essas viagens de alto risco ali apontadas ali previstas e até essa própria documentação de avaliação de impacto de como que é feito o gerenciamento desse
risco então a própria sociedade teria também um controle social sobre se essas avaliações elas para de pé e consequentemente tem uma deliberação pública sobre todas as avaliações é um pouco isso que a gente traz aí nesse nesse slide né então é uma futura agência reguladora teria que conversar com Anatel com a npd com Bacen e outras para entender quais e as dentro desse respectivos setores como por exemplo financeiro são de alto risco e como que a sociedade também tem algo a dizer né se é por exemplo na pauta no campo ambiental é todo e qualquer
estudo de meio de impacto ao meio ambiente um relatório de impacto ao meio ambiente ele é público porque permite que a própria sociedade possa também ser um regulador no sentido mais amplo do termo porque que deveria ser o contrário da pauta ou na agenda de Inteligência Artificial quer pegar algumas daí Paula peguei é só fazer um reforço Bruno porque essa foi uma questão que foi muito discutida na União Europeia no porque eles propunham realmente que as próprias entidades fizessem as avaliação do seu grau de risco e aí ficou Ok mas se eles mesmos vão fazer
sua própria avaliação Então qual é a garantia de que isso vai ser efetivamente implementado de forma efetiva né E quando a gente olha pro pele 2338 a gente propõe Então essa avaliação preliminar que seria feita por todos os agentes de Inteligência Artificial E caso fosse constatar esse alto risco teria então destravado essa obrigação de fazer avaliação de impacto E aí o próprio texto da Lei ele traz essa regulação em rede como estava muito bem falando e ele traz também expressa ali a possibilidade da Poder Executivo designar uma autoridade que a gente não sabe hoje em
dia porque não foi descrito na lei será uma ideia uma autoridade nova se alguma autoridade já existente vai assumir essas obrigações mas a ideia de que essa essa função né de avaliação preliminar e avaliação de impacto seja então fiscalizada tanto por essa autoridade como também como seriam Então as conclusões essa avaliação de impacto públicas controladas por toda a sociedade né então é importante enfatizar que haveria Então esse controle pela pela autoridade também pela sociedade como um todo e outras organizações e outras autoridades que já existem hoje em dia então ali trabalhando em conjunto né porque
essa regulação ela não vem do nada mas ela vem somando com todo um contexto regulatório já existente e até o próprio PL lhe prever que eventual avaliação preliminar possa ser alvo de investigação pela autoridade que se constatar que eu avaliar alguma questão fraudulenta ou pensativa de burlar o sistema que essa esse sistema de conduzido então para um grau correto né então o projeto de lei ele PV dentes então ele tem uma possibilidade de fiscalização ali das duas regras ele não é algo simplesmente não vou trazer uma aplicação era isso que eu queria trazer de adendo
E aí eu queria tentar acessar aqui YouTube como compartilhando até ela não consigo ver o chat do YouTube para ver as outras perguntas pode compartilhar até o Paulo eu mandei aqui no chat do próprio zoom para você acesso às perguntas Quando você vai lendo eu vou pegar aqui uma outra que é do Bruno é meu xará o Bruno marcolini que ele pergunta se muitos discute sobre a possibilidade de a ser considerada a autora no direito brasileiro obras ou patentes Existe alguma previsão de regulação dessa matéria no pl Não é Bruno é sobre autoria da produção
em cima de uma nova obra alguma coisa do tipo ou que mesmo seja derivada não tem uma previsão expressa mas tem um artigo específico do projeto de lei é que tá lá no finalzinho dele que fala da perspectiva de como que a própria mineração consequentemente a geração né de obras em cima de textos imagens que foram produzidas anteriormente por parte de nós ser humanos é isso não necessariamente constituir uma ofensa direitos autorais né Essa raspagem essa mineração automatizada é óbvio que você vai ter que seguir ali várias regras para um exame de proporcionalidade etc é
mas hoje uma grande discussão né porque essas viagens negativas como PT e outras elas aprendem com base é numa criação numa obra de nossa né seres humanos e ao fazer isso a fazer essa apropriação essa essa raspagem elas estariam ofendendo direitos autorais ou algo do tipo E aí o artigo 42 desse projeto de lei é ele procura da dar uma resposta nesse sentido você tá multado Paulo clássico uma das perguntas que foi feita pela Carolina Barros sobre a questão da intervenção humana Então como na prática isso seria feito e realmente a intervenção humana é um
ponto bem complexo Porque alguns sistemas de Inteligência Artificial Inclusive tem tanto opacidade que nem os próprios desenvolvedores conseguem entender em questão de dos processos automatizados tem um texto muito bom é da Miriam vimer como professor essas questões de intervenção humana em que ela fala que acerta as situações Em que em que a intervenção humana ela seria necessária e outras em que ela talvez seria não necessária quando por exemplo o próprio agente ele traz questões de Transparência bem ativas ou quando não é uma decisão que impacta Tão significativamente sim pessoas mas quando a gente pensa no
primeiro fica a dica né dessa leitura desse artigo da Professora Miriam com o professor Danilo doneda e o projeto de lei 2338 ele tenta interessar essas questões então no artigo 10 ele Fala especificamente de quando uma decisão previsão recomendação é produzir efeitos jurídicos relevantes ou que tem algum Impacto significativo nas pessoas que teria essa possibilidade de solicitar intervenção humana mas que nem sempre isso vai ser possível está previsto no parágrafo único então quando essa intervenção é uma revisão humana ela não for possível é porque é comprovadamente impossível no caso concreto que o ator de Inteligência
Artificial então ele teria que pensar em medidas alternativas para assegurar então uma reanálise da decisão que tá sendo contestada ou então é para garantir pelo menos um processo informacional e de contestação ali dessas decisões mais efetiva porque realmente nem sempre Redenção humana ou essa revisão humana ela vai ser possível em algumas decisões então é diante dessa complexidade da questão que envolve questões técnicas também o pele tentou endereçar essas questões prevendo então a possibilidade do ator implementar algumas medidas alternativas eficazes e obviamente a regulação Ela traz muitos conceitos ainda que são abstratos né que eventualmente vão
ser necessariamente ter que sofrer estudos e até uma regulação Extra pela futura autoridade que vem aí a gente espera que ela venha né porque a primeira etapa vai ser de aprovação do texto de lei com continuação dessas discussões é públicas muito setoriais de diversas mas aí na segunda etapa uma segunda camada assim como a gente vive no processo da lgpd é pensar nessa nessa autoridade de supervisão e eu vou pegar o artigo mandar o link aqui e peço para colocarem no YouTube tá bom Legal tem um comentário é que foi feito pela pela Joana é
que não basta eu assim o tratamento diferenciado ele ser com base em critérios objetivos porque ainda eles podem ser injusto a coberta de razão é por isso que o artigo 12 é o parágrafo único ele qualifica né quando que é isso vai ser considerado é um ato ilícito né ou uma discriminação que enfim que é vedada que a ideia dessa discriminação Elas têm ou ilícita ou abusiva né então projeto de lei não vai acabar com algoritmos por exemplo é como acontece hoje de empresas de transporte privado onde que você tem uma uma diferenciação dinâmica do
preço é de acordo com a oferta demanda que acontece ali naquela determinada região até porque essa própria precificação dinâmica também responde a questões até mesmo de mobilidade né no sentido onde que você tem maior tráfico e tá mais caro para você se locomover as pessoas por exemplo tendem a esperar né tem também um componente de política pública nessa diferenciação muito diferente quando a gente tem casos aonde que você tem por exemplo algoritmos que vão fazer diferenciação de preço baseado em região né ou nacionalidade que a ideia de block né que é um dos casos que
inclusive é tem sido debatidos aqui no Brasil então a lei ela é bastante forte no linguajar é da discriminação seja prevendo o conceito de discriminação direta e indireta muito em linha com que faz a conversão interamericana mas também prevendo um direito específico a não discriminação mais ponderando que por exemplo para políticas afirmativas você tem um tratamento diferenciado Mas isso não é ilícito isso não é possível e é baseado também critérios é objetivos como por exemplo de raça gênero alguma questão relacionada à classe socioeconômica e assim por diante é isso Paulo tem mais alguma para a
gente responder eu queria só dizer que eu acabei de mandar aqui no chat o link também o nome do artigo da professora mirim do Danilo e acho que eu tô vendo aqui que a gente endereçou todos os pontos se alguém mais quiser trazer alguma questão Maravilha gente bom queria Então agradecer a presença de vocês acho que enfim com sucesso a gente teve aqui um corum alto é bastante a gente ficou até o final a gente deve voltar a se comunicar com vocês para compartilhar outros materiais outras aulas abertas outros cursos que iremos rodar aí dentro
do data parte do Brasil e é isso gente bom restinho de semana para vocês Paula obrigado por você ter dividido esse espaço comigo é isso obrigada Bruno Obrigada todo mundo que acompanhou que a aula e realmente acompanha as redes do data que a gente tá com essa pesquisa sobre inteligência artificial e a gente já atua nisso há algum tempo então nos acompanhe que acho que vem muita coisa por aí até por conta dessa protocolo do 23 38 que tá só no comecinho então muito obrigada Boa noite obrigada por todo mundo que acompanhou a gente Obrigada
Bruno também por compartilhar essa aula comigo