Olá bom dia a todas e todos meu nome é Fabiano e Laura Sou coordenadora Geral do desenvolvimento e execução de experiências de aprendizagem na enap desejo a vocês boas-vindas a webinário racismo algoritmo a partir de uma perspectiva racial E de gênero estão presentes neste evento ilustre os representantes da enap e do Ministério da Igualdade racial que em seguida farão a abertura oficial deste webinar webinário busca ampliar e fortalecer saberes negros na luta contra o racismo Monte Negro brasileiro por meio de sua manifestação através da tecnologia considerada neutra por sua aplicabilidade e termos de progresso e
promoção das facilidades que a vida moderna exige Esse webinário é uma parceria entre o ministério da Igualdade racial e a escola nacional de administração pública informamos que neste evento está garantido o serviço de Interpretação para libras será disponibilizado formulário de check-in no chat do YouTube aos participantes que estão acompanhando o evento fiquem atentas e atentos somente os participantes que preencherem corretamente o link o check-in serão certificados no final teremos o formulário para avaliação do nosso webinário contamos com a colaboração de todas e todos as perguntas poderão ser realizadas por meio do link disponível no chat
do YouTube e serão respondidas ao final das apresentações das especialistas agradeço as ilustres autoridades pela presença neste dia de hoje e aos pais na listas que gentilmente aceitaram o convite para participarem deste web convida agora a secretária executiva do Ministério da Igualdade racial Roberto Eugênio que fará a abertura do evento muito obrigada Fabiane quero aqui primeiro da Bom dia a todas todos e todos que estão nos assistindo Eu me chamo Roberto Eugênio sou secretário executiva no ministério da Igualdade racial eu vou fazer aqui a minha audiodescrição eu sou uma mulher negra com cabelo crespo curto
tô com uma blusa branca um colar Verde no meu fundo tem uma janela de persianas bem eu quero começar saudando a mesa né saudando primeiro acho que o ministério racial através da secretaria da Leal secretária de gestão de sinapi a diretora Tatiana Dias e também é que o coordenador Luciano gosta que vai fazer a mediação dessa mesa e também agradecer napi com a parceria que tem feito conosco através do programa fiar de formação de racista em uma série de outras atividades contribuindo para também através da escola nacional de administração pública pensarmos numa administração que contribua
para o enfrentamento desse racismo Montenegro no Brasil e para formulação de políticas que sejam efetivamente inclusivas e contribuiu para a promoção da Igualdade racial quero também saudar a mesa a Nina da hora querida amiga e grande acho que intelectual formuladora dentro desse Campo o Pablo Nunes do Cesec E também o Tarcísio Silva eu fiquei pensando aqui no início como nós estamos aqui tendo a possibilidade nesse tempo de sentar com esses pesquisadores contemporâneos que trazem formulações que são essenciais para o debate sobre as tecnologias e seus vieses e sobre como nós precisamos acho que nos desdobrar
através das reflexões sobre Quais são as necessárias ferramentas para o enfrentamento ao racismo nos dias atuais entendendo que o que hoje nós colhemos enquanto pesquisadores gestores e formuladores de política se deve a partir da Luta dos movimentos negros até aqui da possibilidade hoje né de falarmos do lugar do ministério da Igualdade racial Mas também de uma atividade crítica constante permanente que se deu tanto no campo da academia quanto através do estado para pensar em outros caminhos para uma sociedade em que a igualdade seja marca e não é o seu oposto bem quero mais uma vez
parabenizar a secretaria de gestão do sinapir por essa iniciativa em parceria com a enap desejo a todas e todos em nome do Ministério da Igualdade racial um excelente webinário e passa a palavra para o Luciano que realizará a mediação Bom dia a todas todos e todos com muita alegria né que estou aqui na condição de coordenador da secretaria de gestão da informação né no monitoramento e avaliação aí tentando moderar é uma condição muito muito específica essa linda roda essa potente roda que nós para nós pensarmos sobretudo no dia de hoje uma quarta-feira né uma justiça
a partir de instrumentos tecnológicos né É muito difícil para mim fazer esse controle sobretudo enquanto criminólogo né porque a nossa veia ainda mais uma criminologia afrodiastólica é romper com Essas barreiras né desobedecer epistemologicamente né E aqui na companhia dessas quatro referências no campo né do racismo algoritmo que vão né abrir caminhos para Essa justiça né também manuseando uma tecnologia ancestral vou fazer a minha descrição Eu sou um homem negro careca de barba com brincos Dourados uma camisa com uma camiseta com estampa Africana e um terno cinza e uma parede no fundo né numa cor né
meia cinza dito isso né dessa minha alegria dessa honra de estar aqui compartilhando essa essa roda né E para abrir a Roda para abrir a nossa discussão né tão importante para o povo negro brasileiro sobretudo né passa a palavra agora para nossa primeira panelista Nina da hora é que é formada em Ciência da Computação pela puc-rio Mestrando em Visão computacional na Unicamp é cientista da computação e hacker anti-racista desde 2001 faz parte do grupo de pesquisadores e pesquisadoras tecnologia e sociedade na escola de Direito da FGV Rio atuando com os temas de Cyber segurança justiça
e justiça algoritmica em 2020 o Instituto da hora Instituto de Pesquisa focado em direitos digitais no Brasil vida longa e ao trabalho que vocês têm feito tem prazer de estar acompanhando pertinho saudando toda a equipe está dando aquele amiga Beta Eugênio na figura né no na figura de todas mulheres negras que estão comprando o mistérios racial e vamos negros também agradeço o convite e mas ainda agradecemos agora para abrir a nossa roda de conversa de um tema que está sendo trabalhado por diversas diversas mentes né e diversos corpos diferentes e aqui no meu lugar eu
vou falar da perspectiva que eu conheço mais que ela da Computação então saúde dos meus colegas aqui fico feliz que a gente tenha conseguido igualar né pelo menos na questão dos painelistas a presença de mulheres negras e homens negros por caixa importante a gente sempre quando estivermos falando de raça continuar quebrando essa essa ideia de que a liderança está pertencendo somente né na os homens negros Então queria já abrirmos que a minha situação da perspectiva do lugar que eu falo Primeiro vou fazer meu auto de inscrição Eu sou uma mulher negra tô com a camisa
é branca tem um blackzinho que é cortado do lado cabelo preto atrás de mim tem um papel de parede de tijolo né Sempre colocando a privacidade de dados em primeiro lugar e é totalmente eu falo rindo Então se vocês tiverem sentirem uma diferença no tom de voz é só é só a forma que eu encontro de compartilhar um pouco do conhecimento eu acho que a primeira coisa que eu queria Já que é pontuado para a gente começar a conversa é Dizendo que ainda estamos numa numa possível né definição ou construção da definição não querendo ser
muito acadêmica nem muito formal do que do que nós estamos do que que nós no que nós estamos construindo construindo não né do que nós estamos tentando desconstruir em relação ao racismo algoritmo né muitas pessoas tá colocam raça de um algoritmo como se fosse algo novo né exclui toda a reprodução já colocada do racismo que nós já conhecemos e que não não fomos nós que criamos então eu gosto sempre de começar falando sobre essa construção e sobre essa noção até de autorias e dos créditos né Acho que tem uma discussão aí de quem de quem
usou esse ter dinheiro de quem não usou esse tempo Primeiro de quem reproduziu em seus trabalhos esses termos primeiros e quando na verdade o que mais importa é o que a gente consegue incorporar na discussão para conseguir pensar diferentes maneiras de nitigando essa reprodução que é uma reprodução muito mais rápida do que o racismo do conceito original né o conceito original estrutural do racismo então na Perspectiva da Computação nós trabalhamos muito com a ideia de mitigação e principalmente a mitigação da disseminação Rápida desse desses problemas porque é o que de fato se for né quando
você está no meio digital pela abertura que nós temos tanto de como que nós Compartilhamos e pontuamos as ferramentas né Compartilhamos e desenvolvemos as ferramentas como também a maneira que é projetado esses algoritmos então eu não vou ser repetitiva que nós temos literatura usuficiente para falar sobre as questões relacionadas à diversidade de quem está construindo as tecnologias né então eu vou pontuar muito no lugar da no lugar da falta de debate né qualidade qualitativo de como nós estamos projetando as ferramentas e não só situadas em quem está projetando essa ferramenta tá porque não há garantias
E aí saiu recentemente um artigo da do E aí Now né que é o Instituto de Inteligência Artificial liderado pela presidente do signo né e o último artigo que eles lançaram Eles colocaram algumas recomendações pontuaram problemas que nós já conhecemos dentre eles Adversidade de quem está construindo assim como a diversidade dos dados que são utilizados na construção das Ferramentas tecnológicas mas ela também pontuou algumas recomendações de como que nós podemos mitigar esse esse esses danos dentro desse desse dos pontos de recomendação tem uma recomendação em relação a reflexão se realmente né construir data sete diversos
e garantir uma equipe diversa faz com que nós tenhamos uma uma diminuição dos problemas é que nós estamos abordando aqui então assim eu sei que vai ter durante a mesa um recorte um recorte para reconhecimento facial né que é um dos problemas mais complexos e mais fáceis de identificar tá dentro do racismo algoritmo por exemplo porque é muito é muito expressivo o os resultados negativos mas nós também temos outras reproduções que muitas vezes elas ficam ali invisibilizadas porque o resultado negativos eles não são tão expressivos mas nós deveríamos estar estar olhando para isso E aí
eu vou pegar vou alguns termos aqui que dentro do da pesquisa que estamos desenvolvendo eu sempre coloco estamos porque assim o processo de construção científica só se dá por conta da Fofoca que nós pesquisadores fazemos né então no caso A ciência é uma grande é um grande ambiente de fofoca que cada um vai publicando vai vai publicando artigo publicando o livro vai passando de medo vai passando de conferências vai fazer na sua construção dentro dos seus grupos de pesquisa e isso vai movimentando as áreas né então é muito importante fazer ter essa noção de construção
de continuidade né que tá todo mundo contribuindo é um pouco e aí dentro dessa contribuição eu tenho focado muito em relação a essa questão que eu coloquei sobre si dados diversificados realmente facilitam né facilitam a mitigação desses danos auditoria né para até para nos ajudar a pensar aqui auditorias em conjunto de dados eles hoje são feitos né Essas auditorias são feitas por serviços contratados parceiros das grandes das grandes corporações que tem a né que tem a maior o maior produto de dados então é que eu não preciso repetir e nem usar termos em inglês para
situações disso né nós sabemos que são tantas plataformas sociais como também as empresas que se colocam como empresas empresas não startups que se coloca como laboratórios de pesquisa laboratórios de inovação né que assim como se coloca por exemplo a própria Startup relação que que criou uma das Ferramentas mais debatidas do momento Então auditorias dentro desses espaços que tem né que que coletam massivamente os nossos dados as auditores auditorias são feitas por parceiros ou por uma equipe interna da empresa nessa nessas auditorias né nessas identificações que eles fazem não há uma documentação explicando como que foi
o processo né as regras utilizadas para iniciar o processo as regras utilizadas para trazer os resultados né Para os processos e nem mesmo os resultados então assim a garantia de que os dados realmente estão sendo diversificados Fica por conta do discurso né que é compartilhado com a gente então assim na figura de pesquisador agora Isso dificulta muito que a gente consiga pensar novos caminhos dentro da tecnologia porque aí você não tem um compartilhamento de um conhecimento importante para poder você conseguir avançar e sair desse essa desse desse ambiente de dor psíquica que esse ambiente de
dor psíquica eu tenho tenho situado em conversas com Maia Por exemplo essa essa dor psíquica que se centraliza no conhecimento liderado ou que foi compartilhado somente por pessoas brancas porque aí a gente entra num lugar de que não tem nada para ser melhorado ou não tem nada para fazer em relação as ferramentas de tecnologia e eu preciso defender a minha área né É porque eu acredito que a gente possa e tem como construir ferramentas que de fato não vou ferir a democracia e não vou prejudicar vidas de pessoas negras muito tem se tem se discutido
em relação a explicabilidade e eu queria fazer uma observação que que diante dos avanços das literaturas E aí a gente nós avançamos a literatura de computação não só para tentar para tentar para tentar fomentar o avanço científico de tecnologias mas também para fazer provocações internas na nossa área que a ideia de explicabilidade de você desenvolver algoritmos que sejam mais explicáveis né que tem uma documentação atrelada a ele que explique o processo e as regras utilizadas na tomada de decisão da codificação desse algoritmo ele permite que os especialistas e alguns usuários possam compreender um processo né
de tomar decisão mas ele não garante E aí é assim eu posso Você tá no final alguns autores que Tem trabalhado melhor com isso para a gente sair um pouco dessa dessas citações das mesmas pessoas aí que a gente fica gerando as mesmas as mesmas perguntas alguns autores já tem situado que isso não não vai resolver o problema como um todo não é só você explicar os algoritmos que nós vamos ter essa mitigação tá a explicabilidade é uma parte do processo e essa parte do processo precisa estar atrelado no início e não só no meio
do Meio para o final tá então tem por exemplo a Margarete Mitchell a time São duas mulheres admite uma mulher negra a Margareth uma mulher branca que estava trabalhando no Google e aí elas têm trabalhado publicado artigos mais recentes que nos situam do Real problema né E que a gente trabalha com essa ideia de medicação e alguns autores aí foi citado na minha Bio por exemplo que eu já passei agora para fazer o mestrado mas continua em parceria com CTS de tecnologia e sociedade da FGV direito do Rio né que é composto isso a maioria
por pessoas do direito que disputam bastante a transparência e responsabilização então eu tive e tem a oportunidade de fazer esse debate da Transparência e responsabilização a partir da escuta dos trabalhos de pesquisadores aí eu só citei um centro mas tem outros dentre outros que trabalham com trabalham com a ideia de como que nós podemos pensar os projetos de leis a partir de agora ou repensar as leis que já estão já estão implementadas no nosso na nossa sociedade de uma forma a fornecer informações mais claras de como esses algoritmos operam E aí por isso que eu
trouxe na linha de raciocínio sobre a explicabilidade e quais os critérios que eles utilizaram isso os critérios que é um dos pontos que tá sendo debatido agora para regulação o projeto de lei da regulação Daia e até pelo projeto de lei de regulação das plataformas os critérios eles nós vamos precisar ter muito muito cuidado porque os critérios estão atrelados ao modelo de negócio dessas empresas então assim existe no meio desse caminho a lei da propriedade intelectual né E aí será que nós vamos ter que repensar como foi formulada a lei de propriedade intestinal no Brasil
para a gente conseguir atravessar e Desfazer os nós em relação ao debate de transparência e responsabilização porque nós vamos precisar chegar na responsabilização e a responsabilização ela não pode só tá atrelada a uma mobilização nós precisamos realmente ter isso é pontuado nas leis que a gente conseguir ter acesso não só a como isso funciona a arquitetura do modelo mas principalmente ter acesso a uma um direito fundamental que nesse caso da sua experiência de responsabilização está muito atrelado a privacidade de nada correlacionando com isso o aprimoramento contínuo né que aí voltando aqui para para computação é
realmente existem os trabalhos Isso tá muito situado na pesquisa isso tem sido muito feito no Brasil tá eu acho que é importante sempre é colocar a seguinte observação quando nós estamos fazendo muito quando nós estamos muito envolvidos nesse debate nós cometemos alguns equívocos de colocar o Brasil como um país tá dentro de um contexto de que não tem nada sendo desenvolvido tudo está sendo copiado ou sendo utilizado e não é bem assim pesquisa né leva tempo dentro desse tempo de pesquisa e aí na computação são tempos de testes de validação nada é tão rápido quanto
parece quanto tá sendo vendido pelo marketing dessas grandes corporações Tá leva um tempo até para você conseguir pensar músicas ao conjunto de dados tem um tempo considerado aí de que nós esse tempo que é importante considerar ele pode dar impressão de que o Brasil não tá avançando no desenvolvimento de tecnologias que realmente fazem a diferença na nossa sociedade no mapa afetiva então tem pesquisas Tá eu vou citar Alguns alguns centros como os próprios centros de interesse artificial da USP o próprio centro da o centro de inteligência artificial na Unicamp o próprio centro de inovação e
que tá na UFRJ que tá na perto da galera de Engenharia e computação é o próprio o próprio centro situado na própria as próprias universidades federais no Ceará né que na verdade eu vou situar o a UFC e a UFMG cada uma dentro do seu do seu da sua área de domínio né tem contribuído para pesquisas de você monitorar o desempenho dos algoritmos e dessas tecnologias e propor o as melhorias tá só que isso é um processo totalmente diferente de um processo de você propor melhorias em ferramentas que já estão sendo utilizados na sociedade que
é o caso das Ferramentas de ações grandes corporações então os feedbacks são contínuos está acontecendo esse trabalho no Brasil tá ele não tá sendo feito de fora para dentro está acontecendo aqui só que é isso os investimentos principalmente os investimentos financeiros não só investimentos de recurso ainda não se compara aos investimentos dessas grandes corporações tem então aí parece que nós estamos realmente muito atrás mas a gente vai dizer que o que eu tenho visto dos meus colegas de trabalho é muito empenho o trabalho muito empenho mesmo na pesquisa para conseguir mostrar para a sociedade se
aprimoramento contínuo E aí eu trago como o último tópico né eu consegui citar gota dos 20 minutos mesmo é que me foi colocado novamente sobre a diversidade na equipe né Tem dados da pretalab que foi feito junto com dentro de um dos projetos que a preta Lab tem junto catótipo quem roda BR é uma pesquisa que mostrou a quantidade de mulheres negras que realmente são invisibilizadas dentro do desenvolvimento de processo de tecnologias também dentro de dados do gema né em relação a quantidade de pessoas negras que estão dentro da estão dentro das Universidades estudando e
tendo oportunidade de debater esse sistema dentro da ciências exatas esse problema tá posto não é um problema do mundo contemporâneo é um problema muito que vai muito além dos limites Que nós conhecemos né e é muito importante termos isso em mente das suas origens e perspectivas para que a gente não cometa equívoco de que se você conseguir melhorar esse processo agora que é algo emergencial tá melhorar isso agora por conta dos problemas extremamente agressivos que nós estamos que estão acontecendo que melhorar esse processo agora vai fazer com que todo o processo de invisibilização até então
seja esquecido e nós vamos começar daqui para frente é importante não abandonar o que foi colocado no passado principalmente em relação à diversidade na equipe porque nós estamos falando que de qual tipo de diversidade na equipe tá se for só para colocar homens negros para de debater racismo algoritmo para debater as ferramentas tecnológicas e tecnologia é não vai ser viável dizer não não é viável dizer que nós estamos realmente trabalhando com diversidade na equipe Se for para colocar só mulheres né Aí não fiz o recorte racial ainda também não vai ser possível a gente aferir
né afirmar que realmente você tá tendo uma diversidade na equipe se você for colocar só pessoas pcd não tem como ter essa essa afirmação a mesma coisa só assim existe ainda um debate estrutural do nossa sociedade de como nós entendemos diversidade né E aí eu vou ter que realmente da perspectiva que eu tenho hoje de experiência de vida falar enquanto enquanto mulher negra de que nós temos aí uma dívida muito antiga tá de conseguir visibilizar os processos e as criações os desenvolvimentos tecnológicos feitos por mulheres negras até até no nosso discurso e principalmente como nós
formulamos espaços como esses de conversa então eu gostaria de encerrar trazendo né Espero que tenha sido uma boa contribuição para a gente abrir os caminhos aí em relação a parte da Computação né que eu tentei não é aprofundar muito em termos muito técnicos e que não teria não teria como expressar isso só de forma moral sem mostrar o processo de raciocínio pensado até agora para vocês mas que principalmente nós tenhamos essa essa noção de que nós só vamos conseguir mitigar os danos tá porque eu trabalho com a ideia de mitigação mitigar os danos se nós
tivermos essa pluralidade de na discussão e essa pluralidade não só do que eu pontue aqui de gênero e Raça mas também principalmente a pluralidade diárias porque nós vamos precisar e ter um vamos precisar continuar fazendo essa reflexões que nós estamos fazendo nessas conversas e também seja na academia seja nas empresas que você trabalha seja nos coletivos seja no bar seja na um jantar com a sua família nós vamos continuar fazendo essas reflexões partindo cada um da sua perspectiva pessoal e individual de construção de conhecimento nós vamos ter desafios nesse nesse modelo individual que nós temos
de mundo principalmente os desafios de fazer com que tenham cruzamentos que resultem e caminhos abertos no final das contas obrigada Muitíssimo obrigado Nina minha irmã agradeço muito a contribuição agradecemos né E literalmente essa sua fala o final dela ou início melhor dizendo né traz para gente muitas perspectivas no âmbito coletivo né o enfrentamento as manifestações do racismo Montenegro brasileiro ela se faz na Perspectiva coletiva a partir das Encruzilhadas em que os nossos caminhos as nossas construções coletivas individuais e coletivizadas né se entrelaçam E aí sim a gente consegue construir outras ferramentas né para combater é
enfrentar essas violências e violações Obrigado minha irmã agora antes de passar a palavra para nossa próxima lista nós temos uma mensagem da secretária de gestão do Sistema Nacional de promoção da Igualdade racial e ele é Leal Olá eu sou Ieda Leal secretário Sistema Nacional da promoção da Igualdade racial Estamos aqui hoje para saudar todos todas e todos vocês mas enviar mais um webinário faz parte da nossa teia construir propósitos para que as pessoas possam saber Sempre Mais Hoje nós vamos discutir como racismo é perverso nos nossos meios de comunicação na verdade na internet no mundo
digital nós vamos ter pessoas nos ajudando a compreender que é necessário dominar as plataformas o mundo digital compreender e atacar o racismo que nos tira a grande possibilidade de vivermos em comunidade e termos os nossos direitos respeitados um especialistas para dizer para gente o quanto é importante a gente dominar o conhecimento parabéns parabéns para todos vocês que estão presentes nesta sala e que vão aprender um pouquinho mais assim nós vamos continuar colaborando para que o racismo de fato tem até de resistência e obrigado pela presença de Deus unir o Brasil agradece a presença de todos
Achei minha secretária Axé o ponto né e agora dando continuidade a esse movimento né insurgente Por libertação também tecnológica passamos para a apresentação Batista que é doutorando aí antropologia social pela Universidade Federal do Amazonas UFAM com período sanduíche na Universidade de São Paulo pesquisadora visitante do centro de Inteligência Artificial atuando no comitê de inclusão e diversidade Maiane a palavra é com você seja bem-vinda à nossa roda muito obrigada Luciano Obrigado enap pelo convite sempre muito importante né Essa essas rodas de conversa para a gente trocar conhecimento saber o que está sendo falado não só dentro
das Universidades nossos pesquisas Mas também de tantos problemas sociais que vem sendo abordado de forma mútua então para começar minha fala né Eu tinha separado aqui um pequeno texto né Para né Para dar em fazer aqui na fala então eu vou falar um pouco sobre visão computacional não muito técnico né Mas como que esses algoritmos podem nos ajudar né para representatividade e diversidade também então eu trabalho a visão computacional desde desde 2016 Hoje eu trabalho em duas vertentes né uma na computação né e outra na Perspectiva antropológica né na computação com as minhas colegas né
tanto a Nina que recentemente a gente tá fazendo trabalho juntas e a Ana também Ana kardenas que é da do é arte da USP e com o professor waldinei também acho da USP E aí a gente trabalha nessas duas vertentes né eu tanto na antropológica e computação mas a gente Analisa como esses métodos técnicos né ele se refere a compreender não somente o mundo visual mas como essas aplicações da visão computacional ela consiste em que máquina mas reconheça objetos né captura em movimento né são responsáveis também né pela vigilância né pelo reconhecimento de impressões digitais
ou biométricas por outro lado né de uma forma social né para pensar isso para além da técnica tem meus pensadores como né que estão à frente né eu digo que são as que vieram antes os que vieram antes Sandra Ávila Líbano que Claudia Medeiros então Fábio Cosmo argumentam que a diversidade e a inclusão ela pode existir também nos dados mas também elas precisam estar na equipe mas essa equipe precisa ter também um reconhecimento de se reconhecer como diverso não basta somente alguém dizer né a gente perceber a partir da perspectiva do outro que nós somos
diversos se a gente não se reconhece como diversidade Esse é um dos pontos né esse não é um dos pontos que é abordado nos artigos deles delas mas é um ponto que a gente vem trabalhando e observando isso em conjunto com o algoritmo então a gente trabalha né interação humano máquina mesmo então como antropóloga da Computação né e pesquisadora do comitê diversidade de inclusão né do seu Flyer aos indicativos de compreender como que essas máquinas são utilizadas né como que a visão computacional atua em corpos diversos como que ela se comunicam como que elas interagem
conosco e a gente com elas e eu sempre reitero um pensamento de que raça ela não tá desvinculada de gênero e nós tá desvinculada de e tão pouco de nacionalidades né Isso é um termo né que socialmente se denomina interseccionalidades então Há esses cruzamentos que são justapos né então a todo tempo a essa movimentação essa Constância uma pessoa ela não é individualizada né mas ela é um coletivo individual e posteriormente eu vou falar sobre isso que os algoritmos também atuam da mesma forma né nesse nesse coletivo individuado individual no sentido de não ser um só
um sujeito mas individual de ver que é um Uno mas é um coletivo um pouco mais abrangente né e eu digo isso porque compreender as dinâmicas né os funcionamentos né de um algoritmo né de uma visão computacional ele vai e não tem muito a ver com a linguagem computacional mas ele tem a ver como essas redes neurais comvolutivas né que um termo muito técnico né abaixo de divisão computacional como é que elas pensam como é que essas técnicas estão em brincadas com o social como que elas refletem o Humano na saída porque né Nós estamos
em todas as em todo o processo da algoritização tanto na entrada quanto na saída e enquanto esses algoritmos trabalham também por isso que é importante compreender como é que esses algoritmos funcionam ao invés de somente observar a saída por exemplo é porque quando a gente observa sua saída a gente tende a criticar muito mais mas é importante compreender o funcionamento né a entrada o funcionamento e a saída também Então essa saídas né que são os dados como que eles refletem eles são rotulados e muitas vezes em uma discussão com outros colegas na academia o viés
está no olhar do próprio observador do próprio pesquisador da própria desenvolvedor de quem tá de quem tá ali trabalhando com esse algoritmo Mas é isso a gente acaba caindo em uma terminologia que é o racismo algoritmo mas a gente utilizar essa terminologia é também retirar o humano da equação porque tem de ser colocar o racismo no algoritmo e não somente em quem tá trabalhando neles ou como eles funcionam ou nas saídas né sendo que esse processo é contínuo é todo tempo é um faz fazer né é um termo que é um Pensador ele fala sobre
isso você faz fazer ele tá todo tempo todo instante então pensando mais além sobre esses dispositivos recentemente nós estávamos lendo sobre o dispositivo de racionalidade né da Sueli carneiro e esse é um conceito que eu acabei trazendo também para pensar os algoritmos é um pouco mais complicado porque ela pensa numa visão cotiana né E a questão de poder e obviamente algoritmos também estão relacionados a muitas compreensões de poder não somente um poder mas um poder capilarizado né que está em todo todos os locais todo tempo então como é que esses dispositivos tendem a funcionar por
dados né por pessoas né Essas máquinas tangíveis e esse E como que eles performatizam né como que eles agem e por isso é importante compreender as dinâmicas né Desse funcionamento e como a linguagem humana ela está relacionada né em uma determinada língua então no caso dos algoritmos seria muito mais pensar e não caçar um problema social do algoritmo mas como ajudá-lo a repensar repensar de forma a educar o algoritmo acho que seria isso né não tô querendo antropomorizar o algoritmo mas como é que a gente pode educar como que a gente pode modificar né e
não só criticar porque eu acho que eu penso que fazer uma crítica né a gente também tá criticando as pessoas que desenvolvem e muitas vezes as pessoas que são desenvolvedoras são nossos colegas né na pesquisa de campo que eu fui fazendo antes de fazer uma pesquisa de campo para mim era muito mais fácil criticar as pessoas desenvolvedores depois de uma pesquisa de campo né eu vi que colegas como Nina da hora com a como Ana como professor Rodney como que a gente critica essas pessoas as pessoas desenvolvedoras se são próximas a mim vocês são meus
colegas tentar compreender como que há esse pensamento e como que nós né pessoas do Social das também podemos ajudá-los a repensar Porque de fato um pensamento técnico mas quando a gente coloca e há uma terminologia também que é muito mais utilizada que é sociotécnica né que é o social e o técnico junto e eu diria que vai pode ir além porque não antropotécnica né a gente coloca essa antropologia né humano e a técnica juntos né para repensar né Essas máquinas essas formas muito técnicas de dar resultados então o método de análise né desses algoritmos que
eu tenho feito desde 2016 é observar né como que eles são feito como que eles agem quem são as pessoas que estão por trás como como esse pensamento computacional né ele ele é colocado então assim há uma uma relação de mútua influência né ai essa mutuação a todo tempo então nesses bastidores eu chamo também para pensar o viveiro de Castro ele tem um texto que é chamado as três inteligências um texto curtíssimo né duas laudas mas que nos traz um desafio de pensar como que a inteligência que ele chama de três inteligências que são categorizadas
ele pensa como o natural artificial cultural natural e artificial Então como como aquelas analisam entre si não é como que essas três inteligências né humana a cultura né e a social também que tá dentro da cultura e o artificial que a inteligência artificial né que há muitas categorias aí eu não vou entrar nessa Enseada né extremamente técnica mas assim vamos falar de uma inteligência artificial nessa redoma tudo né então nessa análise ir numa análise né do algoritmo de Pife Face especificamente porque a divisão computacional eu tenho como esse coletivo individual né que para a gente
pensar nessas soluções além dessas limitações técnicas mas também pensando nas matérias-primas que para a gente são os dados Será que dados diversificados seriam suficiente para que a máquina seja educada né a pensar de modo diverso Será que seria somente a equipe uma equipe diversa para repensar para reeducar esses algoritmos a forma como eles estão pensando a forma como tá saindo e a forma como está impactando também socialmente isso seria o suficiente né então São perguntas são hipóteses que estão sendo colocadas à tona a todo instante né Não só na academia mas também fora da academia
né academia que eu falo né é a universidade mesmo então a gente está todo tempo buscando formas a Nina falou sobre mitigar né A gente trabalha também com essa hipótese de mitigar os viés Mas também de como a gente pode especular né esse Impacto social pensar antes daquilo que já aconteceu né E aí tem toda uma uma forma da gente pensar a partir dos nossos corpos né no contexto que a gente vive de quem a gente é pensar com diversos nós somos a medida que nós estamos trabalhando com a parte técnica né com a computação
com os algoritmos com a inteligência artificial e até mesmo com robôs sociais Então essas interações humanas algoritmos se sobrepondo todo o tempo ele pode resultar ou não em uma nova base de dados base de dados artificiais ou não e pode também ser considerada como uma variável com catedápio né aquilo que tá todo tempo em brincado mas que também gera conflitos mas que também culminam uma resposta que tenha como determinado uma resposta como um animismo algoritmo né que o algoritmo ele também reclama para a gente quando a gente erra um uma sentença ou alguma coisa do
gênero e como é que ele se manifesta a gente se manifesta com ele né Isso vai além de repensar somente com resultado somente que aquilo funcione mas pensar juntos né pensar não somente a equipe pensar como algoritmo e pensar a resposta que ele isso é todo tempo né é essa Constância é isso que eu penso que isso também pode fazer com que aja outras formas de pensar nessas máquinas futuramente ou hoje também então essa disputa todo tempo por essa liderança ontológica né ontológica é um termo também bastante utilizado na antropologia né em que certa medida
né esse resultado determina algo socialmente mas também determina algo ou ajuda a pensar né nas equipes e como esses algoritmos tem sido feito então finalizando a análise de algoritmos consiste não só em observar porque ainda são construídos como essa saída são feitas como ele tem sido feito como nós analisamos como quais corpos analisam esses algoritmos quais corpos analisam esses dados Então tudo isso vem de um contexto mas é como eu tinha falado no começo uma equipe diversa ela é apontada pela alteridade né pelo outro aquele que diz que eu sou diverso mas eu me reconheço
como diverso esse problema que esse esse banco de dados ele é diversos suficientes ele tá me representando ele tá representando o meu colega o meu colega se sente representado por esses dados Será que a resposta desses algoritmos pode afetar pessoas socialmente Então são todas essas respostas e perguntas e questionamentos que a gente faz todo tempo mas a gente não faz né sozinho a gente não faz sozinha a gente faz realmente nesse nesse coletivo né um coletivo de pensar de especular de colocar hipóteses e por isso antropotécnica né que vai além das sociotécnica ela não consegue
uma inteligência artificial separada da humanidade e tão pouco coloca transfere esse essa terminologia né racista para o algoritmo mas coloca junto Porque de algum modo de reflete a gente né ele reflete os nossos preconceitos reflete os nossos fiéis reflete aquilo como a gente vai sendo construído como a gente vai se enxergando então não podem ser coisas separadas mas são coisas que estão todo tempo nesse cruzando interseccionou intersexia no intersexualidade é isso é uma palavra tão difícil E aí quando a gente vai colocar um além então assim como a gente não reconhece a humanidade né separada
daí a que há essa dicotomia aí há também não pode se pensar né caso venha pensar separada da humanidade Então essa justaposição todo tempo e eu finalizo aqui minha fala eu acho que eu falei além do que eu deveria falar mas é sempre importante pensar nesse conjunto né a diversidade ela não ela não está desvinculada disso e é isso muito obrigado Muitíssimo obrigado Maiane acho que você chamou atenção para algumas coisas muito muito importantes que a gente não pode esquecer né Sempre ficarmos vigilantes na minha palavra mas enfim né termos um pouquinho de atenção exatamente
por essa formatação né que é essa manifestação do racismo se dá ou seja a algoritização do racismo e dos racismo né aí já pensando a partir da Encruzilhada da sexualidade que vai nos colocar muitos outros desafios né para um enfrentamento e a mitigação né dos danos causados tá então muito isso obrigado Mais uma vez né e agora pensando aqui para chamar né a nosso próximo nosso próximo palestrante Eu Fico muito honrado muito feliz em compartilhar novamente né o espaço a roda e as escrevivências né como meu querido irmão Pablo Nunes né com quem já dividimos
aí né nossas experiências relacionadas a reconhecimento pessoal reconhecimento facial reconhecimento a partir né da aplicação da tecnologia né em termos de Segurança Pública quando CNJ Conselho Nacional de Justiça formou né construir um grupo e um grupo que a gente pode dizer com certa certo medo de errar né um grupo de excelência de intelectuais negros intelectuais negras não é para além do campo de direito obviamente para pensar como isso né se reflete no nosso cotidiano como isso fundamenta na hipotencializa o encarceramento da massa negra que nos faz hoje né o Brasil a segunda maior população a
terceira manipulação em situação de Cáceres do mundo né então pensar em termos de Segurança Pública para mim enquanto a advogado abolicionista quilombista né E desde essa criminologia afrodespórica é fundamental Não apenas enquanto intelectual mas enquanto o homem negro porque eu posso falar isso lá em outra oportunidade né e repito aqui eu posso ser confundido pela pela branquitude e porque impactua com seus contratos como um bandido como um criminoso né historicamente construído racialmente construído assim em qualquer lugar a gente de Segurança Pública por uma foto 3x4 preto e branca tirada em 1800 bolinhas né então são
todos esses riscos e riscos concretos né em que nós estamos implicados né então eu chamo aqui para nossa roda né Pablo Nunes coordenador do Centro de Estudos de segurança e cidadania CESEC Dr em Ciência Política da Universidade do Estado do Rio de Janeiro UERJ coordena pesquisas sobre políticas públicas de segurança né em vários em vários âmbitos né com várias com vários caminhos aí concorridos né indicadores de criminalidade vigilância e novas tecnologias que se fazem né meu querido irmão a palavra toda sua Muito obrigado Luciano já vou aproveitar para agradecer a morava o convite que você
me fez para estar aqui hoje debatendo né sobre esse tema que é um tema tão importante então necessário né que a gente possa continuar debatendo e aprofundando os nossos entendimentos né acerca dos efeitos dos dessas tecnologias no Brasil principalmente do ponto de vista da profundamento do racismo né em suas diferentes dimensões então agradecer demais Luciano e também na sua figura agradecer ao Ministério da Igualdade racial pelo amorável convite de estar aqui hoje né editar que hoje né colaborando e dividindo esse painel com figuras que são amigas e são grandes inspirações grandes 23 e grandes é
Fontes minhas para entender compreender e sempre né avançar na no entendimento dos efeitos dessas tecnologias e também né sobre formas pelas quais nós podemos construir estratégias e técnicas resistência a adoção dessas tecnologias então a dizer que tô muito grato de tá dividindo aqui hoje o painel com a Nina mais uma vez que é uma amiga de longa data e com quem eu tenho debatido bastante esse tema o Tarcísio também que é um grande querida amigo muito importante também com seus estudos sobre algoritmo e a Maiane que eu ainda não conheço mas já adorei pela sua
exposição e toda abordagem né que ela apresentou aqui para nós então do ponto de vista do que já foi tratado e também me atendo né ao meu amigo expertise o meu campo de atuação né mas e que eu tenho mais anos de dedicação Eu hoje vou falar dividir com vocês um pouco sobre um tipo né de algoritmo que a gente tem né visto sendo utilizado aqui no Brasil especificamente na segurança pública né então tem um recorte aí que é um recorte importante de ser pontuado E que mesmo que seja um recorte que é limitado né
em sobrangência né sabemos que algoritmos são muitos muito diversos e tem diferentes finalidades mas me parece que entender e cada vez mais me parece isso que entender adoção desses algoritmos reconhecimento facial na segurança pública na qual tem seu desenvolvido esses projetos no Brasil ilumina bastante né os perigos e os potenciais de violação que Essas tecnologias podem ter quando né utilizadas para a persecução penal então eu participo né como Luciano já adiantou do Centro de Estudos de segurança e Silvia Ramos e a dentro desse centro a uma pesquisa que a gente toca que é o panóptico
que monitora né adoção de novas tecnologias na segurança pública do Brasil tem sido muito trabalho para poucas mãos mas a gente tem aos poucos conseguido né produzir algumas peças que nos ajudam a pensar um pouco sobre esse processo a primeira coisa né gente celebrizou no uso de reconhecimento facial é exatamente na prisão né a gente toma conhecimento dessas tecnologias você usa acelerado aqui no Brasil a partir de uma prisão efetuada no carnaval de Salvador no ano de 2019 né após essa essa prisão que foi muito né divulgada na imprensa ficou muito marcado né como início
dos projetos de reconhecimento facial e se aprofundamento pelo país a gente conseguiu lá em 2019 né Muito atentos a essa a essa nova né utilização de tecnologias na segurança pública a gente começou a catalogar de maneira muito intuitiva os casos que iam aparecer na imprensa aparecendo nos blogs de polícia nas contas oficiais das polícias da secretaria pública nos nas redes sociais é esses casos de prisão Principalmente nos casos que a gente conseguia individualizar né a pessoa né em 2019 a gente tinha muita facilidade de encontrar dados por exemplo como o nome da pessoa a idade
dela fotos né da pessoa em que a gente conseguiu a partir delas fazer uma hetero identificação método classificação né racial para que a gente pudesse determinar a raça das pessoas presas e também outras marcadores de gênero e de local de moradia dessas pessoas presas então lá em 2019 a gente conseguiu catalogar sempre 84 prisões com os reconhecimento facial sendo que apenas nessas né a gente conseguir encontrar 90% né de pessoas negras entre essas pessoas presas né vezes por crime sem violência em sua maioria tráfico de pequenas quantidades de drogas inclusive né estamos hoje né assistindo
o julgamento do STF sobre a adequação da lei de drogas principalmente para definir de maneira um pouco mais exata quem é usuário e quem é traficante por conta né da quantidade de droga né aprendido principalmente maconha Mas enfim e outros crimes sem violência como Furtos né então a gente conseguiu ter um pouco mais de informação em 2019 Mas a partir daí a partir também inclusive da nossa relatório a gente viu que a gente teve cada vez mais dificuldade de encontrar essas informações através dessa metodologia a gente conseguiu depois expandindo um pouco essa linha do tempo
a gente conseguiu a catalogar 509 pessoas presas de reconhecimento facial até 2022 mas sobre essas pessoas a gente um pouco informação porque hoje né Os relatos são muito menos qualificados em termos dos marcadores socioeconômicos e demográficos das pessoas presas nos estados brasileiros a presença de reconhecimento facial já é uma unanimidade todos os estados brasileiros já utilizaram reconhecimento facial na segurança pública ou ainda utilizam esse tipo de tecnologia é para suas polícias e o que a gente conseguiu monitorar até hoje foram 195 projetos né esses projetos são apenas os projetos que utilizam reconhecimento facial para segurança
pública né a gente sabe que tem uma série de outros projetos por exemplo de utilização de reconhecimento facial em escolas né que estão fora né Desse nosso monitoramento mas aí já vemos né o quanto que essa tecnologia está espalhada pelo Brasil e uma abrangência é significativa em praticamente todas as regiões mas a gente tem algumas né sobre representações em relação aos Estados né que utiliza essa tecnologia e a gente tem o campeão né de projetos sendo Goiás a gente ficou impressionado né com essa com esse fato trazido a partir do nosso monitoramento que foi feito
também por imprensa mas também através de pedido de lei de acesso à informação e que mostrou Exatamente Essa sobre a representação de câmeras instaladas lá em Goiás e aí depois eu falo um pouquinho sobre o que que a gente encontrou a partir dessa primeira pista mas aí eu queria falar sobre alguns aspectos né do uso de reconhecimento facial fugindo um pouco do tema estritamente da tecnologia e pensando mais como Essas tecnologias têm sido utilizadas pelas polícias e quais os efeitos né e os gestores públicos e quais os efeitos né que a população tem a verificado
a partir da utilização dessas tecnologias uma primeira questão é uma questão importante que é exatamente a questão da Transparência Essas tecnologias a gente sabe né que o poder público é muito reativo a transparência sempre uma dificuldade fazer com que a lei de acesso à informação seja cumprida no seu prazo com a resposta de qualidade e a resposta às assertivas ao que foi solicitado existe aí diversas organizações que fazem né o momento desse processo de Transparência pública e principalmente né focando nos desafios e nos gargalos e um né do uma das áreas que é mais profícua
em termos de gargalos relacionados a transparência é segurança pública e isso não é novidade é para quem estuda a essa área já há muito tempo né as polícias tendem principalmente né Por sua formação e por não terem desvinculado né a sua estrutura normativa do que era a determinado na ditadura militar né as polícias foram né herdamos né o arcabouço institucional que regula as polícias da ditadura militar e ditadura e transparência nunca combinaram né E essa essa forma né de atuação ela e continua né perseguindo e sendo algo a influente e algo a frequente né na
atuação da do gestor públicos da Segurança Pública então quando a gente pensa né em reconhecimento facial em novas tecnologias a gente sempre e principalmente Essas tecnologias que estão sendo testadas no Brasil e que já no contexto Nacional né já demonstraram graves problemas graves violações graves riscos a segurança do cidadãos a gente esperaria né que o poder público conduzir se adoção e o teste dessas tecnologias com a maior transparência possível para que a gente pudesse enquanto cidadãos fazer o controle e a contability da adoção dessas tecnologias não é porque tem acontecido Esse é um relatório que
eu sempre gosto de trazer porque o relatório produzido por uma associação internacional de chefes de ou seja policiais né fazendo um relatório em que tem quatro recomendações básicas né que a polícias que usam reconhecimento facial tem que informar o público que essas câmeras estão sendo utilizadas que tem que também estabelecer parâmetros de uso ou seja como usar quem vai usar é por quanto tempo essas imagens vão ficar salvas quem pode ter acesso enfim publicizar sua efetividade ou seja tá sendo efetivo Qual é o grau de acerto dessas tecnologias e o quanto né que tem sido
gasto para realizar Exatamente Essa efetividade e criar princípios e políticas de boas práticas para essa tecnologia o que a gente viu com um relatório produzido pelo lapim que é uma organização voltada para estudar o tema dos direitos digitais é que os programas né ligados à secretaria de pública brasileiros aqui a gente tem alguns casos não todos né mas já mostram um pouco do cenário né da falta de importância de desses quatro recomendações dentro da execução desses projetos piloto e quando né a gente chama né o poder público né e a secretaria Segurança Pública para a
discutir sobre dados e pensar sobre formas né de produzir essa transparência para que a gente possa entender exatamente como Essas tecnologias têm sido utilizadas e quais os efeitos em termos de prisão porque a gente sabe que são muito o número de prisões com os diversos tecnologias é muito maior do que o que nós panóptico conseguimos monitorar o poder público é sempre deletante é sempre reativo né a construir esses dados E aí uma nota pessoal na semana passada eu Visitei o centro de operações inteligência da Secretaria de Segurança Pública da Bahia que é um centro de
operações maior né que temos aqui no Brasil e onde né é operado boa parte né A maioria das câmeras de reconhecimento facial lá na região metropolitana de Salvador e algo que foi falado para gente pelos pela policial que tava fazendo a visita conosco era de que alguns casos eram às vezes tidos como sucesso mesmo quando o algoritmo a reconhecia erroneamente a pessoa então vamos lá ela contou um caso de gêmeos vamos chamar de gêmeos B em que o gêmeo a tinha mandado de prisão em aberto e foi reconhecido pelas câmeras de reconhecimento facial é durante
né a monitoramento Numa estação de metrô e ao fazer abordagem usar a pessoa para averiguação descobriu-se que era o gêmeo B que estava que foi né é capturado pela pela tecnologia E aí o que aconteceu foi que o gêmeo B também tinha algumas acusações contra ele mas não estava ainda é comandado de prisão expedido né e incluído no Banco Nacional de mandado de prisão mas Ele foi detido foi levado à justiça e a Secretaria de Segurança Pública adotou esse caso como um caso de Positivo né Ou seja que o algoritmo foi efetivo na identificação da
pessoa então já chama atenção né o quanto que há uma falta de preocupação exatamente de produzir né esses dados de maneira objetiva e de maneira digna né ao que a gente precisa né para controle social dessas tecnologias Goiás foi esse caso que a gente conseguiu monitorar e foi uma pista né dada por pelo monitoramento do panóptico fez a venda exatamente essa grande ponto quente de projeto de reconhecimento facial por lá a partir de uma uma parceria que fizemos com a coden rights que é uma outra organização que se dedica ao tema dos direitos digitais e
o intercept Brasil nós conseguimos encontrar e contar um pouco melhor essa história sobre Goiás né O que a gente descobriu é que ali a houve né a atuação de um delegado né que era deputado federal para exatamente a promoção de adoção de reconhecimento facial por meio de emendas parlamentares né a gente teve em 2019 uma portaria expedida pelo então é ministro Sérgio moro né Ministro da Justiça pública na época em que destinava parte do Fundo Nacional de Segurança Pública para adoção de câmera de reconhecimento facial e o delegado Valdir muito companheiro do Ministro dos ministros
Sérgio moro conseguiu fazer grandes aportes de recursos para adoção de câmeras de reconhecimento facial lá em Goiás e aqui a gente viu era que algumas cidades não tinham registro de crimes violentos por cinco anos tinha população de três cinco mil habitantes e tinha problemas como falta de asfaltamento e serviços de saneamento básico né mostrando exatamente que aí uma certa falta né de prioridade na locação de recursos públicos essa é uma série né de quatro matérias que nós publicamos por meio dessa parceria né e a segunda foi exatamente sobre a entrada né da Clear que é
uma empresa de reconhecimento facial que é muito conhecido internacionalmente e que tem feito né testes com setores né da secretarias segurança pública e algumas polícias e também ministério público para adoção dessas tecnologias o que fica ela ficou conhecida né por fazer a raspagem de fotografias de cada um de nós que estão disponíveis publicamente nas redes sociais e a construção desse grande banco de dados com informações minhas informações suas e de muitas pessoas né nesse grande banco de dados a gente acabou também de lançar essa matéria sobre o caso da Bahia Bahia agora tem avançado no
reconhecimento facial para o interior do Estado e o que a gente revelou é que a os mais de 600 milhões que foram investidos até hoje em reconhecimento facial resultaram em mil a prisões né inclusive quando eu estava lá na secretaria de segurança pública na semana passada ou o Counter que eles têm o contador de prisões passou para mim 18 mostrando exatamente que é a um número muito grande né um valor muito alto para essas prisões e a gente nesse caso né nem precisa entrar né no tema que é o tema importante né dessa disputa entre
se vale a pena se é importante investir em prisões ou não do ponto de vista do plano e do projeto deles nem mesmo nesse nesse caso esse investimento se justifica e por fim a gente publicou agora recentemente também há uma reportagem falando sobre o consórcio de smart samba mostrando que a relação entre empresas né E poder público também na adoção dessa tecnologia de reconhecimento facial tem sido muito Nebulosa né uma um consórcio né formado por empresas investigados por corrupção foi aqui ganhou né o edital da Smart Sampa e a gente viu diversas outras atuações muito
suspeitas de empresas em outros lugares no Brasil sendo elas né as implementadoras de reconhecimento facial nesses espaços Por fim eu só queria reforça que Essas tecnologias né Elas têm também aprofundado né questões que são muito relevantes e muito urgentes né para que a gente pense em termos né da de direcionar nossos falsos para construção de uma sociedade mais justa igualitária racialmente né a gente tem o efeito prático e mais esperado do reconhecimento facial que é não encarceramento em massa né a gente viu exatamente uma profundamento do perfil daqueles que foram presos com os de reconhecimento
facial sendo focado em jovens negros e presos por crimes sem violência esses crimes né Principalmente por lei de drogas que tem a sido um grande instrumento de um inchaço né da nossa população carcerária e também né uma um combustível para a construção de organizações criminosas mas angústias né em mais poderosas no sentido de que esses espaços são espaços de fortalecimento né dessas organizações criminosas mas também é bom que a gente chame atenção para dois movimentos um né o fato de que esse dinheiro que poderia estar sendo utilizado para adoção de saneamento básico em cidades que
não no possuem é tem sido utilizados para a câmera de reconhecimento facial né tecnologia cara e enviesada e racista né mostrando também que um dos impactos é dessa da adoção dessa tecnologia né e dessa priorização dos gestores públicos para adoção dessas tecnologias uma vez que a gente continua negando a populações principalmente populações mais pobres e também negras o acesso básico de qualidade e também a outros serviços públicos como a saúde né nós mostramos que o dinheiro com o uso de reconhecimento facial na Bahia poderia custear um hospital por 32 anos né então esse defeitos são
importantes esses efeitos ficam para além do uso da tecnologia para além das câmeras para além da Segurança Pública ele se somam né a todo esse Balaio de violações e de efeitos deletérios que Essas tecnologias né se incluem uma grande engrenagem que a gente tem visto nos últimos anos sendo construída no Brasil então é isso eu passei um pouco do meu tempo gostaria de agradecer e me colocar disposição para perguntas e conversas assim obrigado Muitíssimo obrigado meu irmão por não é contribuir de forma tão brilhante quando costumeira né Essa essa roda e trazer para gente todas
essas problematizações né que o cruzamento entre Segurança Pública Avenida como pública né e vida enquanto direito é fundamental condicionalmente garantido para nós não se encontram né Muito pelo contrário eles são opostos né Essa segurança vendida né em termos tecnológicos sobretudo privilegiando né o aparato tecnológico a pavimento pavimentação de rugas enfim né questões básicas né privilegiam na verdade a nossa morte né o nosso encarceramento né então há uma escolha é Clara literalmente pensando de controle dominação né nessa escolha o que é importante o que é fundamental né em termos dessa segurança né que não se faz
para gente né e pela gente né novamente Muito obrigado e agora passo a palavra né meu querido irmão é aqui no meu caso tá gente abriu né literalmente os caminhos abriu meus olhos né para já há algum tempo através dos seus textos e não apenas na desumanização da tecnologia em termos né de aplicativos no celular né como como racismo se manifesta né afinando nossos narizes né aos nossos rostos nossas bocas enfim mas também na sua aplicação nessa nessa modernidade em relação ao automóveis enfim E tantas outras manifestações que estão diretamente colocadas né no nosso cotidiano
e nas nossas mãos literalmente os Nossos celulares né a gente né muitas muitas pessoas não conseguem viver sem nos dão conta né dos riscos da segurança né dos dados enfim toda essa preocupação e que nós normalmente não temos né então agora ouviremos aqui a exposição que é atualmente senhor tequila da fundação Mozilla né produzindo pesquisa e incidência sobre a transparência responsabilidade e anti-racismo na Inteligência Artificial é criador do projeto desvelar.org colaborador na tecla e sistema assumaúna mestre em comunicação pela Universidade Federal da Bahia e doutorando em ciências humanas e sociais autor do livro racismo algoritmo
Inteligência Artificial e discriminação nas redes digitais né liter a rua em 2020 Meu querido irmão Muitíssimo obrigado por sua participação e a palavra toda seu Muito obrigado pela sua Luciano bom dia a todos e todos é tô muito feliz aqui de poder né participar desse webinário né junto a colegas e referências né E essa mediação Luciano Góes que também é uma das referências em construção queria agradecer ao enap né e ao Ministério da Igualdade racial ou construir essa esse espaço e aí só para confirmar o meu slide já tá aparecendo eu subir aqui embaixo eu
não sei se tá ativo Muito obrigado pessoal então é um prazer é Um Desafio de um lado né mas acaba sendo um trabalho fácil digamos assim né fazer uma exposição ao final de tantas exposições relevantes e multidisciplinares sobre o tema então eu pude trazer aqui né uma funilamento de uma questão muito específica né sobre o debate legislativo né sobre inteligência artificial discriminação algoritmica e afins antes de começar eu só queria saudar né e reverenciar todas todos e todos que abriram caminhos para nós né nossas mais velhas mais velhos ancestrais nossas colegas que estão abrindo e
pavimentando o caminho para a gente ocupar esses espaços Então hoje eu queria saudar também duas mulheres que tem produzido muito nesse campo né a promotora pública Lívia Santana de Vaz que tem produzido sobre essa temática também e que é uma das muitas mulheres negras do direito juristas que tentam ter conhecimento né jurídico e político que podem e espero que vão né ocupar algum espaço no STF em breve e nesse campo de Inteligência Artificial racismo algoritmo ela é uma das juristas que tem muito a fazer para nos proteger né enquanto sociedade e a segunda pessoa que
eu queria saudar é a pesquisadora Tiana Neves também não referência no campo do racismo algoritmo que da perspectiva né de inclusões digitais e perspectivas Amazonas e tecnologias digitais que ela organizou para reverenciar nossas mais velhas e mais velhos né são textos sobre tecnologia referência Beatriz Nascimento e outras e eu tive enorme prazer de ser o produtor desse livro de apoiar Neves nessa nessa jornada Então eu queria falar que hoje nesse tempinho privilegiado né de um debate bem específico somando né com as colegas e os colegas sobre relatório de impacto algoritmo atualmente o Brasil e outros
países ou regiões como por exemplo a união europeia né ou o que chama ali de soute na África né que geralmente são quatro cinco países está a parte sul da África que tem um diálogo legislativo e normativo muito conectado né como por exemplo na mídia África do Sul e outras tem discutido alguns mecanismos de como realizar essa medicação dos danos impactos de sistemas algoritmos No Brasil temos alguns projetos de lentes de lei que não tem quase nenhuma validade normativa de enforcemente e Que infelizmente são preferidas por parte do setor privado que não querem ser regulados
mas temos também alguns avanços um desses avanços como avanços paradoxal foi o processo que culminou no projeto de lei 2338 que foi desenvolvido por um grupo de juristas no ano passado numa comissão do Senado e como habitual no Brasil infelizmente né em alguns espaços de poder foi uma representação da supremacia Branca nenhuma pessoa negra foi inclusa nesses 18 nesse livro de 18 juristas né que desenvolveu esse relatório e essa nova proposição da história de lei que se transformou no pl2338 Mas apesar disso né alguns ativistas pesquisadores inclusive que estão aqui no nessa mesa né realizaram
tá aqui mais pessoas fossem vidas e participaram em audiências públicas né para oferecer insumos a esse novo projeto de lei provavelmente através de lei vai ser avaliado agora com a nova comissão não temos pelos próximos meses e talvez anos oportunidade de pressionar nossos formuladores né legislativos a otimizar alguns mecanismos Então queria falar aqui do mecanismo de relatório de impacto algoritmo que é uma tendência em torno do mundo e provavelmente vai ser um mecanismo incluso né na nossa no nosso ordenamento Legislativo mas para efetivamente né Tem uma validade antes de exterminatória a um caminho longo a
ser percorrido então trago aqui algumas considerações que vão estar somadas inclusive num relatório que vai ser publicado Provavelmente em setembro sobre esse tema Então antes de chegar mais recomendações em si a que eu já um pouco no molhado né Depois das apresentações das colegas é importante reconhecer infelizmente né a capacidade de ser mais algoritmos de gerar intensificar ou invisibilizar dificuldade nessas mitigação dificultando o seu combate é danos e discriminação ligadas a direitos humanos e outros tipos de recursos que circulam na sociedade nessa nessa tela né eu tenho aí um print screen de um projeto que
a gente mantém no desvela.org que é um mapeamento de casos de discriminação algorífica que são que é mapeamento relevante que tá sempre lembrarmos né seja na mídia na pesquisa nos debates relacionados auditoria nas salas de desenvolvimento nas salas de controle né como o Pablo mencionou que esses danos existem já foram registrados e temos conhecimento acumulado para entender o racismo algoritmo e outros tipos de danos de sistemas algoritmos esse meu mapeamento tem mais de 120 casos mas a mapeamento de organizações maiores internacionais né como Mozilla que possuem mais de 800 casos então é importante relembrar isso
aqui em consonância né com que as colegas da mesa mencionaram nós temos conhecimento acumulado sobre isso né internacionalmente então não podemos certa forma aceitar argumentos infelizmente de alguns atores que negam as políticas das tecnologias ou os aspectos sociotécnicos ou anti-técnico como a Miami bem pontuou que efetivamente existem e não é na Inteligência Artificial que a gente descobriu isso a longos históricos de estudos sobre diferentes tecnologias positivos boa parte deles liderados né por pesquisadores vinculadas ao feminismo negro por exemplo que já demonstraram como as tecnologias podem incorporar políticas podem incorporar padrões sociais que infelizmente né boa
parte do mundo são padrões vinculados ao racismo Então nesse Panorama a uma grande bibliografia não só acadêmica mas da sociedade civil do campo técnico que identifica diferentes tipos de danos e aí eu poderia citar cinco categorias de danos né o primeiro que geralmente é mais discutido porque a defesa da ideia de consumo costuma ser mais aceita né Por causa do mercado por causa do neoliberalismo é a ideia de danos alocativos ou econômicos então especificação algorítmica discriminação na relacionada a score de crédito por exemplo estaria nessa categoria uma segunda que às vezes fica um pouco mais
visível devido a visualidade de Fato né quando a gente pensa mecanismos de busca filtros em mídias sociais e assim são danos a identidade E autodeterminação então quando o mecanismo de busca representa de uma forma extremamente negativa grupos específicos poderíamos falar dessa categoria temos os danos epistêmicos que são danos ligados a ao conhecimento né então como sistemas algoritmos infelizmente infelizmente podem aprofundar desinformação podem aprofundar representações negativas tanto política quanto factuais erroneamente factuais né sobre o mundo então quando a gente pensa o chat GPT e como o texto gerado que é um texto muito credível e compreensível
parece ser real mas está cheio de informações erradas ou enviesadas politicamente o gênero é um exemplo destêmico temos os danos ambientais e a saúde pública pensando da saúde do humano até damos ambientais no sentido do que é necessário em termos de minerais de resfriamento de emissão de carbono poluição para gerar modelo de Inteligência Artificial e os danos políticos que muitas vezes são esquecidos porque vitimam sobretudo minorias políticas né como nós enquanto pessoa negras e devem ser lembrados esses dados nessa políticos vão né de implementações relacionadas né a biometria né vigilância biométrica como colega Pablo mencionou
até filtragem de pacientes por exemplo onde alguns grupos minoritários são mais vulnerabilizados então há uma grande percepção estudo sobre os diferentes tipos de danos esses anos podem estar ligados a outras questões né E aí eu vou fazer uma rápida de direção aqui que eu acabei reproduzindo né uma prática negativa que eu acabei esquecendo né da minha áudio da inscrição então também ó de descrever né Eu sou um homem negro de cabelo 4B utiliza o óculos estou utilizando hoje um terno azul né camisa branca e atrás eu tenho alguns Quad ros né do escritório da minha
esposa como quadro da Leila Gonzales a placa né de lembrança a Maria Alerta e algumas outras artes de artistas brasileiros e brasileiras então voltando a a apresentação eu trago essas categorias de danos para lembrar né que em alguns espaços essa identificação de danos já avançou bastante mas como talvez alguns de vocês estejam percebendo na imprensa aceleração de alguns sistemas globais né de circulação Global né ligados a aplicações como e agenerativa tem levado alguns atores sobretudo setor privado infelizmente a negar esse histórico né então é muito importante a gente estabelecer isso e relembrar como a escola
relembraram né que esses danos já estão registrados então sejam danos históricos ou danos especulativos como colega Maiane lembrou no sentido de especulativo porque a gente sabe que pode acontecer devido ao nosso conhecimento em outras áreas então quando alguns tipos de tecnologias são desenvolvidas e a gente já conhece sobre discriminação de classe de gênero de raça é possível de uma forma racional intelectual e baseada em fatos e dados entender alguns danos possíveis da implementação de alguns tipos de tecnologias Então esse conceito né de dano especulativo que está registrado é um exposta de legislativas é muito importante
e eu queria aqui é coar né o comentário da colega Então nesse sentido né a o debate político regulatório legislativo sobre inteligência artificial tem que ser influenciado por alguns consensos internacionais um desses consensos que é um avanço de medida é a definição da USD sobre o que é um sistema de Inteligência Artificial que apesar de ser uma definição que pode ter algumas controvérsias é uma definição influente por exemplo a nossa estratégia Brasileira de Inteligência Artificial que foi estabelecida né três anos atrás no governo passado né com todos os problemas que temos né uma estratégia Brasileira
de Inteligência Artificial que precisa ser revista totalmente as revista porque tem muitos problemas mas tanto essa estratégia quanto outras estratégias da América Latina levaram em consideração essa definição da USD por motivo os políticos né de relações internacionais e essa definição tem um avanço porque ela leva em consideração que é um sistema algoritmo incorpora os objetivos de quem está desenvolvendo então há objetivos definidos por humanos e esses objetivos podem ser analisados também então quando a gente pensa né biometria para gerar vigilância né no espaço público biometria à distância com reconhecimento facial mesmo se o modelo fosse
preciso e o sistema não são precisos os objetivos subjacentes na implementação disso devem ser levados em conta na concepção do que esse sistema e como pesquisa isso inovadoras e esclarecedoras como a dopanóptico que o Pablo é mostrou para a gente mostra as decisões de implementar um determinado tipo de tecnologia como reconhecimento facial em cidades pequenas com lacunas de outros serviços públicos faz parte de uma decisão sobre um sistema algoritmo e deve ser criticada também quando a gente pensa sistemas algoritmos inteligência artificial então a relevante comparação né que o panópico fez sobre o quanto a Bahia
por exemplo investiu um reconhecimento facial O que poderia ser gerado na em termos de saúde pública pode ser levado em conta nesses debates políticos né Então nesse conceito eu tenho debatido né junto com alguns Algumas outras pesquisadoras não melhor coando com algumas outras pesquisadoras e pesquisadores a importância de pensar sistemas de inteligência artificial para além né dessa questão somente de entrada de dados inputs que eles podem ser diversificados podem ser melhorados mas é uma parte da questão com mais colegas mencionaram então há um termo que se fala muito uma frase que fala muito no campo
da tecnologia que é essa ideia de lixo entra lixo sai então se um modelo é treinado com dados enviesados ou dados limitados os resultados vão ser limitadas vão ser problemáticos Mas essa é uma parte da questão somente quando a gente pensar racismo como as colegas mencionaram né Há muitas outras camadas de questões que estão incorporadas nessa concepção do que é um sistema algoritmo e do que a gente aceita de ser implementado enquanto sociedade então esse esqueminha aí que vai melhorar na versão final né com a ajuda da designer é para relembrar que os objetivos e
os alvos devem ser levados em conta as relações de poder e também os imaginários sociotécnicos por exemplo no campo de debate político sobre sistema de inteligência artificial é um frequente exemplo utilizado sobre os terríveis escolhes sociais em Estados com a China onde o estado né o governo é realizaria pontuações dos cidadãos de acordo com a doença deles algumas regras sociais e algumas ideologias do partido no poder O que é algo terrível que não deveria acontecer mas boa parte do impacto de um sistema desse é um impacto que poderia ser comparável ao que a gente aceita
em países como Brasil Estados Unidos quando a gente pensa escolhe de crédito escolha de crédito cortam oportunidades de na vida das pessoas oportunidade de habitação de ter um lado digno de educação e outros então isso é um Imaginário social técnico que aqui nos países da América é aceito mas talvez ele possa ser criticado também Então nesse sentido um mecanismo de relatórios de impactos algoritmos que já está previsto na nos projetos de lei mais avançados em debate nas casas legislativas podem avançar em alguns pontos e aí eu já vou encaminhando para o final né que as
pessoas têm mais alguns cinco minutinhos se a organização puder confirmar para mim mas eu queria mencionar é mais alguns quatro pontos que talvez a gente possa pensar melhor nesse lembrar nesse debate legislativo e organizações na melhor instituições ligadas né ao por exemplo ao Ministério da Igualdade racial e outros e outros atores institucionais que estão presentes aqui né seja na organização seja nos comentários podem ajudar nessa construção né E nessa pressão política e na construção de recomendações né dos legisladores e legisladores um primeiro ponto é reconhecimento das modalidades Impacto dos racismos institucionais e estruturais no Brasil
então em sociedades né citando o ministro Sílvio Almeida em uma sociedade em que o racismo está presente na vida cotidiana As instituições que não tratarem de maneira ativa e como um problema a desigualdade racial irão facilmente reproduzir as práticas racistas já tidas como normais em toda a sociedade essa concepção de racismo estrutural que é um termo que é muito criticado apesar de ser um termo Fantástico e elegante né e continua válido apesar das corpo delas que são feitas em alguns espaços essa noção de racismo estrutura é muito importante porque para pensarmos legislação e pensarmos mecanismos
como relatório de impactos algoritmos levar em conta que o Brasil é um país imerso no racismo construído sobre a escravidão Então os mecanismos legislativos mecanismo institucionais e regulatórios devem levar isso em conta e como que a gente leva isso em conta a gente leva a gente encontra entendendo que a produção Legislativa e regulatória não pode levar em consideração não pode deixar de levar em consideração essas relações de poder então alguns mecanismos tem que ficar explícitos Então hoje o não há uma definição nas proposta legislativas é a definição de quais tipos de atores sociais participarão de
entidades supervisoras autoridade supervisoras que vão avaliar esses relatórios de impacto algoritmo quais entidades deveriam participar eu acredito que entidade da sociedade civil e sobretudo do movimento negro nesse aspecto deveriam participar e ter voz é Então nesse sentido quando a gente pensa implementação de reconhecimento facial por exemplo se tivermos no futuro né um Panorama legislativo regulatório onde os relatórios de impacto devem ser feitos levando em consideração [Música] a sociedade civil né talvez organizações como a colisão nega por direitos aciola o cedempar ou panóptico poderiam mostrar para a sociedade né antes na implementação esses impactos e tecnologia
e sobretudo nocivas né como reconhecimento facial no espaço público não deveriam ter o espaço se todo esses dados Fatos e conhecimento gerado pela sociedade civil sobre seus impactos fossem levados em consideração na construção né e na aprovação de Tecnologia de alto risco um segundo ponto é que aqui é chovendo molhado né falar isso no ministério da Igualdade racial mas talvez alguém na audiência não conheça todos esses instrumentos é importante lembrar que o Brasil tem esses compromissos né para o combate à discriminação racial seja a nossa Constituição né os artigos sobre igualdade sejam leis como o
estator da Igualdade racial o caráter constitucional né da convenção interamericana de racismo então mecanismos como avaliação de Tecnologia de alto risco inaceitável e como elas vão ser avaliadas devem levar em consideração esses compromissos do estado e da sociedade em combater ativamente o racismo um penúltimo ponto é reconhecimento das particularidade do Brasil colonialismo e colonialidades digitais nós vimos com os problemas das plataformas de mídias sociais como tecnologia estão importantes como mídias sociais por exemplo podem chegar muito perto de erodir a democracia sobretudo quando não são desenvolvidas ou não tem capacidade de gerar medicação de danos e
riscos em territórios específicos vários dados e vazamentos mostram que algumas empresas de big-tech em mídias sociais oferecem um serviço de análise né de riscos em países com Brasil muito menor do que nos países centrais e mesmo em países centrais em termos econômicos né como Estados Unidos há problemas terríveis relacionados a ter informação discurso de ódio e afins então é importante lembrar que somos um país do Sul Global um país que foi colonizado em um país que não tem todo o poder político das principais potências E aí por fim para fechar de fato há um debate
crescente em torno do mundo sobre abordagem de justificação prévia e atribuição do ônus da análise de impacto algoritmo as empresas nós já temos um acúmulo de conhecimento sobre os possíveis danos de sistemas algoritmos de larga escala e de alto risco então algo juristas em torno do mundo e algumas organizações da sociedade civil que debatem que os sistemas algoritmos de larga escala ou de alto risco como aplicado na saúde da Segurança Pública plataforma de grandes cara de mídias sociais tá que tem alguma potencial de impacto político devem produzir e serem auditados para que só possam ser
implementar nos depois de análise Seven pois já temos esse acúmulo sobre os danos possíveis e esse ônus deve ficar com as empresas de grande escala né E aí a 12metria de como isso vai ser realizado de acordo com o tamanho das empresas e a origem das empresas é algo a ser debatido e que a gente deve participar né ao longo dos próximos anos então fechando efetivamente eu queria mencionar a intelectual rura Benjamin que num livro muito importante que chama raça depois da tecnologia diz o seguinte né às vezes os erros ou os bugs os glitches
não são acidentes não são representações né de algo que deu errado entre aspas mas sim um sinal de como o sistema operam então não são uma aberração mas uma forma de evidência mostrando falhas subjacentes em Sistemas corruptos então infelizmente quando a gente pensa em alguns Campos como a violência estatal né E como infelizmente no Brasil polícias foram formadas para controlar populações específicas como pessoas pobres populações negras alguns tipos de tecnologias necessariamente vão intensificar essas violências como é o caso do reconhecimento facial então a gente precisa discutir isso né com acúmulo que a gente tem sobre
Relações raciais e combate ao racismo no Brasil então é isso que eu teria de apresentação Inicial muito obrigado pelo espaço bom meu irmão muitíssimo obrigado pela exploração né Por toda a contribuição agradeço a cada uma cada um de vocês que participaram dessa dessa nossa rota né trazendo aqui para gente as suas perspectivas E são muitas perguntas gente muitas perguntas mesmo e dado adiantado da nossa hora né Não teremos tempo para para várias perguntas né ou mesmo uma pergunta para cada um né e para cada uma tá então eu quero convidar né todas vocês todos vocês
para né fecharmos né essa roda né e vou fazer uma pergunta geral né para para vocês responderem né E já fazerem suas contribuições finais considerando aqui algumas palavras-chaves né que foram utilizadas e que vão né a mostrar para a gente de maneira de outra todo esse todo esse essa problematização que chegou para gente né via havia pergunta tá pensando aqui né entre responsabilização né Que linda comentou ainda trouxe a perspectiva da responsabilização que para mim é fundamental enquanto advogada abolicionista que lombista né pensar em responsabilização e não punição é fundamental para a gente construir um
outro sistema de Justiça né um sistema de Justiça aí pautada em tecnologias ancestrais né E que vão abrir caminhos entre descolonização ou contra a colonização né no aparato né tecnológico também então vocês né as caminhadas né vocês forjando né Essas tecnologias para nós pensarmos aqui em construção de estratégias construção e desconstrução né construção de estratégias a metodologias ferramentas enfim para nós minimizarmos reduzirmos né ou até evitarmos o que é nem bem complicado os danos né desses dessa dos dessas tecnologias né então como nós estamos pensando isso né sobretudo a partir de uma perspectiva que não
reconhece limitação territorial né ou seja do Brasil para o mundo né ou vice-versa né nesse nesse trânsito também né e pensando para Além disso Como estão essas essas responsabilizações Como estão essas propostas em que cenário né que local nós Brasil né estamos assentando né o nosso conhecimento né para tentativas de controle nessas dessas manifestações né que não são apenas manifestações do racismo em si né verbalizadas escritas aí o uso das redes sociais né sobre essa perspectiva de liberdade de expressão né que o ódio racial né tomar conta mas também na Liberdade de construir tecnologias Então
como nós conseguimos pensar né Para Além disso Quais são os nossos propostas como estamos caminhando né nesse sentido tá então é começo né para para finalizar né começa de novo né com Nina aí para trazer as suas as suas perspectivas nesse sentido e suas considerações finais Obrigada Luciano Obrigado aí pela já fazendo a consideração final Já começamos por agradecimentos realmente fico muito feliz com mais esse passo do ministério né tô tendo oportunidade de acompanhar bem de perto o trabalho e acho que a pluralidade de discussões dentro do tema de raça no Brasil e a pluralidade
de contribuições que vocês estão fazendo e que muitas vezes ficam invisíveis né os olhos da sociedade pelo menos para mim tem sido muito importante tem sido um diferencial para a gente realmente pensar como você muito bem colocou as novas possibilidades e os novos os novos caminhos a partir de uma visão é não eu concentrada né e focada na nossa ancestralidade então agradeço super novamente fazendo das palavras de Beta no início as suas palavras iniciais é as palavras do dos colegas aqui colocados as palavras da durante a organização do evento né E parabenizando vocês tanto do
ministério como também do enap e eu acho que o que eu consigo contribuir para essas considerações finais né Não só pensando de um ponto de pontos da ancestralidade que me são muito caras né mas pensando no projeto que eu não as pessoas perguntam né sobre financiamentos para o Gui né o podcast que sempre é um projeto desde 16 anos e que eu jamais teria como financiar ou colocar ele no ponto de grana justamente pela respeitar socialidade da qual eu tenho e das gêmeas da religião da qual eu faço parte que eu não preciso nem se
tu acha que fica muito claro das minhas falas das minhas colocações Mas o que eu tenho aprendido com a experiência desse projeto diversas que não são visibilizadas que eu tenho oportunidade de fazer com pessoas intelectuais que fogem do dessa dessa sistematização ocidental que nos foi colocada nós estamos passando sempre a partir da construção de tecnologias e de ferramentas que consigam dar conta da complexidade que existe né quando nós tiramos o herançarismo do nosso centro do conhecimento então eu tenho aprendido muito com pesquisadores negros que estão em países como gana Nigéria Senegal pensando a inteligência artificial
no lugar da tradução de como que você traz para para o centro a importância de memorizar as suas línguas as línguas originais e não as línguas que foram que foram colocadas para eles né impostos para eles é organização é aprendido muito assim é que eu posso citar na figura do próprio Raimundo que trabalha com a gente no Instituto da hora do Povo banil de como que a gente de centraliza e pensa a tecnologia não de um ponto de vista somente negativo porque os jovens é a nova geração que nasce dentro desses grupos que são marginalizados
na pela sociedade e algumas vezes e muitas vezes são marginalizados nos nossos próprios discursos e quando o movimento negro é eles estão chegando com sede de fazer o diferente então a gente não pode deixar a nossa a nossa a nossa caminhada dura prejudicar os mais novos que estão chegando e aí é tem essa esse conhecimento de como que a tecnologia pode não ser não deveria só ser apresentada de um ponto de vista duro para quem tá chegando assim como muitos mais velhos tentaram tentaram não me apresentar também dessa formatura é amanheceu meu que é uma
dessas pessoas que desde a banca do TCC tem sido tem sido essa pessoa dentro da Computação para mim que a Sandra Ávila E aí eu falo na figura até desse respeito acadêmico das pessoas negras que que nos abriram e nos abrem e nos abrem caminhos e por último mas que para quem é é de terreiro é muito bem conhecido né quando a gente tenta cruzar os conhecimentos empíricos os conhecimentos não empíricos com os conhecimentos que nós estamos criticando sempre que é o que a gente faz quando a gente está dentro da Universidade nós escutamos muito
sobre como que cruzar gerações é importante e que os mais velhos né como a própria adoração de carneiro já apontou em muitas pessoas falas você achar Xavier watila Flávia Oliveira os mais velhos que se colocam na posição de respeitar o que os jovens estão fazendo é os que é os que conseguem movimentar o que de fato é respeito sem você precisar impor e sem você precisar fazer o apamento né de quem tá chegando agora para construir eu acho que seriam essas reflexões que eu tenho para fazer de considerações finais que podem nos ajudar a Abrir
esses outros caminhos como Maia também citou na tecnologia a gente precisa tanto criticar como também precisamos abrir caminhos eu acho que não foi à toa que vocês acabaram me colocando para iniciar e a gente inicia e tenta fazer desse bem bolado de fato algo que no futuro vai fazer sentido para as próximas gerações eu espero que a gente pelo menos consiga deixar aí bons caminhos né boas críticas mas também Boas soluções na tecnologia obrigada [Música] né pelo convite né Obrigada por pela mesa também sempre né bom é sempre importante né Essa diversidade não só cultural
mas também Regional né eu sei que eu não falei no começo mas eu sou uma pesquisadora nortista né eu venho de Manaus Amazonas e fazendo pesquisa né no sudeste tendo contato com pessoas do sudeste Mas também da América Latina no geral e essa junção de coisas né não são de locais junção de diversidade de gênero de raça e multi disciplinar é o que faz é o que vai fazer com que a tecnologia seja um pouco mais abrangente enquanto a gente cerca as tecnologias dos nossos locais de pensamento né de área seja a área acadêmica ou
seja área regional ela não não vai ser multi né ela não vai pensar para outros corpos para além da diversidade né a tecnologia sozinha não consegue isso mesmo porque ela surge de nós né Ela é para nós e também a gente é para ela né porque essa é o que tava na minha fala o tempo todo né essa justaposição né se complementa de humanidade interação humano máquina é isso que vai fazer com que as tecnologias sejam menos né sejam menos corrosivas né com corpos Diferentes né porque a gente pensar por meio do nossos corpos por
meio da adversidade né seja ela qual for é isso que vai fazer a diferença mas também ter consciência da diversidade dos nossos próprios corpos né que não é somente raça que não é somente gênero não há essa separação mas a tudo isso junto a questão da a questão de pensar tecnologia como uma pessoa do Norte a questão de pensar a tecnologia por meio de uma diversidade de gênero a questão de pensar a tecnologia por meio de diversidade de raça Há muitas questões porque eu penso também no quesito Latino América né como dizer como diz uma
amiga minha então essa junção de coisas que faz com que a gente pensa diferente menina e eu a gente trabalhando junto por isso e por isso que ela muito carinhosamente a chama de Maia né Ela não falou o nome todo Mariana Mas é por conta dessa convivência que a gente tem né que a gente debate o tempo inteiro questiona o tempo inteiro uma outra né porque que isso deu tá o resultado Por que que a gente não pode pensar de determinada forma somos diárias diferentes termos técnicos diferentes mas todo tempo a gente está contextualizando uma
outra e é esse contextualizar né as pessoas de outras áreas que faz com que a gente pensa uma tecnologia diferente também o que a gente pode ajudar que as tecnologias possam ser menos corrosivas para pessoas como nós né a gente pensa por meio de nós para pessoas como nós acho que é isso que faz a diferença e mais uma vez obrigada Luciana Obrigada Nina Tarcísio a moça de libras que não tá o nome dela mas obrigada também né por estar aqui o Pablo e toda a equipe do enap gente é uma honra fazer parte desse
daqui e também agradecer você freiar da pessoa do professor Valdinei do professor Fábio Costa a professora Renata que que por eu estar aqui né minha coleira também não sei como pesquisadora e é isso gente Pablo obrigado Luciano agradeço novamente a oportunidade de dividir com esses grandes amigos colegas e referências essa parte da manhã de hoje refletindo sobre esses as questões de uma perspectiva bem multidisciplinar e dando atenção para Diferentes né fáceis né que essa que essa temática nos proporciona né refletir pensar e também é de pensar estratégias de construir resistências e a técnicas é para
fortalecer né Barreiras né e proteger direitos e assegurar direitos daqueles que são negados todos os dias acho que a possibilidade ter espaços como esse e construir né rodas maiores né de conversa e de diálogo sempre tentando puxar é aqueles que estão mais próximos e trazer um componente Que tente né de maneira muito muito efetiva né compor uma diversidade né e acho que já foi falado bastante né diversidade não só de olhares mas também diversidade de origem e diversidade de pensamento diversidade de atuação diversidades de técnicas também e de planos e sonhos para o futuro né
desse país acho que é sempre algo relevante importante e Fundamental sempre quando a gente pensa discute ou conversa com gestores públicos é sempre falaram que ah é difícil Segurança Pública por exemplo nossa é uma técnica uma uma situação difícil sempre vai ter os efeitos adversos que eles chamam né as mortes policiais por exemplo e todas essas questões né sempre colocaram como difícil mas acho que só é difícil se a gente não tem olhos de ver e ouvido de ouvir tem tem soluções e tem ideias né de políticas públicas e de forma de avançar nessas áreas
não só na segurança pública mas em outras áreas espalhadas por aí né Eu sempre sinto a experiência que ela acompanha de perto do fórum popular de Segurança Pública do Nordeste que reúne organizações de todos os estados do Nordeste eles acabaram de se reunindo Piauí em Teresina para Dias intensos de debate do interior do Ceará do Maranhão de Pernambuco em caravanas até Teresina para discutir Segurança Pública né numa perspectiva de um olhar local mas também desse dessa ideia né de trazer o local para uma roda maior e construir nessa roda maior formas né e sonhos de
futuro em que a gente possa ter uma sociedade mais justa igualitária para todos então acho que é é por aí que teve a gente deveria correr e acho que a gente tá fazendo isso hoje e que a gente possa fazer isso cada vez mais é isso Tarcísio meu querido Opa Então como a gente estourou bastante tempo eu vou ser bem curtinho né porque é um privilégio né tá nessa mesa fantástica então eu vou resumir assinando embaixo né tudo que as colegas e os colegas falaram e reforçar essa convocação tá estarmos juntos construir coisas coletivas é
aproveitar que eu tô com uma canequinha de um projeto que eu gosto bastante e fazendo Jabá que não é um projeto meu então Jabá 2 até sempre válido em outubro teremos um encontro afro e até que aqui em São Paulo com mais de 300 desenvolvedoras desenvolvedores negras e negros e que aberto né para todo mundo então é um evento muito bonito e bacana onde a gente vai discutir como construir né esse esse futuro aí nas tecnologias na sociedade na política de forma junta coletiva E construtiva então muito obrigado novamente ao Ministério da Igualdade racial e
todas as pessoas envolvidas que fizeram isso acontecer e tem feito acontecer né em defesa da sociedade Muito obrigado bom gente eu queria agradecer muito muito muito muito mesmo dizer que eu tô né muito honrado e grato né pela participação de cada uma de cada um vocês trazerem né as suas técnicas técnicos escrevivências né para essa roda que eu já dizia há algum tempo né ela ela é muito potente porque ela tem o que nós temos de melhor né o que nós produzimos de melhor em termos né de racismo algorífico e a partir dessa roda que
se expande né E que traz nesses movimentos contra coloniais abrindo caminhos entrelaçando né os nossos nossos conhecimentos nós nunca esquecemos né De onde nós viemos Quem veio antes né a celebração aqui a nossa centralidade as mais velhas aos mais velhos possibilitou com que nós chegássemos aqui e daqui né a bissem os caminhos para moto tela de um mundo melhor né para as novas gerações né se movimentou durante todas as nossas né Em cada fala em cada palavra né o comprometimento com uma dignidade humana que se faz na sua universalidade e não nesse fechamento Universal e
não pautada a partir do colonialismo e das diversas colonialidades aqui né a comunidade digital tecnológica enfim mas que se expande né se entrelaça em tantas outras né então quero agradecer muito muito mesmo né acho que a construção de uma verdadeira democracia brasileira se faz né necessariamente Obrigatoriamente a partir das nossas vivências das nossas experiências E dos nossos conhecimentos conhecimentos que nós apenas Vamos aperfeiçoando né através dos já abertos né então quero finalizar essa roda né agradecendo cada uma cada um que esteve né com a gente até agora né aí pedir né também para vocês não
esquecerem não deixarem de preencher a avaliação desse evento né Que também está disponível por meio do link colocado no chat né do YouTube né porque a contribuição de vocês é fundamental para a melhoria constante do nosso serviço e é isso é esse comprometimento com a melhoria dos serviços prestados à população né objetivando aí o Bem Viver no princípio fundamental da coletividade que nós no ministério da Igualdade racial agradecemos muitíssimo né esperamos encontrar elas encontrá-los encontrar a todas as pessoas é novamente o quanto antes tá Muitíssimo obrigado gente imos juntos sempre gratidão