7/5/25 - Palestra "Democracia e Inteligência Artificial" com Lawrence Lessig (traduzida)

1.03k views12161 WordsCopy TextShare
STF
Em 7/5/2025, o professor Lawrence Lessig, da Universidade de Harvard, proferiu a palestra "Democraci...
Video Transcript:
Silencioso. Neste momento é dado início à palestra Democracia e Inteligência Artificial. Informamos que perguntas podem ser encaminhadas por meio do QRCode que se encontra sobre os assentos e que elas serão respondidas de acordo com a disponibilidade de tempo. Ressaltamos ainda que a palestra será proferida no idioma inglês para aqueles que desejarem a rádios de tradução disponíveis na entrada do auditório. Compõe a mesa de honra o excelentíssimo senhor ministro Luís Roberto Barroso, presidente do Supremo Tribunal Federal e do Conselho Nacional de Justiça. Sua senhoria, o Dr. Laorence Lesg, professor titular da Cátedra Roy El Forman de
Direito e Liderança da Universidade de Harvard e sua senhoria a Dra. Aline Osório, secretáriaagal da presidência do Supremo Tribunal Federal. Registramos e agradecemos a presença de suas excelências, a senora Sterduec, ministra de Estado da Gestão e da Inovação em Serviços Públicos, o Senr. Luís Manuel Rebelo Fernandes, ministro de Estado de da Ciência, Tecnologia e Inovação, substituto. O senhor embaixador Rômulo Acurai do Peru no Brasil. A senora Luz Imda Pacheco Zerga, presidente do Tribunal Constitucional do Peru. O senor Marcos Rogério de Souza, secretário especial para assuntos jurídicos da Casa Civil da Presidência da República, o Sr.
Dário Durrigan, secretário executivo do Ministério da Fazenda. Magistradas e magistrados, membros do Ministério Público, senhoras e senhores docentes e e decentes, servidoras e servidores, profissionais da imprensa, senhoras e senhores, neste momento tem a palavra o excelentíssimo senhor ministro Luís Roberto Barroso. Muito bom dia a todas e a todos. Tem muito prazer, muita alegria de abrir esta sessão e de recepcionar aqui no Supremo Tribunal Federal o professor Lawrence Lessig para tratar desse tema inteligência artificial e democracia. Um dos temas mais desafiadores do nosso tempo. Há algo de novo debaixo do sol. a uma transformação profunda ocorrendo
no mundo sob o impacto da inteligência artificial com potencialidades positivas imensas e com riscos igualmente imensos. E, portanto, é para refletir sobre esses temas e o impacto que eles produzem sobre as visões tradicionais de democracia que nós recebemos o professor Lawrence Lessic, como já anunciado, é professor de direito e liderança na Universidade de Harvard e antes disso ele foi o fundador do Center for Internet and Society da Universidade de Stanford. também esteve na Universidade de Chicago e teve antes de se tornar professor uma carreira muito destacada como clerk, como assistente jurídico de dois juízes muito
influentes nos Estados Unidos, o juiz Richard Poner, a Corte de Apelações do Sétimo Circuito, conhecido de muitos de nós pelos seus trabalhos publicados sobre direito e economia. e sobre o próprio papel dos juízes e sobre interpretação jurídica em geral e igualmente do ministro da Suprema Corte, Anthony Escalia, igualmente uma figura relevante no pensamento nos Estados Unidos. Ele também atua no conselho do Axel Research Fund e é membro emérito do Conselho da Creative Commons. Ele é membro da Academia Americana de Artes e Ciências e da Associação Filosófica Americana e já recebeu diversos prêmios, incluindo o prêmio
Liberdade da Free Software Foundation e o prêmio Fast Case 50. E em 2002 foi nomeado um dos 50 visionários da Scientific American. Nós temos muito prazer de receber o professor Lawrence Lessing aqui. Ele também é formado em economia e administração pela Universidade da Pennsylvânia. é mestre em filosofia pela Universidade de Cambridge e doutor em direito JD não e e bacharel em direito pela Universidade de IO. Antes de passar a palavra ao professor Lessig, eu vou passar a palavra à secretária geral do Supremo Tribunal Federal, Aline Osório, que foi aluna e assistente do professor Less, que
gostaria de dizer algumas palavras. Al, bom dia a todas e todos. Gostaríamos de agradecer pela presença e antes de passar a palavra ao professor Lesseg, eu gostaria de fazer uma breve eh nota introdutória eh pessoal eh em homenagem a ele e farei em inglês. É um grande privilégio te introduzir um dos mais brilhantes intelectuais públicos dos nossos tempos, professor Lawrence Less. O professor Less tem moldado, novamente, tem remoldado o nosso entendimento de democracia e tecnologia, desde copyright, eh, internet, financiamento de campanhas, interpretação constitucional. O trabalho nos o trabalho dele nos pede eh nos pergunta o
que torna a democracia real e o que previne eh de ser e desta forma. Então, eu tive o o a honra de ser sua aluna em 2017 em Harvard. Eu também fui muito, tive muita sorte de ser a sua assistente de pesquisa quando ele estava escrevendo o seu livro Fidelidade e e Constraint. E eu, em geral, para mim foi uma uma masterclass em integridade intelectual. Eu vou ficar agradecido por sua confiança e guia. E o que me inspira tanto no professor é o seu espírito público. Eh, ele quer confrontar as falhas mais profundas da democracia
e hoje ele vai trazer a mesma convicção a um dos tópicos mais urgentes do nosso tempo, como as democracias pode sobreviver na era de inteligência artificial. é uma conversa que nós precisamos e ninguém está em melhor posição para fazê-lo. Então, por favor, eh, me [Aplausos] eh eu não consigo descrever adequadamente o quão agradecido eu estou estar aqui e ter a oportunidade de falar para vocês. Eu tenho um carinho especial para o Brasil. Eu já estive no Brasil muitas vezes e essa é a primeira vez em Brasília e eu aprendi durante o meu tempo no Brasil
muito sobre eh a personalidade da democracia. Eh, por exemplo, eu segui o Gilberto Gil à medida que ele eh num festival público e ele era o ministro da cultura à altura e à medida que ele se locomovia pelo eh festival, ele ia junto com as pessoas, as pessoas apertavam suas mãos e diziam o que elas pensavam. E eu pensava e não é não é assim que os os oficiais do governo operam. Nos Estados Unidos eles estariam a 100 jardas. eh entre o público, eles nunca iriam arriscar eh pessoas comuns falando com o oficial do governo.
Isso não acontece. E eu pensei desde esse momento, 20 anos atrás, temos tanto a aprender da luta e da inspiração e dos ideais eh que o Brasil mostra, demonstra ao mundo. Então, eu venho aqui para compartilhar os meus pensamentos e eu me diverti aprendendo as com as reações desses pensamentos, o que o Brasil tem a ensinar. Então, podemos passar para os slides. Podemos começar. Em dezembro de 2024, este homem Samman, escreveu um tweet. O Twitter diz isso, dizia isso. Os feeds do dos algoritmos são os primeiros eh inteligências artificial desalinhadas eh em escala. esses feeds
algoritmos, quer dizer, aquilo que aparece na sua timeline do Facebook, Twitter ou TikTok, eh eh algorítmico, eles estão eh movidos por eh inteligência artificial. Então, eh, inteligência artificial desalinhada, que tinha uma importância fundamental paraa sociedade e sim, foi importante nos Estados Unidos em 2024, porque eh a maioria das pessoas pensaram que aquelas eleições foram dirigidas ou foram guiadas pelos efeitos das mídias sociais que tiveram no entendimento do público das questões que estavam acontecendo. Eu quero dizer duas coisas sobre esse comentário do Samtman. Primeiro, eu quero dizer quão certo ele estava e segundo eu quero dizer
como quão errado ele estava. Ou seja, no vernáculo do meu tempo, quanto eh quanto que nós estamos ferrados, dado o quão certo ele estava. Vamos começar com e porque ele estava tão certo. O primeira, as primeiras e as desalinhadas que importaram em 2024, elas foram importantes nas nossas eleições em duas maneiras diferentes, eh de acordo com a intenção e como um produto, eh, de deste processo. Então, na sua intencionalidade eh havia duas formas de que isso foi importante. Primeiro era havia atores eh estrangeiros usando a inteligência artificial para disseminar disensão nas eleições americanas. Havia eh
havia sites de notícias falsos russos que estavam na nossa economia. Havia fazendas de bots espalhando desinformação sobre Ucrânia e sobre e com mensagens pró Kremlin. Os chineses se engajaram nesta campanha massiva eh e fazendo, fazendo um paralelo da festa do de 50 cents na China, eh, com, eh, sobrecarregando as redes sociais com informações falsas. E nos Estados Unidos, isso é uma história que não foi muito relatada, mas existe uma dinâmica extraordinária em que o que é chamado de desertos de notícias são áreas nas quais eh não existe eh jornais locais e eh esses websites criados
por IA que são eh que fingem ser um jornal local. À medida que as pessoas surfavam a internet nessas áreas, havia uma chance de 50% que eles iam encontrar um jornal que eles achavam que era algo legítimo, mas de fato era o generado por IA, por um modelo de linguagem. ou o TikTok em 2024 também teve um impacto muito grande na Romênia e demonstraram como isso foi usado para criar um candidato falso e a o a corte teve que entrar e anular as eleições. E desde uma perspectiva americana eh não, isso não teria acontecido nos
Estados Unidos, mas isso realmente aconteceu. Então, e tinha também atores domésticos desesperadamente tentando de afetar as eleições. Havia um um grande empurrão, um grande e tentativa de tentar mudar a forma como se captava fundos. E havia também outras tentativas para usar IA para a ter um efeito nos votos das pessoas. por exemplo, o presidente sugerindo que Taylor Swift tinha endossado sua campanha ou candidatos usando esse tipo barato de inteligência artificial para reforçar a mensagem de suas campanhas. E aqui um exemplo eh impressionante do Twitter. Então é o Martin Luther King dizendo que voltou dos mortos
para dizendo que tem outro sonho, que o Anthony Hudson seria um membro do Congresso. Sim, eu tenho um sonho. Então aqui tem uma propaganda que uma política que no meio da propaganda tinha um ataque a uma candidata e essa imagem apareceu. eh evocava um debate que acontecia na extrema direita, em canais de extrema direita, que a esquerda estava tentando eh acabar com o fogão a gás nos Estados Unidos. Isso é ridículo. Isso não é isso não é verdade. Mas a ideia de que houve um protesto em que as pessoas estavam usando essas eh placas eh
contra o gás de cozinha é interessante, mas você lê aqui nas letras, você vê que todas essas imagens foram criadas por Iá. Não existe realidade na história, mas essa história foi usada na campanha da candidata que estava atacando a pessoa à esquerda. Então, se não olharmos para isso e dissermos se isso é o que era IA nas eleições de 24, então o efeito doméstico foi eh superestimado. Não importava. disseram que seria uma eleição da IA e não foi. Mas isso não era o efeito importante da IA. O efeito importante não era o que intencionava, ou
seja, as pessoas que usavam e a intencionalmente para afetar os resultantes. Foi o resultado de tudo isso, produto eh o o efeito colateral, ou seja, porque a nova mídia, mídia social, o efeito das mídias sociais sobre a personalidade de entender eh que os americanos eh tinham questões a enfrentarem nessas eleições. Este é o Tristan Harrison. um engenheiro do Google até ele sair e começar esse centro de Human Technology. e ele se tornou famoso nesse filme The Social Dilemma, que contou a história das mídias sociais e o seu efeito, né, sobre a juventude na democracia e
ao mundo. É, ele e focou na ciência da atenção quando ele estava no Google. E é uma tentativa de engenheirar atenção, ou seja, atrair a atenção dos usuários para superar sua resistência natural que eles teriam a essas plataformas de mídia social para aumentar o engajamento que as pessoas têm com essas plataformas. Isso é o que aconteceu em todas as grandes redes sociais existentes. E precisamos precisamos pensar como se fosse um hackeamento do cérebro. Vamos falar de body hacking, que é hackear o corpo. Ou seja, nesse documentário que fala sobre a ciência dos alimentos e o
processo que eles criam, é uma ciência e eles fazem uma engenharia alimentar, ou seja, a mistura de gordura, sal e açúcar nos alimentos para explorar a evolução, para superar nossa resistência natural e de comer muito, para que nós não parássemos de comer as comidas. Eles fazem isso para vender mais alimentos, ou seja, podemos chamar de alimento, entre aspas, e isso não parece prejudicial para muito, mas para alguns. E eh é isso que eu quero dizer com body hacking. Brain hacking, que é hackear o cérebro, é a mesma coisa, só que com relação à atenção. É
uma tentativa de su de sobrecarregar eh explorando a evolução sobre fatos sobre quem nós somos eh de acordo com a evolução. Ou seja, nós somos responsivos de maneira irracional por coisas aleatórias. Não conseguimos resistir tanto conteúdo. Eles usam esses fatos sobre nós para ajustar os seus produtos com o objetivo de aumentar o engajamento para que possam vender anúncios. Isso é um modelo de negócios. devemos chamar o modelo de negócios do engajamento. E o ponto para se reconhecer é que a inteligência artificial está no cerne e dirige. Isso é o que torna isso factível e cria
incentivos, ou seja, neste modelo de negócio, como a Xuxana Zubov eh mencionou nesse livro, ou seja, o incentivo é saber mais sobre nós, não apenas em nos assistir, mas por nos incomodar, fazer perguntas, nos tornar vulneráveis e entrar lá dentro do nosso cérebro para alavancar as nossas inseguranças, para que eles possam vender mais anúncios. A chave aqui é que em fazendo isso, eh, este modelo de negócios, eh, impõe externalidades sobre nós, externalidades nos Estados Unidos e no mundo. Eh, como eh as empresas estão no negócio de monetizar a atenção e não necessariamente em formas que
são conduciivas à saúde ou sucesso dos movimentos social ou das esferas públicas, eh isso é muito ruim para nós. A melhor estratégia, mais lucrativa para gerar engajamento é a política do ódio. Nós nos engajamos mais, quão mais extremo, polarizante, cheia de ódio esse conteúdo é. A Ia aprende is este fato sobre nós. Essa passagem de um livro sobre este scholar Stuart Russell, que é extraordinário, captura essa dinâmica eh de maneira poderosa. Ele descreve os algoritmos, como eles funcionam nas redes sociais. não são inteligentes em especial, mas eles estão numa posição de afetar o mundo inteiro,
porque eles influenciam diretamente bilhões de pessoas. Tipamente, ele escreve: "Esses algoritmos são desenhados para maximizar os cliques, eh, a probabilidade que o usuário vai clicar eh em alguns itens. A solução é simplesmente apresentar itens que ele gosta de clicar, certo? Errado. Errado. A solução é mudar as preferências do usuário para que eles se tornem mais previsíveis, mudar as preferências dos usuários. E um usuário pode receber itens que eles são mais prováveis em receber cliqus que vai gerar mais receita, gerar mais receita, ou seja, políticas extremas ou visões extremas. tem mais possibilidades de serem clicadas, ou
seja, artigos que t mais maior probabilidade de serem clicados, mas essas categorias podem ser horrendas, ou seja, como qualquer entidade racional, o algoritmo a e a aprenda como modificar o estado do seu ambiente. E neste caso, nós estamos falando da mente do usuário para maximizar os seus as suas próprias recompensas. a e a aprende a fazer isso. Então, é isso que nós somos alimentados. E neste livro fantástico do Max Fisher, ele ele ele acompanha, como nesses quatro países, nos Estados Unidos, Brasil, com a o os escândalos do zicavírus no Reino Unido e na Alemanha, a
o espalhamento das redes sociais está diretamente ligado à radicalização, o aumento da radicalização do público, porque a IA aprende se conseguir radicalizar as pessoas pessoas consumindo o conteúdo, elas serão mais prováveis para consumir mais conteúdo. Então, a máquina nos transforma em extremistas para que po possa vender mais anúncios. Esses feeds de algoritmo, como Senman falou, era a primeira o primeiro exemplo de IA desalinhada com importância. Isso não é sobre tecnologia, não é apenas sobre tecnologia. Este, esta alimentação é parte de uma economia. René Deresta colocou ela e do observatório de Stanford da Internet e a
autora deste livro Invisible Rulers. Essa economia tem três componentes. Existem influenciadores, as pessoas que estão no negócio de tentar atrair seguidores, existem algoritmos, eu não tenho uma uma foto de um algoritmo, mas vocês podem ter uma ideia aqui. E existem populações, pessoas, as pessoas que estão consumindo os conteúdos. E o ponto é que essas três coisas trabalham juntas. Os influenciadores estão aprendendo como alavancar os algoritmos e os algoritmos estão aprendendo a alavancar os influenciadores e e as pessoas para gerar engajamento. E isso gerando realidades customizadas ou eh não vivemos em uma realidade. Cada um de
nós vive em nossa própria eh realidade autoconstruída, como Barack Obana colocou. Se você assistir Fox Fox News, você está em uma realidade. Se você ler o New York Times, você está em outra realidade. Então, por exemplo, eh essas eh imagens horríveis do nosso evento de janeiro, janeiro, se 6 de janeiro, não, janeiro, 8 de janeiro, a coisa crítica sobre essas pessoas é que elas acreditaram que as eleições foram roubadas. Eles acreditaram nisso. Eles foram levados a a acreditar nisso por pela mídia que eles consumiram e as notícias que eles leram. E depois do 6 de
janeiro, 70% dos republicanos acreditavam que as eleições haviam sido roubadas e não eh pessoas sem educação. A maioria de pessoas com diplomas universitários acreditaram que os diplomas haviam sido roubados. Então, 70% dos republicanos, é, 32% de americanos acreditaram que as eleições haviam sido roubadas. Esse gráfico é aterrorizante, mas esse ainda pior. Eh, no na época desde janeiro de 6 de janeiro de 2021, o número das pessoas que acreditaram que as eleições haviam sido roubadas não mudou. é o mesmo número de pessoas que acreditaram que as eleições foram roubadas e desde 2021, isso é um fato
novo, Richard Nixon, presidente dos Estados Unidos, quase foi eh impeached pelo seu scândalle, o escândalo do Watergate. Ele tinha aqui as pesquisas de popularidade, ele tinha aprovação aqui de acordo com esse gráfico antes de eh renunciar. Então, eh, parecido com a popularidade aqui, ele não é tão odiado pelos democratas como os republicanos, como Don Don Donald Trump é pelos republicanos, mas ele tá no meio. Mas eh nos 6 meses até a sua renúncia, isso é que aconteceu com as suas taxas de aprovação. O que é impressionante sobre esse gráfico é que todos os três grupos
perderam apoio, eh, deixaram de apoiar o o presidente na mesma taxa, na mesma Eles não estão não estavam vivendo numa realidade customizada, mas numa realidade real, mas na nossa era isso são as taxas de popularidade do Trump, que passou por dois processos de imprintment, nunca mudou, porque cada grupo está vivendo nas suas realidades customizadas e cada fato pode ser reinterpretado para reforçar o que nós nas nossas realidades customizadas queremos crer. Isso é o novo normal, criado, gerado, apoiado, financiado pelas mídias geradas por IA. Então, essa customização eh gera ou otimiza para o que nós deveríamos
chamar de de de fantasistas. Eu escrevi aqui um artigo, vivemos numa era de fantasia de fantasistas. são pessoas que não estão eh limitadas pela realidade. Eh, o termo não é tão duro quanto um fabulista. Alguém que vive num mundo criado ou inventado, é mais leve do que um mentiroso ou mitomaníaco. A condição de serem patológicos, mentirosos, patológicos. E os fantasistas não necessariamente acreditam, mas ele apenas não sabem dizer o que eles, se o que eles estão dizendo é verdade ou não. Mas eles não se importam. As suas palavras construem a realidade que eles buscam. Então
é impressionante de reconhecer que o governo americano tem três fantasistas clássicos. Eh, no o Roberto Robert F. Kennedy Júnior, que tem escrito sobre vacinas e fluor e já eh instou estados a pararem de usar flu na água. O Donald Trump continua criando eh verdades fabricadas ou supostas verdades, e continua repetindo até que uma uma porção do público acredita. E o Elon Musk, quem vai descreve todas essas coisas mágicas que ele vai fazer falando coisas absurdas, coisas de malucos. de a ideia que e seria cortado 2 trilhões de dólares do orçamento quando o a seguridade social
é o maior, 1.4 bilhões, não existe esse tanto para ser cortado. E ele entra na esfera pública dizendo que vai fazer isso sem nenhuma relação com a realidade e também não tem eh conexão com a minha realidade customizada ou criada. E a minha a minha realidade customizada é real. A consequência dessa economia, desse desse plano de negócios, é que nós pessoas ficamos polarizadas, ignorantes e e bravas. E a consequência disso é que a democracia é enfraquecida. A gente vive nessas bolhas assimentadas com ódio, ódio para o outro grupo e confiança em nós mesmos. O ponto
que eu quero enfatizar é que isso que é a inteligência artificial que a gente devia focar, não o chat GPT é nessa IA que a gente devia focar. E o ponto é que essa IA é um produto de um plano de negócios, é um produto de uma forma que a que as empresas têm de fazer dinheiro na economia. Então, reconhecer que a Iá não é poderosa porque ela é tão forte. A Iá é uma consequência da nossa fraqueza. Isso. Vamos ver esse trecho do Social Dilema. A tecnologia enfatiza as forças. Ela vai ser mais inteligente
que os humanos. Mas tem esse momento mais cedo que a tecnologia enfatiza as fraquezas humanas. Isso é a raiz da adicção polarização e e entre outras coisas. Isso tá sobrecarregando a humanidade. A ideia que ele fala aqui é que a gente constantemente tá obsecado pela ADI, que é a inteligência artificial geral e que ela vai ser mais inteligente que todos nós. E depois no próximo dia, a edi vai se vai se tornar algo super inteligente. E essa realidade essa realidade deixa muitos pesquisadores preocupados. Eles eles se preocupam que isso é uma, é uma ameaça existencial
para a humanidade. Mas o ponto é que isso não é o que a gente devia se preocupar. O que a gente devia se preocupar é com isso aqui, não quando ultrapassa as nossas forças, mas sim as nossas fraquezas. E os o dilema social tá focado nas fraquezas individuais. a nossa coletividade, nossa inabilidade coletiva de resistir a I e a não é só a máquina tentando procurar a gente de forma individual ou ou rodear a gente com várias máquinas individualmente, mas ela também rodeia a gente de uma forma coletiva. A IA vai superar a gente e
a IA vai conseguir o que ela quer, que é o engajamento. quanto a gente tem a nossa democracia hackeada por essa tecnologia e e a e a faz isso e vai fazer cada vez melhor. É difícil reconhecer para aqueles que estão no campo da democracia que que isso vai gerar um público, um público que não deve ser ignorado, um um público que acredita que que o que a gente acredita é verdade. Uns à direita, outros à direita, outros no meio. Mas o público vai se convencer disso. E esse público que não deve ser ignorado vai
emergir. Isso vai ter um efeito democrático. Isso vai afetar o jeito que a democracia funciona e e esse efeito vai mudar o jeito que a democracia funciona. Então, a história que eu contei até agora, que é assustadora, que mais ou menos fala sobre o estado que a gente estava no ano passado, é uma pena falar que essa história fica ainda mais assustadora quando a gente pensa depois de 2024. Esse meu amigo recentemente deu uma palestra que ele falou que 2024 vai ser a última eleição humana. E com isso ele não quer dizer que que as
máquinas vão dominar o mundo e a gente vai não vai participar mais. Mas o que ele quer dizer é que tem uma estratégia que é muito óbvia. os os atores políticos eles vão acender e essa estratégia vai mudar radicalmente o jeito que a democracia funciona. Então eu vou descrever um pouco dessa estratégia de uma forma um pouco abstrata, mas eu quero deixar claro como que isso vai funcionar. Então imagina que começando hoje em algum lugar nos Estados Unidos tem um grupo que decidiu que eles querem afetar as eleições de 2028 de uma forma significativa. E
os Estados Unidos é um país onde basicamente sete estados importam na eleição e e nos nos estados restantes tem menos distritos. Então tem menos influência. Então tem um número muito pequeno de eleitores, digamos 100.000 eleitores, que você tem que se preocupar para afetar o resultado em 2028. Então imagina que esse grupo diz: "Vamos construir um monte de botes que vão engajar como seres humanos". O o problema não é que as pessoas se confundem com humanos, o problema são que esses esses bots são muito divertidos de engajar junto com eles. Eu vou tentar explicar, vamos ver
se isso funciona. Isso vai ser uma versão em vídeo a respeito disso. Vamos ver se eu consigo ajustar aqui. Maia, você está aqui. Olha só. Vê se não é minha conversa. favorita. O que que você tá fazendo tão cedo? Ah, eu tô aqui com aproximadamente 150 pessoas. Não se preocupe, eu entendo. Às vezes o silêncio é uma linguagem, mas me deixa curioso, tá? Isso não tá funcionando porque ela não consegue me ouvir, mas o ponto é, se ela pudesse me ouvir, eu eu te convenceria que ela é alguém extremamente divertida para para usar meu tempo,
perder meu tempo. Claro que um um bote conversacional não é tão interessante para todo mundo. Se você é um homem mais novo do que 30 anos, a gente começa a associar o bote conversacional a um Only Fans, uma coisa assim. Não é só um bote, mas é um bote gerado pela I que é engajador, que flerta com você e influencia as pessoas a a alimentar suas fantasias. E o ponto é a democracia mirada, à medida que eles começam com esses com essa conversa com com bot, ele começa eles começam a mapear as psicologias com essas
dessas pessoas. E em 2028, uma vez que eles entendem quais os botões que eles podem apertar e o que que eles vão falar, ah, eu não posso conversar mais com você. Se você vai votar pelo por X, eles começam a direcionar os votos de acordo com que a tecnologia quer que eles sejam direcionados. Lembra do filme Demarian Candidate? Isso é como se fosse um exército de bots, porque tem milhares desses que tão que tão dirigindo de uma forma específica. E é por isso que dizem que 2024 foi a última eleição humana, porque nessa eleição o
engajamento, a consequência do engajamento da tecnologia que é completamente invisível, porque ninguém vai saber. Nenhuma das atividades que eu descrevi aqui tem que ser declarada e não dá para rastrear. Só tá acontecendo na internet com tudo com com todo mundo vendo. O sentido é esse que ele tá correto ou que o Samman tava correto, que tem sido uma história mal contada. E isso foi o primeiro ponto que eu queria tocar. O segundo é quão errado que isso que ele tá. E isso ainda mais assustador, porque quando ele fala que é o primeiro desalinhamento em escala
da IA, o que que ele quer dizer com desalinhamento? Em que sentido ele quer dizer o o desalinhado? Então, Andrew Bosworth, que trabalha no Facebook em antes da eleição, ele escreveu para todos os empregados do Facebook porque eles estavam muito ansiosos pela eleição, porque eles se sentiam responsáveis e eles realmente eram responsáveis pela eleição do Trump em 2016. Então o Andrew Bosworth estava tentando endereçar a ansiedade deles e explicar qual que era a posição do Facebook sobre a relação deles com o resultado da eleição. E o Andrew, ele explicitamente ele escreveu isso. Eu espero que
as pessoas encontrem, descubram que os algoritmos estão expondo os desejos da humanidade. Isso é um açúcar, sal, açúcar, sal e gordura. Um problema de açúcar, sal e gordura. não é só sobre a realidade, mas é é como que o corporativismo afeta eh como um líder tentou reduzir eh o uso do açúcar, eh mas os consumidores queriam açúcar, então em vez disso, ele apenas reduziu o market share da empresa Craft. Então, e isso gerou uma crise e no próximo CEO da empresa, na verdade, guiu as pessoas o que elas queriam. Ou seja, dar a decisão às
pessoas é bom, mas forçar alguma decisão nas pessoas é é ruim. Ou seja, nós somos forçados a perguntar qual responsabilidade os indivíduos têm por si próprios. Então, eh, e a claro que existe uma alteração da nossa bioquímica e nós temos que tornar isso mais transparente, mas cada um precisa assumir responsabilidade por si mesmo. Se eu quero comer açúcar e e morrer mais cedo, é uma posição válida. O meu avô tinha essa posição em relação ao bacon e eu admirava ele por isso. E a mídia social é bastante menos fatal do que bacon. Eu não sei
se isso é verdade. Se nós compararmos Bacon com mídia. O ponto é o Andrew Bosford tá dizendo aos empregados do Facebook que o problema da democracia não pertence ao Facebook, é um problema da democracia. O Facebook é uma corporação, não irá engajar em paternalismo corporativo, ainda que isso do que eles fazem, além eh eles alteram o conteúdo para se tornar mais viciante, ele ainda assim ele não é responsável pelas consequências. se eximindo dessa responsabilidade. Facebook é uma corporação e como o David Runsman colocou, temos que reconhecer as corporações são um tipo de inteligência artificial. Se
você pensar sobre IA e com um pouco de perspectiva, é uma inteligência. Fazemos a distinção entre artificial e natural. Achamos que os os seres humanos estão no o topo da cadeia da inteligência. A inteligência artificial a inteligência que nós criamos. E o ponto que ele fala é que nós já temos já há muito tempo criado inteligência artificial, não digital propriamente, mas podemos chamar de IA analógica. As entidades, as instituições com propósitos que agem no mundo de maneira instrumental para avançar os seus propósitos, podemos chamar de IA analógica. Alguns exemplos nós temos visto nos últimos milhares
de anos da humanidade são racional eh instrumentalmente racional. Por exemplo, o estado. O estado é uma IA na lógica e tem instituições, eleições, parlamentos, constituições, com o propósito e algum propósito coletivo. Nós sabemos no nós falamos que nos Estados Unidos queremos formar uma unidade perfeita e o Estado é um a inteligência artificial analógica devotada ao bem comum, pelo menos se espera. Da mesma forma, a corporação é uma analógica, tem instituições, conselhos, gestão, finança, com o propósito de ganhar dinheiro. Eh, e mas há distorções de pessoas impressionantes. Freedoman começou a espalhar a ideia de que a
responsabilidade corporativa é aumentar o os lucros. é uma visão moderna e absurda, mas precisamos reconhecer eh o que é as corporações americanas pensam que estão aí apenas para maximar maximizar o valor dos acionistas e então ela busca esses objetivos cada vez mais eh eficientemente eh apesar dos custos que trazem para outras pessoas. Então, Facebook é uma e a analógica meta eh tem uma função objetiva que é maximizar eh lucros e maximizam isso ao longo da sua função objetiva. Então, quando dizemos que aí a eh e a IA, esse foi o primeiro caso de IA desalinhada,
é isso que eu quero enfatizar, está socialmente desalinhada, democraticamente desalinhada. mas alinhada perfeitamente com o mundo corporativo, eh, ou seja, com os objetivos da corporativa, das empresas que usam essa tecnologia. O modelo de negócios do engajamento estava em linha com, então isso era beneficial eh privadamente, mas não publicamente, ou seja, eh lucrativo privadamente, mas destrói a coletividade pública. E e eu espero que vocês tenham a mesma reação que eu tenho. Ah, é apenas o modelo de negócio que nós estamos falando, apenas o modelo de negócio. E em qualquer modelo de negócio, devemos fazer a pergunta:
os benefícios superam os custos? E os os custos aqui são profundos? O custo aqui é a democracia. Então, se você me disser que a única forma de resolver o problema da mudança climática seria destruir a democracia, eu não, eu ia concordar com você, eu ia, mas eu tentaria entender, eu ia entender isso. Se você me disser que a única forma de acabar com a fome mundial é destruir a democracia. Bom, eu entendo o que você tá dizendo, não concordo, mas eu entendo o ponto que você tá tentando trazer. Mas quando você diz que nós vamos
destruir democracia por eh para que alguns caras do Silicon Valen pode se tornar mais ricos, eu não entendo como você pode pensar dessa forma. Eh, não não é dessa forma que nós devemos proceder, dado o que sabemos agora, sobre o como a tecnologia vai destruir a capacidade da democracia funcionar efetivamente. Então, o que pode ser feito? Como podemos consertar isso? A realidade nos Estados Unidos, a única forma que nós podemos consertar de acordo com a uma decisão das cortes mais superiores é que precisamos de uma nova legislação. Pode haver uma nova legislação? Isso pode ser
perguntando, por exemplo, uma instituição como o Congresso criar esse tipo de legislação. Eh, ou seja, eu pedi o Dali para fazer nossa visão do Congresso e foi isso que ele gerou. Mas não é se o Congresso poderia passar essa lei, mas essa poderia eh sobreviver à primeira emenda americana que fala sobre liberdade de expressão. Eu acho que apenas se houver mudanças radicais na forma como pensamos sobre liberdade de expressão na na Constituição americana, isso só poderia acontecer se isso acontecesse. Ou seja, a ideia eh é um pouco distante, mas o que pode ser feito de
maneira imediata? Então, o que podemos fazer hoje, não apenas nos Estados Unidos, mas em todos os lados? Eu acho que o foco imediato precisa ser nas consequências desse modelo de negócio. E o que nós devemos perguntar é: como nós podemos destruir isso? Como podemos explodir esse modelo de negócios? As pessoas como o Team Juan acham que nós não temos que preocupar com isso, que isso vai explodir sozinho. Ele diz, ele escreveu esse livro sobre a crise do subprime, eh, subprime da atenção. Ou seja, a capa não é muito boa porque tenta, tá um pouco confusa,
mas o ponto é que se você olhar pra parte econômica desse mercado, isso vai desmoronar. Mas se não vai desmoronar sozinho, o que nós podemos fazer desde a política, desde as políticas para dar um empurrão eh desde o precipipo? Então, quando olharmos por uma taxa de engajamento quadrático, seja baseado em quanto o seu consumidor engaja com a sua plataforma, imagina aqui que para cada uma unidade é dó de imposto, para dois seria quatro, para três seria 9 dólar de taxas de impostos. E o ponto é que eh vai chegar ao ponto que a empresa vai
dizer: "Ah, não vale a pena para você estar na minha plataforma. talvez você deva parar de usar porque tá muito caro para mim eh em impostos eh pagar pelo engajamento com a minha plataforma. Então, se esses impostos estiverem aí, eles vão aprender a criar um novo modelo de negócios, um novo modelo de fazer as pessoas se engajarem com esse modelo de negócio e não de maneira destrutiva. É um pouco difícil isso. Isso não é permitido na legislação americana. Mas se pensarmos, por exemplo, eh, numa parte pequena desse mercado, por exemplo, para crianças, se você dizer
que o modelo de engajamento, modelo de negócio de engajamento não é permitido para as crianças, isso deveria eh ter impostos altos. Eu acho que a a viabilidade disso eh de ser legislado, seria eh viável, porque nós vemos a destruição que está fazendo com as crianças nos seus eh celulares. Então, qual é o prazo mais longo? Eu acho que o primeiro ponto é que a gente tem que reconhecer que se a gente quer lutar contra esse plano de negócios, é melhor lutar contra ele antes dele se tornar um plano de negócios. O desafio de de lutar
contra ele no engajamento, na nas mídias sociais, é que agora eles são os as empresas mais poderosas de mídia no mundo e se você quer lutar contra eles, você é o Davi e ele é o Golias. E 99% do tempo o Davi não consegue ganhar do Golias. Então, a ideia é que você vai conseguir destruir eles hoje com taxas, com impostos. É um pouco ilusório, mas o ponto é, a gente não sabe qual que é o plano, qual que vai ser o plano de negócios da IA. E eu tô falando sobre a IA que vai
que vai sair do chat EPT ou coisas assim. E a gente tá começando a ver essas empresas explorarem planos de negócios diferentes, inclusive replicar o plano de negócios do engajamento. A questão é que os legisladores hoje em dia eles têm que pensar como que a gente consegue se afastar de planos de negócios destrutivos e na direção de planos de negócios construtivos. como é que a gente faz antes de se investir neles e antes de ter consequências negativas pra gente? Então isso é é o imediato, de imediato. Eu não sei se vocês assistiram esse filme, A
Quiet Place, um lugar silencioso, mas é a história de um alguns extraterrestres que tem uma inabilidade importante. Eles não conseguem ver, eles só conseguem ouvir. Então, esses ETs caem aqui no mundo e eles eles começam a matar tudo que eles escutam, que eles acreditam que tenha vida. E eles e o que acontece é que os os seres humanos têm que se tornar silenciosos. O único jeito que eles sobrevivem é se eles não fizerem nenhum barulho. Então aqui temos uma inteligência extraterrestre forçando as pessoas a se mudarem para um lugar silencioso. Nós fomos invadidos pela IA,
pela inteligência artificial. E eu acho que a gente tem que mudar a nossa democracia para um lugar protegido. Uma democracia protegida. uma democracia onde nós não estamos vulneráveis à manipulação da IA. um lugar onde todos nós estamos protegidos em conjunto, onde nós podemos discutir juntos, porque milhares de anos de evolução nos nos deram pelo menos uma habilidade extraordinária. não é a habilidade de resistir aos iPhones, mas é a habilidade de conseguir conseguir deliberar em conjunto e chegar num entendimento comum sobre o que deveria ser feito. E nós temos essa habilidade. E existem movimentos que estão
tentando alavancar essa habilidade para fazer a democracia funcionar de uma forma melhor. Então é um movimento de assembleia cidadã. É uma aleatório, é um grupo aleatório que estão informados sobre alguma questão e eles têm a oportunidade de deliberar em conjunto. E o que eu tô sugerindo é que esses quatro elementos juntos é o que a gente precisa na democracia protegida. Então, por exemplo, na Islândia, depois da crise de 2008, milhares de cidadãos da Islândia deliberaram sobre o que devia estar na na nova Constituição. Eles criaram uma nova constituição que foi aprovada por por 2/3 da
população. Afinal, eles eles não implementaram, mas o que importa é que as pessoas produziram uma constituição por meio desse processo que facilitou, que foi facilitado por meio da deliberação. Todos os anos na Irlanda hoje em dia, existe uma deliberação todos os anos sobre temas como como aborto e e coisas nesse sentido. Eles se juntaram e promoveram um balanço sobre a descriminalização do aborto e as ideias foram levadas para um referendo e teve um apoio muito grande. A França hoje em dia tá fazendo uma assembleia sobre o clima, uma assembleia de cidadãos, mas nós temos movimentos
democráticos ao redor do mundo inteiro. Isso é a única atividade que incentiva as pessoas a dizer: "Uau, é aí assim que a gente imaginou que a democracia poderia ser no espaço da democracia hoje em dia. É isso que tá acontecendo e tá acontecendo milhares de vezes ao redor do mundo. é um movimento que essa é a mais importante ativista que é a Cláudia e tá espalhando essa prática pelo mundo em algum sentido. Essa é a única esperança a longo termo que a democracia pode ter de recuperar a nossa própria esperança em nós mesmos. é a
única esperança de uma prática que pode nos mostrar que a gente realmente pode fazer democracia, porque eu acredito que isso é uma das realidades mais assustadoras que as mídias sociais produziram. Em 97, começamos a nos perguntar se o público americano confiava na sabedoria do próprio povo de fazer, de tomar decisões. Eu não sei qual que seria a visão do mundo sobre isso, mas o que que os americanos pensam sobre eles mesmos? E em 98, 2/3 dos americanos disseram que eles eles têm confiança nas suas próprias nos seus no seu próprio juízo político, na sua própria
opinião. E e 25 anos depois disso, esses números inverteram. A gente não tem nenhuma confiança. 2/3 de nós não temos confiança na nossa opinião política. Isso é porque nós estamos sendo mostrados para loucuras de ambos os lados. E é claro, se você vê essas loucuras, como é que você como é que você acredita que esse é o público que você deve apoiar? E isso enfraquece o apoio à democracia, que quando não tem mais nada eh no campo, isso isso alimenta essas crises. Mustafa Sulaman foi um um teórico que tá no centro da da IA da
Microsoft. Nesse livro ele descreve de uma forma que eu não acho que ele seria permitido hoje em dia, mas que são as ameaças e os riscos que a gente deveria ter sobre como a IA tá sendo desenvolvida. Mas o livro fala sobre algo que eu acho que é que é um desafio muito importante que a gente tem quando a gente olha para esses problemas. ele ele descreve como o pessimismo, a versão ao pessimismo, eh a tendência de ignorar ou diminuir as narrativas que eles vêm como negativas, eh uma variação do do viés de otimismo. E
é algo que acontece muito nos círculos tecnológicos. E o ponto que ele faz é que quando você ouve histórias como as que eu acabei de contar para vocês sobre a grande ameaça que nós precisamos entender o que ia e o que ela, em que ela vai se tornar, a resposta normal, pelo menos entre as elites, é eh ensinar a si mesmo a ignorar, porque o que nós vamos fazer sobre isso? E a vida é muito curta. Então eu acho que o ponto crítico para se reconhecer é que nós não temos essa escolha. Não, porque em
algum lugar no futuro teremos um desafio que teremos que enfrentar, mas porque a onda não está vindo, a onda já chegou, o tsunami já chegou e já tá destruindo as democracias à volta do mundo. E apesar de eu admirar o sucesso extraordinário que vocês enfrentaram e as ameaças que vocês enfrentaram, eu não posso dizer que eu tenho confiança que aqui vai ser diferente de outras partes do mundo. Todos nós enfrentamos esses desafios comum e precisamos encontrar respostas em comum se vamos preservar a oportunidade para as democracias que, por exemplo, foram celebradas aqui nos últimos 5
anos em outras partes do mundo por centenas e centenas de anos. Eu estou muito agradecido pelo seu tempo, sua atenção e eu estou feliz de ter a oportunidade de deixar vocês mais depressivos eh com a esse tempo que tive aqui. [Aplausos] Ainda estamos todos nós sob o impacto dessa apresentação vigorosa do professor Lawrence. Lic, eu preciso dizer que eu tenho uma visão eh com, eu não diria otimista, a frase boa do ariano Soaçu, né, em que ele diz: "O pessimista é um chato e o otimista é um tolo". a gente tem que ter algum grau
de realidade. E acho que o professor Lessic nos adverte para alguns perigos reais que nós estamos enfrentando. Eu me lembro de uma passagem do Yvalon Harari em que ele diz: "Nem tudo que eu profetizo é porque vai acontecer. Eu profetizo para evitar que aconteça. E, portanto, acho que um pouco o papel que o professor Lic desempenha é nos advertir para muitos dos riscos em relação aos quais nós precisamos estar atentos para, na medida do possível evitar que eles aconteçam. O o cenário que o professor Less descreve é um um cenário em que, na minha visão,
uma quarta revolução industrial que é da inteligência artificial se sobrepõe sobre a terceira que nós estávamos vivendo, que era a revolução tecnológica ou digital. A revolução digital, ela modificou a nossa vida na medida em que ela democratizou o acesso à informação, democratizou o acesso ao conhecimento e democratizou o acesso ao espaço público. Essas são as vertentes positivas, eu penso, da revolução digital. As consequências negativas foram a abertura de avenidas para a circulação sem filtro da informação, porque acabou a intermediação que a imprensa tradicional fazia. E, portanto, as opiniões, ideias, notícias, manifestações chegam ao espaço público
sem filtro. Produziu-se uma imensa tribalização da vida em que as pessoas recebem apenas as notícias, as informações, os anúncios, ex-idei que confirmam o que elas já achavam. E com esse viés de confirmação, as pessoas vão ficando cada vez mais convencidas das suas próprias razões, vão radicalizando as suas posições, vão ficando intolerantes e da intolerância paraa violência o passo é pequeno. E o a terceira grande preocupação que está subjacente à fala do professor Lessi, que tal como eu a compreendi, é que a imprensa tradicional, um trabalho importante de uma colega do professor L, que é a
Marta Minel, a imprensa tradicional desempenha um papel que vai, além de ser um business privado, um papel de interesse público, que é criar uma massa de informações que correspondem aos fatos objetivos e comuns sobre os quais nós formamos as nossas opiniões. Portanto, a imprensa tradicional, embora a verdade não tenha dono e seja plural, mas havia um conjunto de fatos objetivos sobre os quais nós trabalhávamos. O que esta revolução trouxe foi a possibilidade de cada um criar sua narrativa e aí a verdade vai perdendo relevância e as pessoas acham que mentir passa a ser uma estratégia
legítima para realizar os objetivos que elas escolheram. Acho que essa preocupação, que eu também compartilho, está subjacente às preocupações do professor eh Less no modelo de negócios. E essa foi a ênfase dele também, tal como eu compreendo, o modelo de negócios das plataformas digitais se baseia em dois pilares. Um é a coleta de dados e o outro é o engajamento. E como ele bem observou e infelizmente paraa condição humana, o ódio, a mentira, a fala que gera indignação traz mais engajamento do que a fala moderada, do que a busca da verdade possível num mundo plural.
Portanto, há um incentivo perverso para disseminar o ódio, para disseminar o mal. De modo que a encruzilhada que nós vivemos, nós professores e nós juízes, é onde traçar a linha própria para proteger a liberdade de expressão, mas impedir que o mundo desabe num abismo de incivilidade, de disseminação do ódio e da mentira. Acho que essa é a grande encruzilhada que a civilização contemporânea está eh vivendo. E aí, nesse mundo que o professor LIC descreve, houve uma imensa perda da civilidade, o que traz mais engajamento, e isso é preocupante. Houve uma perda da importância da verdade.
Houve uma um certo desprezo pelas instituições de conhecimento. Portanto, há muitas consequências negativas desse processo todo que nós estamos eh falando. E o professor eh fala como vai ser o business model no futuro? é difícil de prever transformação que nós estamos vendo. E eu gosto de lembrar o telefone fixo, aquele preto que a gente mantinha na sala, ele levou 75 anos para chegar a 100 milhões de usuários. O telefone celular levou 16 anos, a internet levou 7 anos. O chat GPT chegou a 100 milhões de usuários em 2 meses. Portanto, essa é a velocidade da
transformação e a dificuldade de nós prevermos o modelo do futuro e de regulado. conversava com o professor Lic privadamente anteontem e eu disse a ele, parte desses problemas, a minha expectativa é que vão ser superados quando surgir uma nova tecnologia e essa começar a ficar obsoleta, como aconteceu, não digo obsoleta, mas o rádio veio depois da imprensa, a televisão veio depois do rádio, a TV a cabo veio depois da televisão, agora vieram as redes sociais. É possível que tenha alguma coisa vindo aí no futuro. Só não tem certeza se vai ser propriamente melhor. E a
última preocupação que o professor Lessic manifestou é a minha também, como a gente preservar a democracia que já vivia os seus problemas antes das redes sociais, que é a democracia não cumpriu as todas as suas promessas, que eram as promessas de igualdade, de oportunidades e de prosperidade para todos. Portanto, existe uma grande quantidade de pessoas que não foi seduzida por esse projeto democrático, porque elas estavam excluídas dele. E além desses problemas que nós já tínhamos com a democracia, nós agora passamos a ter esse problema novo, que é a manipulação da nossa vontade e há estudos
da neurociência pesquisando isso, a manipulação da nossa vontade com grande habilidade pelas redes sociais. acopladas à inteligência artificial. E a conclusão do professor Less, tal como eu interpreto, porque ele pode fazer interpretação autêntica, ele procura fazer um resgate da razão e de uma certa razão pública através dessas assembleias de cidadãos, assembleias deliberativas. é o difícil resgate da razão num mundo em que as redes sociais incentivaram as emoções e as piores emoções. E de certa forma um mundo em que a isso se acoplou um tipo de fé em mitos no mínimo questionáveis. De modo que a
conclusão do professor Less é como voltarmos à prevalência da razão no mundo em que está dominado pelas emoções e pela fé. A fé significa que a pessoa não precisa de fatos. E quando os fatos não correspondem à aquilo que elas acreditam, pior para os fatos. É isso que é a fé. E é um pouco o que a gente tem assistido neste mundo em que as pessoas criam as suas narrativas e não precisam dos fatos porque elas têm fé naquilo que elas acreditam e elas querem acreditar naquilo. Acho que é um momento muito interessante e fascinante
da história da humanidade. Eu não tenho uma visão muito pessimista. Acho que nós somos capazes de canalizar essas potencialidades da tecnologia para o bem, mas acho que todas as advertências do professor Lest merecem ser levadas em conta nesse mundo em que nós estamos vivendo, em que nós queremos uma democracia inclusiva e em que as pessoas possam prensar pelas suas cabeças e viverem a plenitude da sua liberdade de ser. Muitíssimo obrigado, professor, por nos proporcionar esse momento muito instigante de uma reflexão muito profunda e necessária. Não é preciso concordar com tudo para levar em conta tudo
que o professor Lic falou, porque acho que são preocupações que vão definir o futuro da humanidade e da democracia. Eu vou passar a fazer algumas perguntas que foram selecionadas. Nós eh temos alguns minutos. Eh, as perguntas estão em português. Is the translation making good sense. Então, ah, vou, OK, vou vou passar a fazer algumas perguntas da plateia da audiência, OK? A primeira, Thiago Marcílio, quais as abordagens regulatórias mais adequadas para combater pontos cegos dos riscos de inteligência da inteligência artificial? Repositórios de riscos compartilhados, relatórios de impacto, ambientes de testagem pré-lançamento, seriam opções eficazes para mitigação
de risco. Então, quais as abordagens regulatórias mais adequadas? É a pergunta central. apresentar argumentos para a Suprema Corte americana duas vezes. Isso é é a primeira vez em que uma a uma Corte Suprema realmente ouviu o que eu tenho a dizer e aceitou as minhas contribuições. Então, estou bem feliz com isso. Acho que as estratégias regulatórias é uma pergunta muito importante agora mesmo. ano passado eu tive a honra de representar como probono eh 15 whistle blowers da Open AI. Eram pessoas que saíram da Open AI e estavam querendo certificar que o público entendia as as
ameaças que eles viram. E antes de encontrar com eles e falar com eles, eu eu não entendia os riscos muito bem. Eu tinha um um um compreensão básica, mas depois de conversar com eles eu fiquei eh aterrorizado o que estava acontecendo na empresa. Eh, não é isso não quer dizer que vai ser um caso de eh Terminator, mas os controles internos não eram suficientes para garantir que as empresas não iriam produzir essas tecnologias eh que podem causar danos catastróficos. Então, acho que a primeira estratégia regulatória precisa ser proteger os whistleblowers, as pessoas que têm informação
que os que o público e os reguladores precisam saber. E eu sei que isso é difícil legalmente, porque tipicamente as proteções do whistle blower são para as pessoas eh quando as pessoas revelam crimes de uma empresa em elas são protegidas nesse contexto, mas não existem crimes aqui. Então, eh eles não estão revelando atividades criminosas, estão apenas revelando informações que eles, como especialistas acreditam que são informações que os reguladores precisam conhecer. Então precisa ver um canal claro de para aqueles insiders fornecerem essas informações para os reguladores. E aqui eu acho que vocês têm os seus governos
têm tantos, tantas facetas e tantos departamentos sobre regulação da IA. Então acho que é uma oportunidade rica para eh observar os riscos. Eu acho que o segundo ponto é que os reguladores precisam engajar num diálogo eh contínuo com as empresas sobre como eles pensam que eles vão ganhar dinheiro. Precisamos é começar a tirar da gaveta os business models, os modelos de negócio, pensar o que eles estão imaginando que vão fazer para ganhar dinheiro e como isso vai afetar eh o público com as informações, porque eh na nós estamos numa era dourada da IA e parece
que o não é parece como Google em 2003, 2004, porque lá atrás o Google era esse esse motor de busca interessante, nos dava os resultados. sobre o que era a informação mais relevante que havia. Isso era antes de antes de criarem eh as propagandas e os anúncios, ou seja, apresentar os resultados de anúncios. E hoje as pessoas olhem olham pro Google e vem é muito menos capaz de fornecer resultados que nós queremos, agora está otimizada para fornecer resultados que geram mais receita e lucro. Isso é uma grande perda. Eh, nós perdemos esse recurso extraordinário que
estava à disposição do interesse. Eu não, eu eu não eu não eu não acho que precisamos fechar essas empresas, mas eh precisamos pensar se podemos evitar esse tipo de perda com a IA. Se você vai no chat PT e você dizer: "Estou na Brasília, me diga um grande restaurante e eu quero comida italiana". O GPT vai falar onde ir. E se você falar, me diga, você está sendo pago para me dizer isso? ele vai dizer: "Não, não, não está sendo pago. Está fazendo isso com base nas informações." Enfim, nós devemos pelo menos perguntar aos reguladores.
É isso. Essa realidade é algo que nós queremos preservar, porque a infraestrutura das informações que nós dependemos e nós passamos o nosso tempo cada vez mais conversando com as IAS, é muito diferente se isso está sendo leilo para quem dá mais. E em vez de refletir a sabedoria das populações, das multidões, eh, como customeiramente fazem. Fúio. No passado, o senhor publicou uma resposta à posição do professor Frank Easterbrook sobre seu artigo Cyberspace and the Law of the Horse de 1996. Passados quase 30 anos desse artigo do professor Easterbrook, qual sua leitura sobre a necessidade e
caminhos de regulação das tecnologias atuais, incluindo inteligência artificial e internet das coisas e as diferentes abordagens que partes do Globo estão adotando, como os Estados Unidos. e a Europa, por exemplo. Então, 30 anos atrás, Frank Eastberg é também juiz e ele escreveu um artigo para atacar o meu trabalho sobre a legislação do Cyberspace. Era, era um amigo, então foi um ataque amigável. Ele disse quando eu estava falando sobre a legislação do ciberespaço, estava falando como a lei das prostitutas. Ou seja, tem existe existe leis de contrato com cavalos e e várias coisas, mas falar sobre
essas coisas não ensinava nada sobre regulação. Eu pensei que eles que ele estava errado a a época. Acho que muitas pessoas podem ver porque ele estava errado. Porque o ponto do argumento que eu fiz sobre a lei do ciberespaço é que a única forma de compreender a legislação, a regulação, é pensar sobre a interação entre lei, mercados, normas e arquitetura, tecnologia, etc. e se a única forma de e compreender isso sobre as restrições, é pensar sobre as interações dessas partes. E qualquer regulador eh de com bom senso vai pensar nas trocas, no tradeoff, no custo
benefício. Vamos mudar a lei para tentar mudar as normas, vamos mudar a lei para tentar mudar os incentivos de mercado ou se vamos mudar as arquiteturas. Por exemplo, vamos pensar em cigarros, ou seja, não estão relacionados com ciberespaço. Nos Estados Unidos existe um esforço para reduzir o consumo de tabaco. Uma técnica é pro o estado passar uma lei e dizer: "Você não pode fumar até 18 anos." Isso é uma regulação direta do consumo dos cigarros. talvez seja efetiva ou não. A segunda coisa que a que a lei fez é tentar estigmatizar os fumantes, tentando mudar
as normas, seja com propagandas e que sugeriam que os fumantes não estão pensando sobre as pessoas porque tem eh o o fumante passivo e não pensam sobre a saúde dos outros. E o ponto é criar um estigma aumentado com relacionado a ao fumo e isso em teoria reduziria o consumo. E a terceira coisa que poderia ser feito seria eh aumentar os impostos nos consumidores. É claro, os Estados Unidos também subsidia a o tobaco, mas eh se você aumentar os impostos nos cigarros, isso vai diminuir a demanda e isso reduzirá o consumo. Então, a administração do
Bio Clinton tiveram uma ideia brilhante. Eles queriam regular os cigarros como como dispositivos de entrega de nicotina, ou seja, como uma droga farmacêutica. eles iam regular a quantidade de nicotina no cigar nos cigarros, ou seja, reduzir o fator vício nos cigarros, na arquitetura e dessa forma eles atingiriam o objetivo. Ou seja, isso teve bom senso. Eles tiveram que tentar sobre esses quatro elementos no ciberespaço, eh especialmente verdadeiro, porque podemos ver que essa arquitetura como ela mudou e mudou o comportamento das pessoas. Eu pensei que este ponto estava muito aparente. Eh, muitos não entenderam, mas como
eu falo, medida que eu falo desse livro e tô e tenho feito muitas palestras eh por causa do 20º aniversário dos do código, acho que muitas pessoas pensam que é óbvio. Se você não pensar como a tecnologia está apoiando ou atrapalhando as políticas, você tem que ver isso. Se você não pensar como o mercado está conduzindo, eh, independente das políticas, você vai não vai conseguir e criar regulações. Então, você precisa pensar sobre regulação. Isso tem se tornado mais comum. A última vez que eu encontrei com Frank, ele estava sugerindo que talvez eu estivesse correto. Professor,
a pergunta é a seguinte, veio em inglês do Rodrigo Canali, de modo que é preciso inverter a tradução. OK. A fala de hoje me ajuda a lembrar o paper de Lley Dominions, dois, os dois artefatos da das políticas. Algumas tecnologias mudam o mundo tão profundamente que elas definem o tempo de o tipo de organizações políticas disponíveis. Quando ele escreveu em 1980, o maior exemplo era uma tecnologia que se tornou os estados mais fortes com eh burocracias militares e evitando estruturas políticas. Com a chegada da tecnologia digital, a democracia, como nós conhecemos, ou democracia ocidental, liberal,
eh, representativa, ainda é viável. pode ter sucesso neste mundo em que a IA existe? Ou talvez precisamos enfocar a nossa energia em desenhar novas formas criativas de organização política se não quisermos ser eh transportados para algum tipo de barbaridade. É uma excelente pergunta. Eu, e eu poderia classificar isso, meu livro Code, como eh, ou seja, enfatiza as consequências políticas que derivam de arquiteturas técnicas. Mas se existe uma maneira de reescrever esse livro, seria reconhecer que não é apenas a arquitetura, é o modelo de negócio que está por cima da arquitetura. Ou seja, lá atrás, em
1980, os deuses da internet, eles poderiam ter eh eles poderiam ter usado linguagem nazista de ódio, homofóbica, isso estava lá, mas não era um modelo de negócio para os fornecedores do acesso à internet amplificar esse tipo de narrativa e diminuir as falas contrárias. Eh, ninguém ganhava dinheiro com isso. Eh, hoje elas ganham dinheiro tornando isso como a primeira página da internet, porque outra tecnologia e ah, permitiu isso a se tornar lucrativo, se tornar um modelo de negócios viável. E não precisa e e nós temos que lembrar que é muito lucrativo quando o Google lançou e
o Facebook melhorou essa técnica de alavancar e a inteligência artificial para produzir eh riqueza com anúncios. E isso é muito lucrativo. É o modelo lucrativo nessa escala que nós temos hoje. Então é o modelo de negócios que temos que ter medo. E quando vemos um problema de modelo de negócios, eu penso outra vez pensando sobre eh regulação, holisticamente podemos perguntar: "Existe alguma tecnologia que pode diminuir esse tipo de modelo de negócio de forma que não seja tão destrutivo? existe uma diferente forma, uma forma diferente de democracia que não seria tão vulnerável a esse modelo de
negócio. Então, quando eu chamo de democracia protegida, é uma democracia que não é tão vulnerável esse tipo de ataques. Ou seja, eh nós nós nunca vamos acabar com TikTok, por exemplo, e ainda que eu queira ou Snapchat ou outras tecnologias. Eh, eu não, quando eu vejo os meus filhos interagindo com isso, eu fico maluco, mas não vamos acabar com elas, mas podemos minimizar o seu efeito destrutivo na democracia de outras formas, eh, para fazer decisões democráticas ou então não é apenas sobre a tecnologia, mas também com relação aos modelos de negócio. Eh, eu vou perguntar,
fazer algumas perguntas, duas perguntas de por vez e você pode responder de todos. Em uma população que deseja acreditar na mentira e no enredo fantasist, a democracia em seu estado literal estaria se autossabotando por permitir a alienação do próprio povo. Outra de Ilegard Evelyn Alencar Bezerra. Você falou sobre assembleias do cidadão como uma retomada da democracia como espaço em que é possível um entendimento comum. Como seria isso em um país como o Brasil extremamente complexo e com dimensões continentais? E a terceira, acho, vou deixar só essas duas que são mais ou menos conexas e faço
a terceira em seguida. Sim. Ótimo. Sim, obviamente o Brasil, como a Alemanha, é um país que teve, ensaiou bem. Eh, existe uma democracia militante, existe uma reconhecimento que a democracia eh pode plantar as sementes das suas próprias destruição e você precisa proteger, criar proteções à volta dessa destruição como autotagem. é uma forma ótima de ver isso. Eu acho que exatamente certo. O meu ponto é que a e relacionada com a mídia, ou seja, diferente da mídia de eh tradicional, ou seja, sim, essa mídia derivada de IA está causando uma autossabotagem, sim. E nós precisamos criar
eh limites, ou seja, precisamos reviver uma democracia mais militante, voltar algumas tradições, mesmo se as cortes tiverem que eh fazer esse eh papel, mas a sociedade precisa fazer, ou seja, as assembleias de cidadãos é uma das formas, é um ponto de resistência para esse tipo de problema. os grandes desafios é como estabelecê-las eh e dar autoridades nas democracias, porque eh claro, existem nerds da democracia que ficam animados para esse tipo de coisa. Eles vêm esse tipo de função, reconhecem o seu potencial, mas para o cidadão comum parece um pouco louco a ideia que você pega
um grupo aleatório de pessoas e você faz com que elas sentem e você vai ouvir essas pessoas, porque você pode fazer isso como é um grupo aleatório de pessoas, mas o ponto é que eh a concepção de um grupo aleatório de pessoa eh eh não é muito diferente do que nos é apresentado nas mídias. sociais. Eh, eh, o que aparece nas redes sociais são os extremos. Então, precisamos experiência, ver como essas assembleias produzem respostas sensatas aos problemas. Acho que a única forma de fazer isso é de baixo para cima, começar a estabelecer nas comunidades locais,
resolvendo problemas locais. E à medida que você aumenta o número de exemplos e as pessoas vem eh que os problemas estão sendo combatidos de maneira sensata, haverá mais confiança eh como instituições que são mais sensatas do que outras formas tradicionais de intervenção governamental. Então o problema com essa resposta é claro, tô falando isso de um processo de 20 anos. O problema, nós temos 20 anos. Será que a democracia tem 20 anos ainda dadas a dada a realidade atual? Não sei. Eu não sei. Se você me perguntar quais são as chances, as chances são de que
nós vamos perder, democracia não vai sobreviver. Aí, mas eu não acho que você precisa olhar para as chances ou as probabilidades. Precisam atuar independentemente das probabilidades. Tem que atuar na direção na direção do que precisamos alcançar. Se vamos alcançar ou não, não é a questão, mas eh o que é a coisa certa a se fazer dada a realidade que nós vemos. Então, eu sei que esses são os passos que nós precisamos tomar e precisa ser imediato. Eh, claro, eh, talvez pode parecer ceticismo ou pessimismo, etc. Vou fazer mais duas perguntas e nós vamos ter que
encerrar em razão do horário de um compromisso de almoço do professor e da sessão do Supremo, que é o meu outro emprego. Pergunta do Thiago Gontijo Vieira, está em inglês. Vou fazer as duas perguntas em sequência. Professor, in the cont of book code, what do you think about legal? Sobre transformar normas legais em código usando dados para guiar as decisões. É a primeira. e a segunda, a liberdade de expressão nas mídias sociais, com a responsabilidade de proteger crianças e adolescentes de conteúdos polarizadores e distorcidos para evitar o surgimento de uma geração cada vez mais desconectada
da realidade e marcada por visões extremas. Essas são as duas últimas perguntas. Deixa eu responder a segunda pergunta. Primeiro, eu acho que a proteção das crianças é o potencial mais poderoso que resolvendo resolvendo esse problema de maneira geral. Então é é poderoso como um potencial, porque é incontroverso que nós temos que tomar os passos necessários para proteger nossas crianças. E eu eu falo das dos pontos negativos da democracia. os ele tá falando dos efeitos psicológicos, especialmente das meninas, e o avanço da depressão, especialmente nas meninas, a mentalidade destrutiva, eh, especificamente nos meninos, como consequência desse
engajamento nas crianças. Eu acho que é um potencial para pra solução geral. Se se a gente acertar na solução, a gente vai começar a regular o o conteúdo e falar que esse esses discursos são proibidos, vamos tirar isso. Isso vai sempre influenciar as pessoas a falar que a gente é contra a liberdade de expressão. Então, a melhor forma é mirar o plano de negócios que afeta as crianças diretamente. Não deve ter engajamento para plano de negócios em cima de crianças. Não, não deve ter anúncios em volta de crianças. Existem livros que falam sobre os efeitos
que tem no Brasil eh na influência das crianças e é muito profundo. Então, nós temos que chegar num num acordo e pelo menos desligar isso para as crianças e depois vamos vamos conseguir ver os os efeitos positivos dessa intervenção e vai suportar de uma maneira geral também. E sobre a pergunta entre de transformar lei em código, o problema de de transformar um livro em um meme é que pode significar qualquer coisa para qualquer pessoa. Existem amigos da da cripto nos Estados Unidos que estão presos porque eles acham que eles podem fazer qualquer coisa no código.
Então, quando eles usam código para roubar dinheiro de outras pessoas, eles falam: "Ah, o código é lei". E eu acho que tem uma oportunidade positiva que a Iá providencia pro futuro da governança, não só na administração, mas também na lei. Sou, eu entendo que existem advogados que que vivem disso, mas eu acho que a gente pode limpar boa parte deles, porque a gente vê o potencial de de espalhar a lei de uma uma maneira mais ampla. Eu falo numa realidade mais americana, mas a realidade da lei americana é horrível, é ineficiente, é cara, extremamente lenta.
E a ideia é que nós estamos super orgulhosos da nossa tradição. Quando a nossa tradição falha de entregar o que ele promete, é uma vergonha pra profissão. A gente tem que ser mais autocrítico de como a lei faz seu trabalho de uma forma muito fraca. E quando a gente vê que a tecnologia pode fazer isso de uma maneira melhor, a gente devia abraçar isso. Não é óbvio, não é fácil e pode produzir resultados terríveis, todo tipo de viés implementado nesses planos de negócios que têm sido desenvolvidos. E é por isso que eu tô muito preocupado
ouvindo que a maioria dos modelos que vocês estão usando no Brasil são desenvolvidos com base nos Estados Unidos. vocês precisam dos próprios negócios, modelo de negócio de vocês, com o próprio material de vocês, mas até aí é uma questão complicada de de como provocar o viés que tem sido implementado e e amplificado. Mas iss são problemas de engenharia. Tem problemas que a gente tem que prestar atenção e ter certeza que a gente tá interessando de maneira correta. Não são problemas conceituais. A gente devia usar a tecnologia para entregar a lei de uma uma maneira mais
eficiente e mais justa. Não em todos os casos. sempre vão ter casos específicos e difíceis que que vão exigir juízes e e igualdade, mas existe uma grande quantidade de casos que a gente poderia tornar em código e e automatizar e simplificar e diminuir o custo. A gente devia acelerar isso e fazer isso logo. Uma última palavra, por favor. Gratidão. Ela foi uma uma excelente assistente. Gostaria de agradecer. Fiquei fiquei chateado quando eu a perdi, mas ela ela tem sido um recurso super importante para essa esse braço do governo. E ministro, eu não consigo dizer quão
feliz eu tô sobre a forma inteligente que você entendeu e lidou com essa conversa. Você é um é um tesouro para a lei e eu imagino que seja um um tesouro para o Brasil também. Muito obrigado. Também eu registro o agradecimento à Aline Osório, secretáriaageral do tribunal, que organizou esse evento e articulou a vinda do professor Lawrence Lessig. que nós tivemos oportunidade, fora esse debate público de alguns debates privados com professores, foram dois dias de intensa troca de ideias com grande proveito e professor LGER, é impossível exagerar, eu diria, o prazer intelectual e eu diria
mesmo, eh, espiritual de ouvir um pensador original e criativo como é o professor Lessic E sabemos todos, sairemos todos. Eu fiz uma anotação aqui, mas eu não consegui entender a minha letra. sairemos todos daqui com um excelente material para reflexão. Eu eu gosto sempre de dizer, uma das frases que eu gosto de utilizar, professor, é que o nosso papel como intelectuais, como professores, como juízes, como cidadãos, é empurrar a história na direção certa. A dificuldade é nesse momento que nós estamos vivendo, em que há um pouco uma encruzilhada. A dificuldade é escolher qual é a
direção certa e acho que a sua contribuição ajuda muito para nós conseguirmos traçar o roteiro da cidadania e da democracia daqui para o futuro. Queria agradecer muitíssimo a presença de todos que puderam testemunhar um momento de grande elevação intelectual, espiritual aqui nesse plenário da primeira turma do Supremo Tribunal Federal. Muito obrigado a todos. Fica encerrada a sessão. [Aplausos]
Copyright © 2025. Made with ♥ in London by YTScribe.com