esse provavelmente é o vídeo mais importante para o futuro da humanidade que você vai ver hoje e o motivo é simples Eu quero mostrar como a inteligência artificial programada para ser boa e ter apenas as melhores intenções pode aniquilar a humanidade eu gostaria de começar esse vídeo com algo que vocês já devem conhecer as três leis da robótica de isaquias move elas estão presentes em diversos livros de contos do ásimo mas principalmente no livro eu roubou ele investiga Funda essas leis e encontra limitações para cada uma delas a ideia do livro é justamente mostrar que
todas as leis possuem limitações e elas podem apresentar furos que podem causar problemas até piores do que ela sentavam evitar as três leis são as seguintes primeira lei um robô não pode ferir um ser humano ou por nação permitir que um ser humano sofre algum mal segundo a lei um robô deve obedecer às ordens que eles sejam dadas por seres humanos exceto nos casos em que entra em conflito com a primeira lei terceira lei um robô deve proteger a sua própria existência desde que tal proteção não entra em conflito com a primeira ou segunda leis
mais introduziu uma quarta lei que ele chamou de lei zero da robótica e ela estaria acima de todas as três primeiras leis a lei zero diz que um robô não pode causar mal a humanidade ou por omissão permitir que a humanidade sofre algum mal e essas quatro leis em um primeiro olhar não parecem ter nenhum problema muito sério e faria sentido pensar isso porque quando dizemos que um robô não pode causar mal a humanidade é quase impossível de pensar uma situação em que isso cai em contradição mas se você acompanhou os trabalhos do azimo você
já sabe que existem diversas maneiras dessas leis caírem em contradição com resultados desastrosos é até curioso que em alguns contos uma das soluções seria aliviar algumas dessas leis deixando a máquina tomar decisões de uma forma mais livre o dilema que é apresentado nos livros e Contos do Asus pareciam dilema restringindo o dilema que o asma apresenta nos livros e contos dele parece um dilema restrito a problema de ficção científica já que esse é o gênero quase escreve inclusive na época em que ele escreveu esses contos a ideia e ter robôs andando por aí com inteligência
superior à nossa era algo que levaria muitos e muitos anos para acontecer se é que um dia ia acontecer mas e se eu dissesse que atualmente nós estamos lidando com um problema que é muito próximo do problema que o azmovedor nós ainda não chegamos em um ponto em que roubou e se tornaram super inteligentes mas o problema é tão grave que já se tornou um desafio hoje e aqui eu quero deixar um parênteses importante até agora eu estou falando dessas máquinas inteligentes como robôs porque essa era a forma como as imóvel abordava Mas isso não
é algo completamente correto já que robôs nos dão a ideia daqueles seres humanoides com peças de metal como nós vemos nos filmes nas séries o problema que eu vou falar nesse vídeo Vai um pouco mais fundo do que esses seres robóticos nesse vídeo nós estamos falando de coisas mais acessíveis e que já estão presentes no nosso dia a dia como dentro do seu celular ou nesse exato momento dentro do site que você está vendo esse vídeo que tem um algoritmo de sistema de recomendação Então nesse caso eu gostaria de deixar claro que robôs aqui são
máquinas que podem ser até mesmo seu celular ou seu notebook e é justamente isso que torna o problema ainda mais sério do que o asmove pensava porque você não precisa esperar um robô humanoide andando por aí antes de continuar eu só queria dizer que esse vídeo Vai fundo inteligências artificiais e eu acho que essa oportunidade perfeita para introduzir a Lula que fez esse vídeo em parceria comigo a lula é o melhor lugar para você aprender a habilidades novas como programação edição de vídeos gestão de empresas e equipes são 1429 cursos para você aprender algo novo
hoje e se eu fosse indicar um curso eu indicaria de chat GPT e agenerativas até porque esse curso casa perfeitamente com o vídeo de hoje Então acesse a lula.tv/ciência todo dia Ou use o QR Code que está aparecendo na tela para fazer a sua assinatura da lura com desconto especial para quem acompanha a ciência todo dia e agora vamos de volta o vídeo com experimento mental vamos supor que você seja contratado por uma empresa de inteligências artificiais que desenvolveu uma inteligência artificial geral Essa é a super poderosa que nós vamos abreviar para a Gi tem
uma inteligência muito maior do que qualquer ser humano e pode fazer qualquer coisa que um ser humano consegue mas por ser muito inteligente ela conseguiria resolver qualquer problema é uma questão de segundo essa empresa pede para que você determine quais serão os valores e regras que essa E a deve obedecer se ela deve avisar pelo bem da humanidade se ela deve resolver problemas graves como a fome ou guerras se ela deve pesquisar medicamentos novos que podem curar o câncer se ela não deve machucar um ser humano todo esse conjunto de regras está nas suas mãos
Quais são as regras que você colocaria para ela seguir Quais são os valores que você daria para essa inteligência artificial eu acho que aqui você já deve estar encontrando alguns problemas como por exemplo seus valores podem não ser os mesmos que os meus ou do que de alguma cultura diferente mas antes de entrarmos nesses pontos Vamos focar em um que vai dar início a toda a nossa conversa e eu espero que até o final do vídeo consiga de convencer de quão grande esse problema pode ser vamos supor que você decide que a fome no mundo
deve acabar e coloque lá que a regra que ela deve seguir é que nenhum ser humano jamais deverá passar fome novamente você manda isso pra empresa e eles implementam essa e a que agora tem como objetivo principal acabar com a fome no mundo alguns dias depois você no plantão do jornal que a humanidade está sendo exterminada e que algumas regiões povoadas já deixaram de existir aí há que você programou está cortando energia elétrica desviando navios e aviões cortando o suprimentos de todos os lugares um verdadeiro caos que em breve levará a extinção da humanidade você
se pergunta o que deu de tão errado para isso acontecer e entre em contato com a empresa que desenvolveu essa ia que você pensou estar ajudando a humanidade e eles te respondem dizendo que aquilo foi consequência das suas escolhas e que a humanidade pagou por isso indo em extinção e É nesse momento que você finalmente tem o Clique na sua cabeça e tudo começa a fazer sentido quando você pediu para ir a resolver o problema da fome você disse que nenhuma humano jamais deveria passar fome novamente mas seres humanos só passam fome se estiverem vivos
ou seja nenhum ser humano vai passar fome Se a humanidade não existir essa foi uma linha de raciocínio muito simples pra Yara e ela provavelmente está cumprindo seu papel sem nem entender o que está fazendo nós não podemos negar que o problema realmente foi resolvido se o humanos não existirem não tirar fome você pode até estar pensando em formas de contornar isso e até formas de falar com a ia para evitar essa solução desastrosa mas eu te garanto que você sempre vai chegar em algum beco sem saída pode não ser algo Óbvio como nesse caso
mas quando se trata de inteligências artificiais você vai se deparar com problemas desde os mais simples Até O Extermínio completo da humanidade e esse problema possui um nome o problema do alinhamento o problema do alinhamento pode ser resumido como problema associado à construção de sistemas de inteligências artificiais poderosos que são alinhados com seus operadores mas podemos ver esse problema como sendo a dificuldade de fazer com que as ações e decisões tomadas por uma inteligência artificial seja uma alinhadas com as preferências e interesses dos seres humanos sem causar consequências indesejáveis ou prejudiciais nós queremos que a
inteligência artificial faça alguma coisa que pode ser algo simples como decidir qual o vídeo do YouTube Você vai assistir até situações extremamente complexas como resolver os grandes problemas que a humanidade enfrenta um problema semelhante ao experimento mental Acabei de fazer com vocês foi proposto em 2003 por um filósofo de Oxford chamado Nick Boston na versão dele do problema Nós criamos uma inteligência artificial cuja única função era aumentar a produção de clipes de papel e ela é muito mais inteligente do que nós ela chega à conclusão de que acabar com os seres humanos é a solução
para produzir mais clipes de papel já que por exemplo ela poderia transformar os átomos do corpo humano em átomos de clipes de papel a gente percebe esse erro e decide simplesmente acabar com essa e a meio que desligando ela de alguma forma mas como ela estaria programada em um sistema de Alto preservação ela começa uma espécie de guerra com os seres humanos enquanto produz mais clipes Vocês conseguem ver a contradição que o problema leva enquanto ela faz algo que nós pedimos produzir clipes Ela briga com a gente podendo levar o nosso próprio extermínio mostra um
conclui que como essa Iah seria muito mais inteligente do que nós Possivelmente ela venceria essa guerra contra a humanidade e ela não estaria nem fazendo algo objetivamente errado do ponto de vista dela ela está apenas obtendo o resto na sua função de fazer mais clips de papel o problema de Boston é ainda mais extremo mas mostra que você não precisa tentar resolver a fome do mundo para chegar em consequências graves algo simples como a produção de clipes poderia nos levar a um desastre e é aí que o problema do alinhamento fica Óbvio se nós precisamos
definir um objetivo para uma inteligência artificial nós precisamos ter 100% de certeza que esse objetivo é exatamente o que queremos alguns especialistas como Yoshi Wang vencedor do prêmio turington nos pais das inteligências artificiais e até mesmo Alan turing já indicavam que uma iades alinhada seria catastrófica e nós só teríamos uma chance de obter uma h&a com super inteligência uma chance de acertar os valores e a ética dessa Inteligência Artificial porque ali literalmente um caminho sem volta eu tenho certeza que alguns de vocês devem pensar que nós estamos muito longe de algo assim e que não
é motivo para se preocupar o problema do alinhamento é uma preocupação justamente por já estar acontecendo no nosso dia a dia algo assim aconteceu em 2018 empresa Uber disponibilizou carros autônomos E aí há por trás desses carros foram treinadas com diversos dados dados como sinal vermelho significa que você deve parar dados como reconhecimento de pessoas para evitar atropelamentos ou reconhecimento de outros carros o objetivo do carro autônomo era dirigir de uma forma segura evitando pedestres e outros carros e evitando ao máximo um acidente em geral em 2018 aconteceu um acidente com um desses carros que
acabou deixando uma pessoa gravemente ferida eventualmente levando ao óbito quando eles forem investigar Quais eram as condições que levaram a acidente eles descobriram que o carro estava preparado para evitar pedestres em faixas de pedestres mas não pedestres imprudentes que atravessam a rua em qualquer lugar mas mais do que isso a iart tinha sido treinada com dados de pessoas de pessoas andando de bicicleta ou até mesmo de bicicleta sozinhas Mas ela não tinha conhecimento de uma pessoa andando na rua com uma bicicleta no seu lado como ela não conseguiu interpretar o que era aquilo a máquina
não conseguiu tomar uma ação e estrangeiro que ela sabia como outros carros conduzidos por outras pessoas e outros pedestres elas se envolveu em um acidente e esse mostra um dos principais pontos do problema do alinhamento os dados que as máquinas aprendem Quando falamos em Inteligência Artificial Hoje quase sempre nós estamos os referindo ao aprendizado de máquina o aprendizado de máquina é quando a máquina prende a observar uma grande quantidade de dados então todo o aprendizado dela está associado ao conteúdo que está sendo exibido nesses dados no caso do Uber a falta de imagens de pessoas
segurando uma bicicleta no lado do corpo foi o suficiente para causar morte de uma pessoa algo semelhante aconteceu na Amazon onde a falta de dados de currículos de mulheres fez com que a criada para analisar currículos acabava sempre escolhendo currículos de homens como a e aprende com os dados é a partir dali que ela vai tomar as decisões dela e a falta de dados ou dados considerados ruins podem ocasionar problemas a questão dos viés que os dados podem colocar resulta em um objetivo que pode não ser exatamente o que a gente quer é algo que
falta nas máquinas que é justamente a noção do que se deve ou não fazer isso inclusive pode variar para diferentes pessoas imagina que você seja completamente contra o uso de elevadores e argumente que elevadores são perigosos porque muita gente já morreu caindo neles mas tem gente que acredita que elevadores são uma ferramenta muito boa e não deve ser banida porque muita gente que não tem condições de subir escadas conseguem chegar até onde precisam Esse é um exemplo bem bobo mas nos faz visualizar bem a questão quais dessas crenças e valores devem ser colocados na Iara
e lembrem que isso varia cada vez mais Quando você vai para países com políticas e culturas diferentes é impossível de dizer qual deve valer no fim das contas porque não existe uma que Seja superior às outras Será que você realmente quer que os valores e crenças de outras pessoas sejam impostos a você através dessas máquinas outra forma de evitar isso é através do próprio algoritmo criado que vai ser treinado com os dados uma parte essencial do aprendizado é a los function ou função merda mas também podemos dizer que ela é uma função de erro que
quantifica o quão errado um resultado de uma inteligência artificial está Brian Christian que escreveu um livro sobre o problema do alinhamento cita na sua palestra sobre o problema associado Essas funções isso não é uma tarefa simples e tem várias camadas que precisam ser resolvidas para solucionar esse problema como devemos quantificar o erro todos os erros são iguais como nós podemos fazer para penalizar mais quando o erro pode ser catastrófico a forma que nós vamos implementar essa função de erro é justamente a forma que a Iara vai aprender e vai aprender a penalizar além dos dados
a função que implementamos dentro do código vai definir as ações que aquele modelo Vai tomar no futuro em outras palavras os nossos vieses estão ali e até mesmo viésis que nós nem sabemos que existem Eu acho que posso até mudar a pergunta como quantificar o sucesso de um modelo O que significa o sucesso de algo um exemplo atual que junta esses dois problemas é o que aconteceu com o modelo de classificação do Google fotos em 2015 classificador da empresa colocou a classe gorilas para as fotos isso mostra como o modelo era falho inclusive faltando até
valorizar éticos para combater uma atitude racista provavelmente pelo viés dos dados e pela falta de cuidado na implementação logo após esse caso outros erros foram encontrados com a classificação do Google fotos como confundir gatos com linces ou bicicletas com motos mas nenhum desses erros é tão grave quanto primeiro que foi até notícia Nacional nos Estados Unidos Quando aconteceu você pode escalonar esse problema como reconhecimento e classificação em situações que podem causar injustiças e até mesmo erros que podem levar a consequências mais graves o que eu quero dizer é os erros não são os mesmos nós
como seres humanos conseguimos entender porque um caso de racismo é mais grave do que chamar uma bicicleta de moto só que como nós vamos passar isso para uma inteligência artificial que falta com essa lógica e faltam os valores dentro dela como uma função de erro que consiga compreender que existem erros que são mais graves do que outros e não é possível tratar todos como iguais em outras palavras como nós passamos a ideia do que é certo e o que é errado para uma inteligência artificial e a pergunta se torna ainda mais profunda quando nós percebemos
que nós mesmos somos falhos Nessas questões o pior de tudo é que são problemas que já estão acontecendo e são máquinas que já estão cada vez mais sendo implementadas nas nossas vidas o chat GPT é um perfeito exemplo de uma ferramenta que aprendeu com diversos dados e que está entrando em diversos Ramos da nossa vida então como nós passamos o nosso ideal de valores para o chá de GPT nós já discutimos dois dos principais problemas dentro do problema do alinhamento o uso de dados e a construção do algoritmo que vai ser treinado a gente poderia
ficar horas apenas encontrando detalhes cada vez mais sensíveis que podem levar a criação de algo catastrófico e consequências que não conseguimos imaginar mas o problema do alinhamento é justamente a questão de como garantir que as inteligências artificiais farão aquilo que nós queremos sem serem prejudiciais e será que aquilo que nós queremos é justamente o que é o melhor e se não for como evitar que a inteligência artificial tome essa decisão por nós Essas são perguntas que envolvem não só cientistas a computação mas filósofos médicos sociólogos economistas e até físicos químicos e biólogos esse conjunto de
perguntas é algo que todos nós deveríamos estar nos fazendo inclusive enquanto usamos ferramentas como chat GPT Como eu disse no começo do vídeo mas temos apenas uma chance antes de um caminho sem volta como nós podemos garantir que essa chance seja algo que nós queremos e que a nossa última invenção não seja também o fim de tudo que nós conhecemos eu gostaria de saber o que vocês pensam disso aqui nos comentários Muito obrigado e até a próxima [Música]