Eu adoro tecnologia. E eu adoro a tecnologia de inteligência artificial como o chat GPT. Eu já perdi várias horas da minha vida conversando com ele e testando seus limites.
Pra quem não sabe, o que eu acho muito difícil hoje em dia, o chat GPT é um dos muitos produtos à base de inteligência artificial que foram disponibilizados pro público nos últimos anos. Em particular, o chat GPT gera textos baseados em entradas de texto que você escreve quando utiliza ele. O chat GPT não é nem de perto a única inteligência artificial, ou IA, que está se popularizando.
Nesse exato momento já existem IAs especializadas em praticamente qualquer coisa que você possa imaginar. Não é à toa que praticamente todos os serviços de pesquisa e navegadores de internet adicionaram alguma IA para auxiliar os seus usuários, como o Gemini do Google ou o Copilot da Microsoft. E até mesmo novas tecnologias extremamente dependentes de IAs estão sendo anunciadas e buscando investimentos.
Uma que chamou muita atenção recentemente foi a de dois ex-diretores da Apple que abriram sua própria empresa, a Humane, e eles propuseram um novo produto de comunicação sem telas baseado em inteligência artificial, o AI PIN, que soa como AIPIN em português, mas tudo bem. O que é que poderia dar de errado? Bom, várias coisas.
A ideia do AI PIN era ser uma tecnologia de comunicação sem telas. Ao invés de usar a tela do seu celular, você conversava diretamente com uma inteligência artificial que mediava as interações do aparelho. Um dos pontos fortes da divulgação desse produto era você poder fazer perguntas que seriam respondidas corretamente pela IA.
E se você sabe pelo menos um pouco sobre IA, você sabe que essa é uma afirmação tanto quanto exagerada. Inclusive na própria divulgação do AI PIN, a IA errou perguntas fáceis. Em uma das demonstrações, um dos criadores pergunta onde que ia ser o próximo eclipse.
E o AI PIN responde que seria na Austrália, quando, na verdade, o próximo eclipse seria nos Estados Unidos. Esse eclipse, inclusive, já aconteceu. Mas aí eu levanto a pergunta.
Se essas inteligências artificiais representam o que existe de mais moderno e tecnológico hoje em dia, por que que o AI PIN errou? A resposta é simples, mas ela revela uma profundidade inesperada. Nenhuma inteligência artificial sabe o que é verdade.
Pelo menos hoje, não é possível fazer uma IA capaz de entender o mundo de forma factual, como os humanos entendem quando pensam racionalmente. Ou, colocando isso de outro jeito, você não pode confiar no chat GPT cegamente, ou melhor ainda, em nenhuma outra inteligência artificial. Tanto é que a maioria dessas ferramentas tem, em algum lugar escrito que você sempre deve checar as respostas.
E você também não pode nem confiar nos humanos que querem te vender tecnologias baseadas em IAs capazes de fornecer informações corretas. Mas aqui eu preciso deixar uma coisa clara. As inteligências artificiais que nós vemos hoje são as ferramentas mais poderosas desenvolvidas na última década e representam o verdadeiro ápice de todo o conhecimento humano.
Nós estamos vivendo história. Ponto. A única coisa é que elas não são capazes de tudo.
E existe muita confusão e desinformação sobre quais são os limites reais dessa nova tecnologia. Tanto é que a Humane, uma empresa focada em I. A.
, fez uma afirmação incorreta sobre inteligências artificiais com o seu AI PIN. E independente da razão, isso é péssimo pra imagem de uma empresa focada em inteligências artificiais. Pedro, eu tenho uma dúvida.
Se o chat GPT não sabe do que ele está falando, por que as respostas são tão convincentes? Se você já usou o chat GPT pra tentar estudar algo ou pra fazer perguntas sobre um tema que você tem interesse, você talvez tenha se surpreendido com uma resposta correta. E isso talvez te deixe convencido de que o chat GPT sabe do que ele está falando.
Mas esse não é o caso, nem de perto. Tanto o chat GPT quanto outros chats de IA capazes de gerar texto atualmente funcionam todos como uma espécie de calculadora de palavras. A IA recebe como entrada um texto através do chat, como por exemplo uma pergunta o que é o ciência todo dia?
o que a inteligência artificial faz então é prever quais outras palavras são as palavras mais associadas com o texto de entrada baseado em um treinamento extensivo em uma base de dados e textos prévios por exemplo, o chat gpt usa muito conteúdo da internet para treinar o seu modelo os detalhes de como isso é feito são complicados demais para esse vídeo inclusive digita aqui nos comentários se vocês querem um vídeo sobre como o Chat GPT funciona a parte técnica. O importante é que o Chat GPT pega um texto de entrada e com base no seu processo de aprendizado cria uma resposta baseada em uma probabilidade e eurística, que é uma palavra chique para chute educado ou extrapolação, se você preferir. E então a pergunta, o que é o Ciência Todo Dia, é respondida com O Ciência Todo Dia é um canal brasileiro no YouTube criado por Pedro Loos que populariza conhecimentos científicos com vídeos educativos e acessivos.
E não porque o chat GPT sabe quem eu sou pessoalmente, e sim porque ele associa as palavras da pergunta com as palavras da resposta, baseado nos seus dados de treino. Tudo o que o chat GPT está fazendo é completar o texto de entrada com mais texto, baseado em outros textos com os quais ele foi treinado. O que é incrível, mas não é baseado em verdade.
Nada nesse processo de produção de novos textos é baseado em qualquer lógica. Nada garante que o chat GPT vai falar a verdade ou que ele vai sequer tentar falar a verdade. Da mesma forma que calculadoras não sabem matemática, o chat GPT não sabe as palavras que ele está escrevendo.
Por exemplo, em 2023 a Microsoft lançou uma inteligência artificial estilo chat GPT para ajudar no seu programa de pesquisa, o Bing. E logo esse ajudante de pesquisa começou a receber inúmeras críticas por dar respostas incorretas. E não só isso, mas quando a IA era avisada que ela tinha errado, ela tendia a ficar irritada e brigar com o humano corrigindo ela.
Ou seja, a IA interpretava que brigar com alguém quando essa pessoa te corrige era uma reação provável baseada nas palavras da correção. E considerando como as discussões na internet acontecem, isso faz todo sentido. O problema é que o que a IA estava prevendo não era útil para a função que ela tinha que desempenhar.
A IA chegava ao ponto de assumir nomes alternativos para si mesma e começar conversas que eram basicamente desconectadas da sua função, inclusive expondo supostas instruções secretas que a própria Microsoft dava ao chat. O chat talvez tenha até revelado supostas conversas privadas de outros usuários nos testes do jornalista Kevin Ruse. A nova tecnologia de busca inteligente da Microsoft falhava tanto em executar o seu trabalho quanto em manter a segurança dos seus usuários.
O que, baseado no que já se sabia sobre o limite das IAs, era meio que o esperado. IAs que geram texto não sabem o que é verdade. E pior, elas nem sabem que não sabem o que é verdade.
O chat GPT e as outras IAs vão produzir conteúdo incorreto com a mesma confiança com que elas vão escrever conteúdo correto. O chat GPT não se importa se as palavras que ele escrever são verdade. Ele só se importa se as palavras estão correlacionadas de acordo com o seu modelo interno.
Alucinações que geram respostas incoerentes ou erradas são meio que esperadas. E isso é uma limitação da tecnologia de inteligência artificial. IA são ferramentas e não mágica.
O problema acontece justamente quando humanos tratam essa ferramenta como se fosse mágica. Que é o que acontece quando uma IA de processamento de textos é colocada como uma mediadora de verdade em um site de pesquisa. Inclusive, a maior parte das IAs de pesquisa foram lançadas como uma resposta ao sucesso do chat GPT, e não porque a ferramenta estava bem desenvolvida ou era útil.
Foi uma decisão financeira por parte das empresas e não uma inovação tecnológica. Tanto é que em 2022, funcionários do Google avisaram à empresa que lançar uma IA de pesquisa de forma apressada poderia acabar gerando uma impressão negativa. Exatamente o que aconteceu no ano seguinte.
Inclusive, essa é a hora perfeita para avisar que mesmo com todas essas falhas, você pode aprender a extrair o melhor possível dessas ferramentas. E se você quiser um lugar para começar, eu recomendo a Alura. Eu fiz esse curso aqui e valeu muito a pena.
Eles estão dando um desconto de 15% para quem assiste o Ciência Todo Dia. Então se eu fosse você, eu não perdia essa oportunidade e clicava no link aqui da descrição. E agora a pergunta que fica é, como fazer uma IA que sabe a verdade?
Mesmo com os enormes avanços feitos em aplicações de inteligência artificial nos últimos anos, já faz quase uma década que um modelo realmente novo de treinamento de inteligências artificiais foi lançado, e esse é o modelo Transformer, que é a base do chat GPT, e de todos os outros modelos similares. Pelo que nós sabemos do modelo atual, tentar ensinar a verdade para uma inteligência artificial vai ser um desafio e tanto, e talvez seja até impossível, ou pior, talvez simplesmente não seja tão útil assim. Então aqui vai a pergunta.
É possível fazer uma IA que vai dar respostas verdadeiras para perguntas, ou pelo menos que seja capaz de servir como uma mediadora do que é verdade ou não durante uma pesquisa? Existem alguns desafios no caminho. O primeiro desafio é técnico.
Existe muita informação necessária para tentar estipular o quão verdadeira uma afirmação é. E isso envolve tanto o contexto da pergunta quanto informações técnicas que muitas vezes estão implícitas. Só alimentar uma inteligência artificial com artigos de física não vai fazer a IA aprender física.
Tudo o que isso vai fazer é ensinar a inteligência artificial a replicar o tipo de palavras que aparecem em artigos de física. Alguns experimentos tentaram usar textos comentados por especialistas como base de dados. E nesses textos, a veracidade e os detalhes de afirmações numa área são complementados com explicações contextuais feitas por especialistas.
Por exemplo, um experimento tentou ensinar radiologia para uma IA. E esses resultados tiveram um sucesso moderado. A IA radiológica era capaz de dar informações corretas, mas sem os detalhes práticos necessários para ser realmente útil para radiologistas.
No fim, a IA só servia como um texto de referência extremamente complicado, ao invés de uma ferramenta verdadeiramente inovadora. A IA sabia da área de radiologia, mas ela não tinha o tipo de experiência que torna um radiologista experiente tão valiosa. De outra forma, a IA conseguiria passar numa prova teórica de radiologia, mas não seria nem um pouco seguro deixar ela controlar um equipamento radiológico de fato.
Então, vale pensar, será que se a gente treinar essa mesma IA de radiologia em muitos, mas muitos dados, será que ela não pode acabar se tornando útil? Até porque um dos fatores mais determinantes na qualidade de uma IA é a quantidade de dados disponíveis durante o seu treinamento. Então, qual é o limite da inteligência das inteligências artificiais?
As evidências que nós temos apontam para um resultado meio pessimista. A taxa de aumento de inteligência em IA's cresce de forma mais devagar com o aumento de dados do que o ideal. Ou seja, dobrar os dados que uma IA tem acesso não dobra a inteligência dela.
É preciso uma quantidade exponencialmente maior de dados para dobrar as capacidades de uma IA. Então, criar uma IA extremamente inteligente pode exigir uma quantidade de dados maior do que a disponível em muitas áreas de aplicação. E mesmo que esse desafio tecnológico seja superado por algum modelo novo, nós não sabemos como garantir que IAs vão continuar operando de forma segura e robusta por longos períodos.
Uma IA ser segura significa que ela não vai tomar ações que possam causar danos diretos, sei lá, tipo ensinar um adolescente empolgado a fazer uma bomba com produtos de limpeza em casa. Ou que um carro autônomo não possa ser confundido por grafite simples na rua ou por um cone colocado no capô dele. Uma IA ser robusta significa que ela vai continuar operando como o esperado, mesmo sem supervisão humana.
Como, por exemplo, não entrar em padrões de alucinação como o chat de pesquisa do Bing costumava fazer. Atualmente não existe nenhum método bem determinado para garantir que uma IA vai se manter segura e robusta em situações inesperadas. O que na prática significa que quase toda IA realizando uma função importante vai precisar de supervisão por um ser humano qualificado.
Então mesmo que uma IA fosse treinada para falar a verdade e tivesse sucesso razoável em fazer isso, não dá para garantir que esse continuaria sendo o caso para todos os cenários possíveis. As informações só seriam confiáveis se aprovadas por um especialista na área. E nesse ponto é mais fácil e rápido perguntar para o especialista diretamente.
Além do problema tecnológico e de segurança, existe um último problema no caminho, que é o próprio significado de verdade. A palavra verdade deve ser uma das palavras mais filosoficamente complicadas que existem. E escolher uma definição consistente de verdade vai ser um passo fundamental para treinar uma I.
A. para falar o que é verdade. O que é um problema?
Porque verdade é algo extremamente contextual. Por exemplo, as três leis de Newton. São verdade?
Elas são fatos da física? A única resposta correta é que é complicado. Em um sentido absoluto, as três leis de Newton não são verdadeiras, porque nós sabemos que existem situações em que elas não descrevem corretamente a natureza.
Mas em um outro sentido, sim. Dentro dos limites de aplicação das leis de Newton, elas descrevem tão bem quanto é possível a natureza. O quão verdade são as leis de Newton depende do contexto da pergunta.
As leis de Newton não valem em situações que envolvem partículas quânticas, mas elas funcionam perfeitamente bem para uma maçã caindo na terra. E isso é um fato sobre a física, uma área do conhecimento relativamente direta. A maior parte das verdades científicas vem com asteriscos sobre o contexto, situações válidas e quais são os limites do que nós entendemos sobre o mundo ao nosso redor.
Coisas que um cientista treinado vai aprender muito bem, tanto por estudar a área, quanto também por ganhar experiência atuando nela com outros cientistas. Então, nesse sentido, verdades científicas têm um grande elemento social e são resultados de colaboração e discussão entre colegas. O conhecimento de um cientista é extremamente dependente da sua experiência prática, algo que não é exatamente possível de se reproduzir durante o treinamento de uma IA.
Uma IA capaz de entender o contexto do conhecimento humano com esse refino seria uma excelente candidata a uma IA geral, capaz de executar até mesmo as tarefas para as quais ela nunca foi treinada. Atualmente, as pesquisas sobre IAs não indicam que nós estamos melhorando em criar IAs mais verdadeiras. A posição mais razoável é um leve pessimismo sobre um aumento drástico nas capacidades de IAs.
Não existe nenhum caminho óbvio para criar uma IA que entende minimamente de lógica e ciência de forma mais profunda e geral. Então, ou nós temos que superar os desafios no caminho, ou encontrar formas de contornar essas limitações. E é justamente nisso que parte da pesquisa em IA se dedica.
No fim de 2023, a Open AI, que é a empresa por trás do ChartGPT, deixou vazar que eles estavam trabalhando em um modelo novo chamado Q-Estrela. O modelo Q-Estrela teria como função resolver problemas matemáticos formais, incluindo provar resultados matemáticos que o modelo nunca tinha nem visto durante o treinamento. Basicamente, o que eles queriam fazer era ensinar uma IA a pensar com lógica matemática.
E se nós quisermos ensinar IAs a pensarem com mais verdade e mais lógica, a matemática é um excelente ponto de partida. Verdades matemáticas são provadas por lógica rígida e não tem todas as nuances mais elaboradas das outras ciências. Provar resultados matemáticos novos de forma consistente exigiriam um entendimento verdadeiro de lógica por parte da IA, algo que nenhuma IA mais geral consegue fazer atualmente.
E hoje, no dia em que estou gravando este vídeo, nós ainda não sabemos muito sobre o que é isso. O que nós sabemos, e que vem a partir de rumores, se deixa claro, é que ele é uma tentativa séria de fazer inteligências artificiais poderem pensar sobre suas próprias respostas. Mas até a gente conseguir superar tanto os desafios técnicos quanto os desafios de segurança, não vai ser possível acreditar no chat GPT e em nenhuma outra IA.
Só que o que mais me fascina nessa história toda é que tentando criar uma inteligência artificial capaz de entender o que é verdade, mas sem querer estamos esbarrando em coisas que nós precisamos descobrir sobre nós mesmos e o que dá para nós, seres humanos, a capacidade de pensar. Na opinião de vocês, algum dia nós vamos ter inteligências artificiais conscientes? Digita aqui nos comentários.
Eu tô doido pra ver as respostas de vocês. Muito obrigado e até a próxima.