A Inteligência Artificial já transforma a todo vapor a forma como usamos a internet, as nossas relações de trabalho e o uso de conhecimento. Mas essa revolução está só no começo. Alguns especialistas identificaram três etapas do desenvolvimento da Inteligência Artificial – e dizem que ainda estamos na primeira delas.
Eu sou Camilla Costa, da BBC News Brasil, e neste vídeo detalho essas fases e conto porque a terceira causa temor entre especialistas no ramo. Antes, um pouco de contexto e uma definição: o que é Inteligência Artificial? .
Em termos simples, trata-se da habilidade de uma máquina em realizar tarefas geralmente associadas à inteligência humana – como resolver problemas ou aprender de experiências prévias, por exemplo. O ChatGPT é provavelmente o exemplo recente mais significativo do poder disruptivo da Inteligência Artificial. Esse chatbot que responde nossas perguntas e pedidos usando o conhecimento acumulado da internet virou o aplicativo com o crescimento mais rápido da história.
São 100 milhões de usuários ativos nos poucos meses desde que o ChatGPT foi lançado, no final de 2022. Essa popularidade gigantesca aumentou o debate sobre o impacto da Inteligência Artificial na nossa vida – e como esse impacto vai crescer no futuro. É que os avanços nesse setor estão sendo tão rápidos que já há inteligências artificiais capazes de produzir textos e imagens indistinguíveis do trabalho humano.
Um relatório recém-lançado pelo banco de investimentos Goldman Sachs calculou que a Inteligência Artificial poderia substituir um quarto de todos os empregos que hoje são de humanos – embora essa nova tecnologia consiga também aumentar a produtividade e criar demanda por novos tipos de trabalho. Vamos, então, às três etapas da Inteligência Artificial. A primeira, e que estamos vivendo atualmente, é a ANI, sigla em inglês para Inteligência Artificial Estreita.
Ela ganhou esse nome porque tem algoritmos projetados para realizar uma só tarefa específica. O conhecimento acumulado que esse algoritmo obtém dessas tarefas não vai servir automaticamente para outras funções. Geralmente, essa IA é treinada a partir de um banco de dados, como a internet.
Esses sistemas podem igualar e até superar a inteligência humana – mas só na área específica em que eles atuarem, já que não são capazes de realizar outras tarefas. É por isso que essa IA também é chamada de “fraca”. Um exemplo desses poderes e limitações são os programas de xadrez que usam IA.
Eles são capazes de derrotar até mesmo os melhores enxadristas do mundo, mas não fazem nada além disso. Os sistemas de IA Estreita já estão mais presentes na nossa vida do que você talvez imagine. Os smartphones, por exemplo, estão cheios de aplicativos com essa tecnologia: desde os mapas no seu GPS até os aplicativos de música e vídeo que aprendem os seus gostos para te recomendar o que ouvir ou assistir em seguida.
Assistentes virtuais como Siri e Alexa também se encaixam na IA Estreita. O mesmo vale para o buscador do Google, que talvez tenha te trazido para este vídeo. Os sistemas estreitos também já foram incorporados nas linhas de produção de fábricas, no mercado financeiro e até em hospitais, para ajudar nos diagnósticos.
Até sistemas mais sofisticados, como carros autônomos ou o próprio ChatGPT, são formas estreitas - já que não podem operar fora das categorias pré-determinadas pelos seus programadores nem tomar decisões por conta própria. Mas alguns especialistas acham que sistemas como o ChatGPT, que estão programados para aprender automaticamente – ou seja, para realizar o aprendizado de máquina – podem passar para a seguinte etapa. Estou falando da segunda categoria, que é a de Inteligência Artificial Generalizada, ou AGI na sigla em inglês.
É quando uma máquina consegue alcançar as capacidades cognitivas de um ser humano. Ou seja, quando é capaz de executar qualquer tarefa intelectual feita por uma pessoa. Então, se o primeiro tipo de IA era chamado de “fraco”, este é conhecido como “forte”.
E alguns pesquisadores desse ramo acham que estamos prestes a chegar lá. Por isso, em março de 2023, mais de mil especialistas em tecnologia escreveram uma carta aberta pedindo às empresas de IA que deixem de treinar durante ao menos seis meses os programas mais poderosos que a versão mais recente do ChatGPT. Seria uma espécie de moratória no que eles chamam de “perigosa corrida” no desenvolvimento de IAs cada vez mais “imprevisíveis”, que poderiam sair do controle dos seus próprios criadores.
Essa pausa, segundo signatários como Elon Musk e Steve Wozniak, daria mais tempo para que governos e entidades criassem protocolos de segurança para reger essa nova tecnologia. A ideia da carta é que, no ritmo e no modelo atuais, os sistemas de IA trazem riscos enormes, inclusive o de superar numericamente os humanos, torná-los obsoletos e fazer com que percamos o controle da nossa civilização. Nas palavras do diretor-geral da OpenAI, criadora do ChatGPT, diante do Congresso americano: Isso nos leva à terceira etapa, a da Super Inteligência Artificial, ou ASI na sigla em inglês.
Seria a etapa em que a inteligência artificial teria superado a inteligência humana. Segundo Nick Bostrom, filósofo da Universidade de Oxford e especialista em IA, a superinteligência consiste, entre aspas, em. .
. “um intelecto muito mais inteligente do que os melhores cérebros humanos em praticamente todos os campos, inclusive a criatividade científica, a sabedoria geral e as habilidades sociais”. E alguns especialistas acham que o intervalo entre a segunda e a terceira fase da IA seria breve.
O chamado padrinho da inteligência artificial, Geoffrey Hinton, fez um alerta semelhante. Em entrevista à BBC, ele afirmou que as máquinas ainda não são mais inteligentes do que nós, mas podem virar em breve. Por isso, o debate agora é: será que a eventual chegada da superinteligência vai ser benéfica ou prejudicial para a humanidade?
Há quem acredite que ela poderá nos ajudar a superar nossas barreiras biológicas e resolver os grandes desafios da humanidade. É o caso do pesquisador do Google Ray Kurzweil, que chegou a prever que até 2030 os humanos alcançarão a imortalidade graças a nano-robôs atuando dentro do nosso corpo. Mas há quem veja uma grave ameaça à nossa existência.
O falecido físico britânico Stephen Hawking, por exemplo, fez advertências quase uma década atrás, em 2014. Muitos especialistas, como os signatários da carta aberta que eu mencionei acima, acham que a velocidade no desenvolvimento, sem que haja limites claros nem regulações, é preocupante. Por isso, o desafio apontado por especialistas é: o que podemos fazer agora para evitar um futuro em que máquinas muito mais inteligentes do que nós assumam o controle?
Com isso eu fico por aqui. Temos mais vídeos interessantes sobre como funcionam a inteligência artificial e algoritmos - dá uma olhada na nossa playlist de ciência no YouTube. Obrigada e até a próxima.