bom pessoal entrou o link aí a gente já vai começar tá s Bom dia a todos agora oficialmente peço desculpas pelo pequeno atraso que a gente teve probleminhas técnicos de última hora para transmitir pro YouTube mas deu certo acho que agora todos nos vem e nos ouvem bem então é um prazer est aqui com vocês eu sou o professor Thiago pardo eu sou do Instituto de Ciências Matemáticas e de computação da USP da cidade de São Carlos e sou um dos proponentes desse curso de extensão e inteligência artificial vou contar mais para vocês sobre esse
curso daqui a pouco ficamos super felizes pela presença de vocês eh tivemos uma alta demanda Então esse curso acontece em duas modalidades na modalidade presencial tivemos mais de 6.500 pessoas inscritas para 600 vagas tivemos que sortear portanto e na modalidade virtual tivemos mais de 20.000 inscritos no total tivemos 35.000 inscritos para esse curso inteligência artificial é uma área Super Quente todo mundo quer saber o que que é isso o mundo tá falando de Inteligência Artificial então a gente espera contribuir um pouco pra formação das pessoas esclarecer o que que é isso como é que funciona
o que que é esse negócio que a gente chama de Inteligência Artificial mas daqui a pouco eu conto um pouco mais para fazer a abertura do nosso trabalho do nosso curso hoje eu convido o professor Fábio cosman que é coordenador do centro de Inteligência Artificial da USP Fábio por favor Oi pessoal B prazer est aqui Bom dia né bom dia bom dia tá fraco né bom dia Bom eu acho que eu nunca dei uma aula para tanta gente né Então deixa eu só começar cumprimentando toos estão remotamente e e eu vou ser muito breve em
termos de de falar do curso porque eu acho que vocês vão ter chance de ouvir dos professores depois eu queria agradecer muito o pessoal da organização eh o Thiago todo o pessoal que imaginou aqui bolou queria agradecer muito a pró-reitoria de pesquisa e a USP em geral por ter dado suporte e todas as pessoas que estão garantindo que isso aconteça né Eu acho que eu não vou falar muito de a porque vocês vão ouvir falar disso mas eu queria só falar dois minutos sobre eh a USP e a inteligência artificial né Eu acho que inteligência
artificial é uma é uma tecnologia eh que já tem mais de 70 anos tá sendo discutida teve momentos aí de grande sucesso de grandes Euforia eh Depois teve momentos que as coisas não deram tão certo mas hoje a gente vive um momento muito especial eh a tecnologia floresceu e acho que é uma tecnologia cujo objetivo aqui da gente que tá desenvolvendo é ajudar o ser humano ajudar a melhorar a qualidade de vida eh fazer com que os os médicos tenham tempo para cuidar dos pacientes com mais vagar os advogados tenham tempo para para cuidar dos
casos e tratar mais casos os engenheiros consigam eh projetar melhor os seus equipamentos Ou seja é uma tecnologia que Visa eh o bem da da da do ser humano né não estamos preocupados com o bem dos computadores o bem-estar dos computadores Estamos preocupados com o bem-estar dos seres humanos e ao longo do dos últimos 40 anos o Brasil tem tido uma presença na área de interal né Se vocês olharem os rankings acadêmicos aí de produção o Brasil tem estado entre 12º 18º lugar em produção internacional nos últimos Poucos Anos houve muito investimento Internacional e o
Brasil caiu algumas posições em relação a outros países tal mas eu acho que tem havido recentemente um um um retorno ao investimento em particular o Brasil tem vários centros de inteligência social e a USP tem vários centros né de inig social eh a USP ocupa uma posição privilegiada eh em inteligente artificial no Brasil já há muitas décadas tem muitos grupos eh se vocês olharem os as os indicativos de produção acadêmica da Fapesp da ocde vocês acabam vendo que a USP tem mais de o dobro da produção acadêmica do que as instituições que estão em segundo
terceiro lugar e tal eh e e como a USP tem muitos centros né já uns 5 anos atrás Um houve um trabalho da pró-reitoria de pesquisa e inovação de mapear isso e e fomentar a formação de centros com e suporte da Fapesp eh Então eu queria mais uma vez agradecer a pr-reitoria que tem S sempre apoiado esse esforço né Eh de 5 anos para cá nessa gestão em particular eh e formou então um centro financiado pela Fapesp que eu coordeno que tem vários colegas aqui que participam e recentemente dois anos atrás outro centro foi aprovado
o centro que tem base em São Carlos e no ano passado outro centro foi aprovado então USP tem um grande conjunto de centros e em novembro a a Reitoria eh propôs eu acho que com com com muita assim muita felicidade criar um órgão que é um Centro de Estudos ligado à Reitoria para organizar um pouco dar suporte apoiar a USP nesse nesse esforço eu acho que esse curso é um resultado disso porque a gente tem aqui pessoas de vários grupos trabalhando juntos V na verdade várias cidades até então eu acho eu fico muito satisfeito de
est vendo isso acontecer porque se existe uma razão para para uma instituição ter centros de excelência é realmente que esses centros consigam agregar pessoas trazer e trazer a sociedade para entender melhor o que se passa em tecnologia em ciência Tá bom então dito isso queria só agradecer mais uma vez parabéns para todos aí Parabéns para vocês que estão aqui espero que vocês tenham um bom dia aqui na universidade obrigado [Aplausos] Muito obrigado Fábio chamo agora tenho o prazer de chamar para vocês eh para dar as boas-vindas também o nosso pró-reitor de pesquisa e inovação da
USP a pró-reitoria de pesquisa e inovação tem nos dado todo o apoio para fazer esse evento é um prazer receber aqui o professor Paulo Alberto nens vaik Professor bem-vindo obrigado thgo bom dia todas e todos eh Acho que vocês não têm noção da satisfação que eu sinto vendo esse curso acontecer aqui hoje eh a universidade tem como um dos seus objetivos se como conectar de maneira cada mais cada vez mais forte com o restante da sociedade e a o oferecimento de um curso com esse grau de interesse da sociedade só mostra que a gente tá
no caminho certo só mostra que nós temos muito a oferecer e muito a compartilhar queria agradecer especialmente aos professores Tiago Pardo A Professora Nina irata eh ao professor Roberto irata Júnior ao professor Roberto Marcondes com quem e eu conversei sobre isso e a gente até ficou numa disputa interessante para saber qual dos dos dois tinha tido a ideia de de desse curso acontec um empurrando o crédito pro outro o que em geral não é muito comum mas só mostra a satisfação da interação e o objetivo o objetivo não é a gente dizer nós fizemos nós
conseguimos o objetivo é o que a gente tem para oferecer então é muito grato muito gratificante ver vocês aqui e saber que tem mais algumas alguns milhares algumas dezenas de milhares de pessoas assistindo isso online eu não vou falar do curso e só talvez dizer o formato né Eh Inteligência Artificial aprendizado de máquina processamento de linguagem natural visão computacional Fábio já falou um pouco sobre a força da nossa universidade nesses temas eu queria falar um pouco das características únicas que nós temos quando a gente faz ciência quando a gente faz pesquisa a gente tem que
olhar para para aquilo que a gente pode fornecer pra Humanidade em particular a gente tem que conseguir explorar o que nós temos de único que ninguém mais consegue oferecer então eu tenho conhecimento de uma iniciativa aqui na universidade em termos de processamento de linguagem natural que Visa tratar de língua morta e nós temos o privilégio de ter uma enorme base de dados de uma língua morta que poucos outros países possuem então a capacidade que a gente tem de realizar certos desenvolvimentos é única Nossa a gente precisa explorar Isso é uma responsabilidade Nossa explorar isso ah
eu não sei se todo mundo que tá aqui sabe mas esse evento foi programado logo no encerramento do simpósio de iniciação científica da Universidade de São Paulo a etapa internacional com o objetivo de atrair nossos estudantes nossas estudantes que já tem uma propensão natural a aprender Descobrindo a aprender pesquisando então era mais do que apropriado trazer o evento aproximar do nosso simpósio de iniciação científica e o sucesso desse do interesse 30.000 pessoas interessadas num curso como esse Roberto me contou que dentre os interessados a gente recebeu tanto inscrições como contatos de funcionários do metrô da
prefeitura de Belo Horizonte de funcionários da Motorola ou seja de de setores da sociedade que normalmente não tem um engajamento muito forte com a universidade então é uma oportunid de se concer uma oportun avançar juntos vou fazer uma consideração um pouco pessoal né acho que um dos interesses de Inteligência Artificial o uma das razões pelas quais a sociedade presta tanta atenção é que existe um receio em relação aos usos de Inteligência Artificial muitas pessoas se assustam com a inteligência artificial eu queria dizer eu Paulo eu não tenho medo de conhecimento eu tenho pavor da ignorância
eu tenho ojeriza a disseminação do don't know how a USP não tem medo de conhecimento no nosso brasão um exemplo aqui se vocês olharem tem uma inscrição que é o lema da Universidade skena Win latim para dizer vencer pelo conhecimento aos anos continua a nossa missão primordial estar à altura desse lema queria desejar um excelente evento para todas e todos wies obrigado muito obrigado Professor Paulo eu os convido a sentar aqui com a audiência nos acompanhar para vocês poderem ver melhor a apresentação muito bem então deixa eu contar um pouquinho quem eu sou Quem são
meus colegas obrigado e aí a gente começa vou dar uns recadinhos Chegamos no assunto pelo qual todos viemos aqui né Inteligência Artificial então eu sou o professor Thiago paro como eu falei eu sou formado em computação trabalho com inteligência artificial há quase 30 anos especificamente na área de processamento de linguagem natural então eu digo informalmente que eu tento ensinar o computador a ler e escrever tipo a gente faz as crianças com elas nas escolas tenho colegas aqui que trabalham com visão computacional todos nós usamos aprendizado de máquina o nosso desejo hoje é que vocês saiam
daqui tendo uma boa noção do que que são essas coisas para que que servem como se faz tá eu tenho alguns agradecimentos para fazer muito importantes então eu agradeço aí a pró-reitoria de pesquisa e inovação Professor Paulo acabou de falar com a gente por todo estímulo por toda a animação em topar e encabeçar esse curso preciso agradecer a pró-reitoria de cultura e extensão Universitária da USP que também nos deu um apoio e muito grande na organização do curso eh vocês não têm ideia a operação de guerra que é por trás de um curso desse tanto
de trabalho que a gente tem nos sistemas de gestão da USP respondendo e-mails atendendo telefonemas encaminhando inscrição Então esse pessoal tem nos ajudado bastante tá eh o que nos motivou a fazer esse curso eh a oportunidade surgiu de dois projetos que a gente tem um que a gente chama cestec Ai que tem o apoio de Nova USP da softec do mcti e da empresa Motorola e o centro de a da USP que o professor Fábio cosma já falou um pouquinho para vocês que também conta com o apoio da Fapesp e da IBM eu tenho que
agradecer muito aos meus colegas funcionários técnicos administrativos e docentes do meu Instituto icmc lá da USP de São Carlos eles têm feito um trabalho insano para esse curso acontecer sou muito grato eles nos apoiaram muito gerenciar 35.000 pessoas é uma coisa muito difícil então sou muito grato a todo o apoio que a gente tem tido aí para fazer isso acontecer então eu sou o Thiago a Nina irata o Roberto irata e Roberto Marcondes estão aqui logo logo assim que eles subirem para falar um pouquinho com vocês eles se apresentam devidamente vocês colocam o rosto no
nome das pessoas tá Ah eu sou do icmc eles são do im daqui da USP da capital mesmo Instituto de matemática e estatística ã Esses são os nossos monitores estão nos acompanhando online logo logo vocês vão receber algumas mensagens deles também eles vão ajudar a identificar as maiores dúvidas responder eh e deve nos ajudar aí a fazer os encaminhamentos do curso também Agradeço aos vários monitores que puderam colaborar aqui com a gente o Alexandre o Arturo o Germano Gustavo Pietro e o Rafael então vejam quanta gente para fazer um curso acontecer Tá bom o que
que eu espero com esse curso qual é o nosso desejo logicamente a ia é um campo muito grande vocês devem imaginar eh é impossível torná-los especialistas na inteligência artificial em um dia então a gente fez um exercício de tentar pelo menos dar uma introdução às áreas da ia os vários ramos de pesquisa dela de forma que vocês consigam discutir e encarar a inteligência artificial de uma maneira mais informada vocês saiba um pouco o que que é essa área o que que ela faz e saibam os caminhos que precisam trilhar Se quiserem estudar mais esse assunto
Se quiserem investir nisso pra carreira de vocês nos empregos essa é a nossa vontade tá o nosso desafio especial hoje é conseguir falar didaticamente com todo mundo que nos assiste então como já foi comentado a gente tem gente de perfil muito variado temos desde crianças a melhor idade gente de Direito de medicina da própria computação de ciência de dados de Filosofia de ffia tudo que vocês podem imaginar então nosso desafio é ser didático e passar esse conhecimento da maneira mais acessível possível para vocês com muito exemplo com muita motivação do porque que essas coisas são
feitas Como são feitas o meu raciocínio quando eu tentei preparar o que eu vou mostrar para vocês daqui a pouco foi o de pegar as informações mais atualizadas dos Capítulos introdutórios dos livros de I então vocês me dizem depois se valeu a pena se é uma estratégia interessante tá Eh estamos num momento bastante especial esse é o ano em que a USP comemora seus 90 anos de criação exatamente em 25 de janeiro que ela foi fundada de 1934 primeiro trabalho de Inteligência Artificial considerado oficialmente pela comunidade surgiu em 1943 AOSP já existia Há 9 anos
o termo Inteligência Artificial como a gente conhece eu vou mostrar daqui a pouco pouquinho para vocês foi cunhada em 1956 a hosp já era aí já tinha saído da adolescência nessa época eh Então esse é um momento muito especial foi parte da motivação desse curso também de poder comemorar com a sociedade com vocês e contar um pouco compartilhar um pouco desse conhecimento acumulado por muita gente de inteligência artificial na USP temos muitos pesquisadores muito bons eh Depois eu falo mais disso tá e sem falar né que A Iá tá no centro das atenções ao furacão
que tá varrendo planeta todo mundo falando de Inteligência Artificial todo mundo preocupado com isso todo mundo usando os mais variados fins nesse curso a gente vai tentar em cinco etapas falar um pouquinho para vocês o que que é a inteligência artificial e a sua história o que que é esse negócio que a gente chama de aprendizado de máquina ã na parte da tarde processamento de linguagem natural e visão computacional e terminamos com algumas reflexões e perspectivas da Inteligência Artificial Além disso nisso que a gente tá chamando informalmente de semana da Inteligência Artificial na USP na
semana que vem a gente vai promover bate-papos diários todos vocês já foram convidados todo dia das 14 à 15 horas e numa sala virtual do Google Meet tem limitação infelizmente não consos não conseguimos aceitar todo mundo mas os primeiros 300 que aparecerem na sala vão poder assistir e com pesquisadores renomados da da USP e convidados de empresas da ibem da Motorola para poder conversar um pouquinho mais sobre coisas que a gente não vai ter tempo de falar hoje aqui tá então ficam aí todos convidados de antemão no fim eu coloco mais um lemeto sobre isso
Esses são os livros que eu mais gosto de Inteligência Artificial então para quem tá procurando uma boa referência o livro da esquerda é um dos livros mais famosos de fresquinho de 2021 se eu não me engano os dois do Meio são livros de processamento de linguagem natural super recentes 2024 eh e o último é o de processamento de imagens de visão computacional já na sua terceira Edição Então são referências aí de ouro para quem quer entrar nesse mundo e quer conhecer um pouquinho mais do que a gente vai falar aqui alguns avisos antes da gente
começar de fato e vou ser bem breve agora tá ah todo o material do curso esse curso tá sendo transmitido pelo YouTube então ele fica gravado todo esse material os slides vão estar na página do curso que todo mundo já recebeu o link tá então a gente tentou deixar isso atualizado para vocês ah nessa página e eu já vou colocar aqui também para vocês tem um link para vocês enviarem dúvidas como somos muita muitas pessoas a gente não vai abrir para vocês fazerem dúvidas ao vivo aqui também porque a gente tá transmitindo fica meio esquisito
Mas vocês podem postar as dúvidas aí os nossos monitores vão estar acompanhando a gente vai tentar responder as principais delas senão hoje na semana que vem nos bate-papos ah teremos uma provinha para quem tá inscrito oficialmente no curso a USP nos pede que tenha uma prova que vocês tenham nota tá então quem tiver a nota mínima sete ganha o certificado da USP já falo disso ah a além da nota sete Vocês precisam ter assistido o curso Então também tem um formulário de presença vou colocar aqui já para vocês cumpriu esses requisitos em até 4 meses
Vocês recebem o certificado da USP por e-mail 4 meses Professor Por que tanto assim 35.000 pessoas porque tanto tempo assim então a gente leva um tempo para conseguir processar tudo e o sistema emitir esses certificados tá Ah é por essa razão todo mundo que se inscreveu passou pelo sistema polo da USP Vocês não precisam fazer login no Apolo eu tô falando isso porque tem muita gente perguntando tá Não precisa criar usuário o Apolo ainda vai mandar muitas mensagens para vocês mensagem de matrícula mensagem de nota postada mensagem de frequência postada podem ignorar essas mensagens tá
vocês só não podem Ignorar a última mensagem que o apulo mandar que vai ser a mensagem com certificado para aqueles que forem aprovados tá bom restante não precisam Ligar muito para isso não eh muita gente tem escrito pra gente com dúvidas a gente tem tentado responder na medida do possível mas de novo diante do volume de gente certamente alguns aí peço perdão não vão conseguir responder todo mundo então esse é o primeiro link eh com o QR Code aí quem preferir para vocês registrarem quem tá com Smartphone aí Tira uma foto desse slide isso também
tá na página do curso Então por aí Vocês conseguem postar dúvidas pra gente que a gente vai tentar endereçar aqui durante o dia tudo bem vou dar um segundinho aí para vocês conseguirem acessar isso esse formulário tá aberto podem escrever lá suas dúvidas e comentários se a gente não responder entre hoje ou semana que vem a gente responde por e-mail depois para vocês então vamos lá vou passar tá isso também tá na página do curso para quem não conseguir por algum motivo esse é o link e o QR code para registrar a presença de vocês
no curso Então todo mundo que tá aqui presencialmente quem n quem está nos vendo no YouTube tirem um print da tela ou acessem agora esse QR Code é muito simples é só colocar o nome e o e-mail de vocês pronto presença computada eu vou mostrar esse q code de novo depois do intervalo do café eh Basta fazer uma vez não precisa fazer duas vezes não tá na manhã vocês vão acessar isso fazer uma única vez vou dar um segundinho aí para vocês conseguirem fazer peço que vocês coloquem o nome completo caprichem no e-mail vejam se
tá certinho muita gente teve problema com os dados de inscrição tá então garanto que digitaram corretamente as coisas aí então vamos adiante muito bem então agora Chegamos na parte que realmente interessa saindo da parte dos serviços burocráticos de avisos o primeiro módulo que a gente pensou Então é uma introdução à Inteligência Artificial tentando definir um pouco o que que é a área Ah o que que se faz como se trabalha de onde a gente veio onde estamos hoje eh Inteligência Artificial é um campo muito interessante acho que vocês sabem disso estão aqui por esse motivo
porque certamente se interessam nisso a inteligência em si é o que nos diferencia dos outros animais tá aí na no nome da nossa espécie né homo sapiens tem muita discussão do papel da inteligência na nossa evolução uma pergunta que as pessoas fazem é nós somos humanos porque somos inteligentes ou somos inteligentes porque somos humanos a inteligência artificial dá margem para muita discussão e e na Inteligência Artificial a gente tenta também lidar com essas questões dependendo da resposta que a gente dá para essas questões isso impacta nos caminhos que a gente escolhe vocês vão perceber hoje
um pouco na história da Inteligência Artificial como essas respostas podem influenciar nossa vida então a gente tenta além de lidar com essas questões existenciais projetar sistemas ditos inteligentes que nos auxiliam nas tarefas do dia a dia todo mundo aqui já usou um sistema inteligente inteligente entre aspas tá no sentido de que é produzido pela Inteligência Artificial vou citar alguns que certamente já cruzou o caminho de vocês corretor ortográfico desses WhatsApps telegram da vida Aquilo é inteligência artificial tradutor automático Google Tradutor dipl Inteligência Artificial tá o GPS tem algoritmos de Inteligência Artificial ali calculando rotas vou
falar o mais famoso deles chat GPT inteligência artificial na veia tá então todos nós cruzamos com isso no dia a dia e a gente diz então que o nosso objetivo na Inteligência Artificial é fazer criar essas máquinas esses processos esses programas que podem computar como agir de maneira efetiva e segura então notem que eu grifei essas duas palavras tá Será que a gente já atingiu seu objetivo todo mundo que usou bastante o chat GPT aqui tem suas dúvidas né se aquilo realmente é seguro se ele nos ajuda sempre mas a gente vai falar mais disso
tá bom ah esse é o sistema do momento é o chat GPT surgiu aí logo há 2 anos mais ou menos eh ele é o que a gente chama de grande modelo de língua então ele é treinado numa grande quantidade de dados e com base nesses dados que ele foi treinado ele consegue responder pra gente e nos ajudar de várias formas né A preparar documentos a explicar coisas eh a projetar soluções quando a gente fala na Inteligência Artificial que o sistema é treinado eu vou explicar isso rapidamente porque talvez muita gente não conhece esse termo
né significa que a gente desenvolveu o sistema o software a partir de dados que a gente tem disponível isso é um treinamento de sistema então esses grandes modelos de língua eles têm esse nome porque eles pegam dados em língua natural em língua humana eh e criam um modelo interno uma representação desses dados que eles usam para raciocinar e para responder as nossas dúvidas tá ele é um grande modelo de língua porque ele usa uma grande quantidade de dados gigantesca Isso é um problema na ia hoje porque a a capacidade de computação que a gente tem
já tá chegando no limite do que a gente consegue fazer do que a gente precisa fazer cada vez mais a gente precisa de máquinas mais poderosas para processar essa quantidade imensa de dados e produzir sistemas com esse porte tá Ah então a gente precisa falar um pouco dele H ele é recente como vocês sabem mas as ideias por trás do chat GPT e seus congêneres tem muitos né todo mundo aqui já cruzou com vários aí a Microsoft acabou de lançar uma versão pro Windows que é o CoPilot aqui por trás tem o o GPT 4
antes do chat GPT a versão inundou a a mídia era 3,5 mas a gente teve três teve o dois teve um A gente teve vários modelos de língua a partir da década de 90 que eles se popularizaram em processament de linguagem natural eles não tinham esse poder e não davam esse acesso que esses sistemas davam dão pra gente hoje mas eles já existiam na década de 90 eles causaram uma revolução da década de 90 vou contar essa história mais tarde para vocês acreditem essa revolução que a gente tá vendo com chat GPT Não é a
primeira revolução que a ia trás pra gente a revolução anterior quando a gente aprendeu a usar melhor a estatística veio na época que surgiu o Google Tradutor como ele é hoje a tradução virou estatística ela deixou de ser simbólica com regras e passou a funcionar usando estatística tá Depois eu conto isso e foi a primeira vez que a gente pode usar tradução automática confiando um pouco na saída apesar dos erros a gente tinha que editar pouco para isso arrumar para isso funcionar bem e tá ajustado isso foi na década de 90 e a gente teve
outras pequenas das revoluções da Inteligência Artificial eh talvez nemuma tão grande quanto essa agora dos modelos de língua mas a gente já teve esses momentos aí tá Ah as ideias do chet GPT Então já foram implementadas a partir da década de 90 com outras formas a gente não usava esses modelos neurais que eu já vou definir logo logo com vocês mas elas já existiam essas ideias da década de 90 São baseadas em ideias da década de 50 sabiam disso O que tá por trás de um modelo como o chat de GPT e seus congêneres são
ideias da década de 50 desenvolvidas na linguística na psicologia uma loucura isso né Eh e hoje que a gente consegue implementar isso eficientemente e fazer funcionar então vocês vejam como a ciência é interessante tem muita coisa aí por trás que às vezes a gente não não sabe minha ideia é que vocês saiam sabendo um pouquinho hoje bom e aí a gente vê esse tipo de sistema e a reação das pessoas e da mídia Acho que vamos ver se vocês se identificam com algumas dessas reações que eu tô mostrando aqui né a primeira que eu ouço
é assim a ia chegou Me Dá uma canseira existencial ouvi isso a ia chegou faz tempo né gente desde quando a gente usa tradutor automático Desde quando a gente usa corretor ortográfico Desde quando a gente usa GPS Talvez as pessoas não notassem que isso era Inteligência Artificial mas ela chegou faz tempo tá a outra é essa só mais um sistema logo todos esquecem menos né gente a gente tem que admitir que esse sistema ele tem um potencial enorme eh as pessoas acham que falam um pouco isso pelo conhecimento ou por na sua carreira não precisar
usar mas acho que é inegável o poder e o alcance que esses grandes modelos de língua tem tidda então também não acho que as pessoas vão esquecer disso daí não é uma coisa que veio para ficar e a tendência é que isso vá melhorando com o tempo aí tem o que eu mais gosto né aí todo mundo lembra daqueles filmes Apocalípticos todo filme que tem Inteligência Artificial termina com A Iá matando as pessoas né E aí tem esse aqui terminador do futuro é o Apocalipse tecnológico que é o primeiro sinal tem um termo que o
pessoal usa que eu acho o máximo é o o primeiro sinal da singularidade tecnológica em que a máquina vai dominar tudo e os humanos vão ser extintos né aquela coisa toda ai ai essa é a minha cara para essas pessoas tá eu não não acredito em nenhuma dessas dessas argumentações A Iá não chegou agora a ia tá aí faz tempo eu não acho que é só mais um sistema como qualquer outro que vai ser esquecido não acho que é o Apocalipse tecnológico espero convencê-los disso até o fim do dia l Veja a gente tá fazendo
um exercício de opinião aqui posso podem me provar que eu esteja errado daqui um tempo tá mas o que a história mostra pra gente é uma coisa diferente então tem bastante na nossa vida olha se ainda não convenci vocês vou citar mais alguns casos tá sistema de recomendação todos esses grandes sistemas de entretenimento Netflix Spotify Disney Plus Amazon todos eles recomendam coisas pra gente tem inteligência artificial no sistema de recomendação para saber o que recomendar pro usuário tá jogos todo mundo já viu jogo automático Você joga contra o computador rpgs xadrez damas o famoso jogo
Gol a gente vai falar mais dele depois quando a gente fala de processamento de texto Então os chat botes os grandes modelos de língua revisão gramatical análise de sentimentos que é a área de você tentar descobrir o sentimento da pessoa que tá falando alguma coisa se ela falou bem se ela falou mal de algo se ela concorda como ideia Inteligência Artificial processamento de fala toda vez que a gente fala com assistente virtual ou do Google ou a Siri ou Alexa reconhecer e produzir fala é inteligência artificial tem muito estudo ali por trás tá eh na
matemática ensino de matemática prova de teoremas tutores inteligentes no trânsito então falei para vocês rotas esses carros autônomos inteligentes que ajudam a pessoa na direção na saúde apoio ao diagnóstico médico a gente tem sistemas de apoio ao diagnóstico médico que são muito bons que são capazes de interpretar exame médico e dizer o que que a pessoa tem ali tá rastreamento de epidemias para onde ela vai crescer já viram isso voltem meio esses programas televisivos mostram os pesquisadores rastreando epidemias no direito pessoal atrás de lei jurisprudência montando argumentação ah previsão de clima predição de catástrofe A
Iá tá permeando todas essas frentes então querendo ou não a gente tá exposto ao que ia tá fazendo é muito importante a gente estar ciente disso e eu podia continuar falando de muitos e muitos exemplos aqui eu vou falar de mais alguns na parte da tarde meus colegas vão falar de outros eh e a gente vai falar bastante disso então algumas questões surgem quando a gente trabalha com isso né então o que que significa ser inteligente como é que faz um sistema inteligente de onde a gente V Quais são as tendências por trás disso O
que que tá acontecendo no mundo hoje então se eu quero entrar na Inteligência Artificial por onde eu entro o que que vale a pena estudar hoje então nessa primeira parte do curso eu vou tentar responder essas questões eh para vocês ficarem mais centese pra gente também uniformizar um pouco o vocabulário e e us E falarmos a mesma língua tá então vamos dar os primeiros passos eh nessa nessa temática eí por mais incrível que pareça Apesar desse bund da Inteligência Artificial é super difícil definir o que é inteligência artificial por a gente não sabe definir exatamente
o que é ser inteligente então existe toda uma discussão na área eu não vou entrar nesse mérito nessa profundidade vou só mostrar alguns casos para vocês mas existem dezenas de definições do que significa ser inteligente tá aqui eu coloco algumas questões só para vocês pensarem um pouco a fidelidade a a forma que o humano faz será que uma máquina ser inteligente ela precisa fazer exatamente do jeito que o humano faz ser inteligente igual a humano tem os mesmos processos de pensamento que o humano tem ou ela pode fazer de um jeito diferente e ser inteligente
mesmo assim o quão fiel ao modelo humano a gente quer ser será que só o resultado não basta se o humano faz de um jeito e tem um resultado X a máquina também tiver o resultado X mas fizer de outro jeito não basta eu fico bem feliz se ela fizer de outro jeito e funcionar tá Ah eu gosto muito da definição da inteligência artificial em que a gente não tá falando necessariamente da Inteligência igual a humana a gente tá falando da Inteligência que a gente consegue colocar na máquina E isso acho que nos libera um
pouco da obrigação de ter que reproduzir o ser humano dentro do computador tá bom ã aí nos Inteligência é única ou ela é multifacetada depois vou mostrar uma definição para vocês Super Interessante disso Será que a gente tem inteligência para andar para ver para ouvir às vezes é interessante a gente segmentar um pouco isso para nos ajudar a modelar computacionalmente e resolver o problema tá Ah essas questões parecem muito filosóficas Mas elas têm um impacto enorme na história da Inteligência Artificial vou contar isso para vocês daqui a pouco dependendo da do que você segue ou
de como você encara o problema você toma decisões de projeto de sistemas que podem ser diferentes né vou contar dois casos divertidos aí da Inteligência Artificial então tem muita gente que trabalha com ia trabalha com lógica então tem o famoso exemplo Da Lógica Vocês conseguem ver ali né Sócrates é um homem e todos os Homens São Mortais então usando a lógica fazendo dedução a gente chega à conclusão de que Sócrates é mortal certo todo mundo concordo com isso lindo nós humanos conseguimos usar essas regras lógicas para lidar com esses Fatos e produzir uma conclusão Por
que que a gente não coloca isso no computador então o problema é que a gente não consegue estabelecer essa lógica explicar todos os fatos explicar todos os raciocínios para todos os aspectos da vida pro computador tem muita coisa na nossa vida que é incerta que é vaga que é ambígua em que a gente não é lógico então isso tem limitação tá eu costumo fazer uma brincadeira que é a seguinte tá bom Aquele caso do o Sócrates é um homem é lindo é fácil de ver a dedução Mas eu continuo a brincadeira eu digo assim ó
Sócrates adora legumes e verduras mas odeia brócolis Tadinho do brócolis né cadê a lógica disso se ele gosta de verduras e legumes ele devia gostar de brócolis como é que você deduz que ele odeia brócolis então a gente começa a enxergar algumas limitações desse tipo de representação de pensamento na máquina outro exemplo muito famoso na ia é esse daí do avião Então os os primeiros projetos de avião tentavam bater asa imitando a natureza imitando a Biologia lindo né a gente quer imitar o que os o que a a natureza já faz se eu entrar num
avião e ele bater asa eu saio correndo tá eu dou graças a Deus que asa dele tá bem paradinha retinha sem nenhum parafuso caindo tá então a gente achou uma solução de engenharia diferente da dos pássaros a gente ainda não bate Asa e o avião voa e eu fico muito feliz com isso então é esse o meu olhar muitas vezes eh não é o olhar de todo mundo da Inteligência Artificial mas eu fico plenamente feliz mesmo que seja diferente da natureza e funcione tá então esse é o exemplo clássico que a gente encontra em todo
o livro de Inteligência Artificial E logicamente vem as perguntas filosóficas e são as que a gente mais gosta de discutir na hora do café Então a gente fala assim puxa o ser humano é inteligente então vamos fazer um sistema inteligente inteligência implica consciência e livre arbítrio aí começa o medo né nessa hora his que a gente começa a pensar no Apocalipse tecnológico Será que a máquina vai criar consciência e vai dar uma matadinha no ser humano né como acontece em todos os filmes de ficção científica que tem Inteligência Artificial então por exemplo tem esse famoso
filósofo aí o René decartes ele fala o seguinte ó a mente é mais do que matéria sendo que há uma parte o espírito que não segue as leis da física já entramos no no âmbito de metafísico da religião né e ele fala assim ó se a mente fosse governada inteiramente por da física então a gente não tem livre arbítrio tanto quanto uma rocha que decide rolar morro abaixo Onde tá a nossa consciência Onde tá o livre arbítrio como isso se se relaciona à inteligência tá uma outra linha fala assim ó funcionamento do cérebro segundo as
leis da física constitui a mente o livre arbítrio relaciona-se a como a percepção das opções aparece para o indivíduo lindo também a gente não sabe fazer isso na máquina até hoje tá Então veja como a gente ainda tá longe do Exterminador do Futuro as nossas máquinas até onde a gente sabe na fronteira do conhecimento da pesquisa elas ainda não tem essa consciência toda de tomar essas decisões desse tipo Esperamos que não tenham tá eh e aí vem a questão a gente quer Liv livre arbítrio a gente quer essa consciência para as máquinas até onde A
Iá pode chegar vou trazer alguns casos para vocês que parecem bobos mas são reais tá por exemplo os carros inteligentes os carros aut os eles devem cumprir seus objetivos a Qualquer Custo então eu quero sair daqui quero ir pro campus de São Carlos onde eu trabalho na USP esse carro deve me levar a Qualquer Custo atropelando pessoas batendo em outros carros o quanto ele tem que ser efetivo em cumprir sua meta lembram que a definição era agir de maneira efetiva e segura pode atropelar gente no caminho se ele atropelar de quem que é a culpa
é da montadora do carro é do programador do software é do cara que fez o radar que o carro usa verificar o ambiente ah Professor vamos maximizar a segurança para ele não atropelar ninguém então em termos se a gente quer maximizar segurança Talvez ele não deva sair da garagem tá super seguro Guardado na garagem não perceberam como é difícil onde é o limite aí da o que que ela deve fazer tem um exemplo que eu adoro que é esse aqui do xadrez todo mundo já jogou uma partida de dama de xadrez de paciência com o
computador né quanto ele tem que efetivo em ganhar da gente Vale queris máquina pode nos chantagear por exemplo Já pensaram nisso Eu nunca fui chantageado numa partida de xadrez espero que continue não chantageando a máquina pode fazer barulho ensurdecedor para tirar a concentração de quem tá jogando com ela tem uma passagem de um livro que fala assim olha um dos primeiros livros de xadrez sempre posicione o tabuleiro eh de tal forma que o sol bata nos olhos do seu oponente tá Então olha que interessante a gente também não quer que a máquina Faça isso então
A Iá tem que ter alguns Limites Tá E aí para terminar essa discussão de limites de a é só a gente pensar no nosso sistema mais famoso do momento chat GPT tá tô falando dele porque pela fama mas tem todos esses outros alternativos que surgiram aí imag que vocês já usaram um ou outro essa discussão vale para todos eles até onde esse sistema pode ir eu já vi muita gente usando para um monte de coisa a gente em vez de ler livro paraa escola ler o resumo que o ch GPT gerou tá eh em vez
de estudar para uma prova ou resolver um exercício pede pro sistema resolver clínica de atendimento psicológico que trocou o atendimento humano pelo atendimento do chat GPT vocês devem ter visto notícias assim quando o chat GPT saiu até onde a gente quer qual é o impacto disso pra sociedade difícil né certamente é negativo nesse ponto de vista do Mau uso agora do bom uso é incrível vou contar um causo para vocês causo é como a gente falava casa antigamente né para significar uma história Nós perdemos umas horas pensando em como a gente ia fazer o conteúdo
desse curso como é que a gente com uma audiência tão Ampla e variada podia ensinar um pouco de a para vocês um dos meus colegas o professor Roberto Marcondes que vocês vão conhecer daqui a pouco falou assim eu vou pedir pro chat GPT nos dar um palpite ele falou exatamente o que a gente queria fiquei muito orgulhoso gente ele fez em 10 segundos uma proposta quase igual a noss que a gente levou horas fazendo tá então a gente a gente vê o poder de de um sistema desse como ele pode ajudar tá se a gente
souber usar pro bem e não abusar aí do uso do chat GPT então a gente tá aprendendo a responder essas questões né Qual é o impacto pros indivíduos pra sociedade professor ele tá resolvendo tudo as crianças não vão nem saber mais escrever porque ele escreve ele faz tudo vai ser cop Cola será quando a calculadora surgiu também tinha esse medo de que as pessoas iam parar de fazer conta Acho que em parte pararam mas a gente ainda sabe fazer conta minimamente né Eh eu já ouvi um especialista falando assim que a diferença do chat GPT
para Calculadora é que nem comparar um uma bombinha dessas que a gente compra e explode em festa junina como explosão atômica o chat GPT é explosão atômica tá então a gente ainda vai aprender a lidar com esse tipo de coisa a gente vai falar dele daqui a pouco mais o que que tá por trás dele todos acreditamos que o cérebro é o nosso centro de inteligência hoje tá e a gente tem evidências físicas de a neurociência tem mostrado pra gente se a gente sofr um dano no cérebro a gente perde parte da nossa cognição ou
a totalidade da nossa cognição mas no passado olha que engraçado as pessoas Já acharam que foi o coração e o Bao então talvez não seja só no cérebro um dia a gente descubra isso né mas por enquanto a gente acredita que é o cérebro o nosso centro de cognição e o nosso cérebro é formado pelos nossos queridos neurônios com seus axônios dendritos bainhas todo mundo já viu aí uma figurinha de um neurônio né tem essa fala aí desse pesquisador que ela fala assim a mente é causada pelo cérebro e o Cérebro nada mais é do
que um conjunto de eh reações eletroquímicas entre células Professor Por que que você tá falando disso bom a abordagem dominante hoje na Inteligência Artificial são as redes neurais não biológicas artificiais inspiradas nesses neurônios que o nosso cérebro tem então eu vou falar disso depois também h a gente sabe que o nosso cérebro de uma forma ou de outra armazena memórias acessa funções cognitivas exatamente como eles fazem isso a gente ainda tá descobrindo isso também é importante pra gente algumas das abordagens da ia se baseiam nisso então por exemplo existe uma rede neural artificial computacional que
se baseia na forma que o nosso cérebro processa a visão vou falar disso depois para vocês à tarde Vocês vão ter uma ideia melhor desse tipo de rede neural então é interessante a gente desvendar esses fenômenos eh para conseguir projetar bem isso e para fechar essa primeira discussão eu vou trazer uma definição de um outro livro de Inteligência Artificial que eu gosto muito eu vou ler com vocês eu acho que ele sintetiza muito bem as dúvidas que a gente tem na Inteligência Artificial então ele diz assim ó o problema de definir o campo inteiro da
Inteligência Artificial é semelhante ao de definir a própria inteligência ela é uma única faculdade ou é apenas um nome para coleção de capacidades distintas e não relacionadas que é o que a gente já falou antes né até que ponto a inteligência é aprendida e não existe desde o nascimento o que acontece exatamente quando ocorre o aprendizado O que é criatividade O que é intuição sabemos muito pouco disso na área de processamentos de linguagem natural existe um ramo de pesquisa que chama criatividade computacional para tentar ensinar a máquina a compor música escrever poesia fazer piada Tá
mas ainda tá engatinhando comparado à outras áreas a inteligência pode ser deduzida do comportamento observável ou ela requer evidências de um mecanismo interno em particular essa é uma discussão enorme na Inteligência Artificial o quanto da Inteligência é inato o quanto a gente aprende vamos falar mais disso depois como o conhecimento é representado no tecido nervoso de um ser humano e que lições ISS traz para o projeto de máquinas inteligentes O que é autopercepção que papel desempenha na inteligência Além disso conhecimento sobre a inteligência humana é necessário para construir um programa inteligente ou uma técnica estritamente
de engenharia é suficiente para tratar o problema já falei um pouquinho disso né É possível conseguir inteligência em um computador ou uma entidade inteligente requer a riqueza de sensações e experiências que só poderiam ser encontradas em uma existência biológica essa é a pergunta que mais me perturba será que a gente vai chegar na inteligência da máquina um dia real Tem muita gente que não considera o que a gente faz inteligente Tem gente que fala assim o chat GPT não é inteligente ele é só vou usar o termo técnico que o pessoal usa não parece técnico
mas ele é tá é um papagaio estocástico então então ele é um sistema que viu muitos dados aprendeu padrões e usa esses padrões para responder as coisas só que por trás dele tem muita decisão importante de engenharia da ciência coisas que foram feitas aí ao longo de décadas se ele não for considerado inteligente vejam inteligente do ponto de vista da máquina tá não necessariamente igual ao ser humano a Biologia se o chat GPT a gente não puder chamar de inteligente o que é um sistema inteligente tá então eu falo eu acho que ele é inteligente
mas com esse com essa Ótica inteligência de máquina tá bom ah então são questões que nos perseguem são clássicas então aqui a gente tem o famoso pesquisador Alan Turin considerado pai da computação e e no seu artigo de 1950 ele já coloca essa pergunta vejam ó eu proponho considerar a questão máquinas podem pensar e aí ele tem todo um artigo descrevendo isso e ele propõe uma alternativa para essa pergunta o famoso teste de turing já ouviram falar do teste de tuning daqui a pouco eu falo um pouco mais dele é um teste mais objetivo que
nos ajudaria a dizer se a máquina alcançou algum nível de inteligência ou não Tá então Perceba como essa questão é já tá aí na área faz tempo né E hoje a gente ainda tá se digladiando com ela então vou muito brevemente resumir a história da ia para vocês desde os seus primórdios até hoje tá para dar uma visão Geral do que que tá acontecendo bom a gente considera que a gestação da Iá os primórdios dela datam aí de da década de 1940 em 1943 então tem o primeiro trabalho Olha lá 10 9 anos depois da
criação da USP tem o primeiro trabalho que as pessoas reconhecem oficialmente como sendo um trabalho de Inteligência Artificial que esses pesquisadores mulock e Pitz propuseram a matemática do que seria o primeiro neurônio artificial então Eles olharam pro neuron biológico vocês podem ver aí à esquerda do slide e tentaram propor algo parecido de um neurônio artificial de uma maneira muito simples ele basicamente pega algumas entradas os inputs como a gente chama né o sinal de entrada faz uma conta com isso e solta uma saída vocês podem pensar por exemplo que as entradas que a gente vê
naqueles risquinhos ali deixa eu ver se eu consigo mostrar para vocês Ó essas dai são as entradas ó são sinais Imagine que biologicamente os nossos neuros recebem esses sinais elétricos eletroquímicos né aqui vão ser entradas numéricas isso entra eu faço uma conta e solto uma saída esse neurônio vai soltar um sinal ou não pro próximo neurônio da fila se eu quiser imagine por exemplo que vocês querem decidir se vocês vão praticar algum Esporte joga tênis correr o que quer que seja então as entradas podiam ser as condições do tempo então eu podia olhar para esses
carinhas que estão à minha esquerda e falar assim como é que tá o tempo tá nublado tá sol deixa eu olhar mais uma coisa Tá tá chuviscando não tá ventando olho para isso tudo faço uma continha com esses dados e solto como saída sim ou não pode praticar seu esporte ou não vai praticar seu esporte então esse neurônio ele aprendia a fazer essa conta para conseguir responder pra gente eh se eu podia ou não jogar tênis por exemplo Então esse é considerado o primeiro caso de aprendizado automático ainda na teoria tá o neurônio artificial Surgiu
uma mais uma década depois na prática com outro pesquisador usando esse modelo famoso de neurônio bonito isso né então a gente usa aí a a Biologia para inspirar a inteligência artificial ainda na gestação a gente tinha os primeiros sistemas de jogos que jogavam damas então a gente já tinha aí o famoso teste de turing que vocês veem um desenho à direita então o teste de turing para tentar julgar se uma máquina tinha inteligência ou Não significava você colocar um humano de um lado de uma parede teclando conversando via chat com algo do outro lado da
parede que ele não sabe se é uma máquina ou é um humano se ele não conseguir distinguir se é máquina ou humano a máquina passou no teste de tu Ela mostrou desempenho inteligente se ele conseguir matar a charada e falar ah não ali é uma máquina que tá atrás dessa parede então a máquina falhou no teste tá resumidamente eh Essa é a ideia do teste de tu tá bom E aí em 56 H um pesquisador da Universidade darf M College nos Estados Unidos Ele propôs um workshop de 2 meses para tentar trabalhar essas questões de
sistemas inteligentes e na chamada desse workshop Ele usou pela primeira vez o nome Inteligência Artificial foi aí então que esse termo foi cunhado e que a gente usa até hoje muita gente chama essa área de inteligência computacional eh mas tem alguns motivos aí históricos que levaram a inteligência artificial predominar a inteligência computacional acabou sendo vinculada a muitas coisas que são inspiradas eh que tentam se inspirar na natureza que também são um ramo aí da Inteligência Artificial tá passamos então pras grandes expectativas pros entusiasmos da década seguinte das décadas seguintes as pessoas começaram a ver resultados
os jogos estavam bons estavam funcionando a máquina era boa em jogar né Eh a máquina aprendeu a resolver quebra-cabeça labirinto surgiram linguagens de programação de computador um pouquinho mais espertas como a famosa lisp acho que alguns de vocês já ouviram falar disso as pessoas começaram a fazer redes de neurônios então agora não é um só cada bolinha dessa é um neurônio como eu mostrei antes para vocês a gente começou a conectar essas coisas e esses neurônios começaram a funcionar surgiram de fato as redes de neurônios artificiais com várias entradas todos eles conversando interconectados e dando
uma saída tá Ah Surgiu uma aplicação do famoso Marvin Misk que ele chama de mundo dos blocos Então hoje pra gente é trivial isso mas na época isso foi um t de conceito enorme você instruir um computador numa imagem como essa pegar um bloco tal então falar assim pega o bloco Azul maior à direita de tal coisa então a máquina tinha que identificar nessa imagem Quem era Quem ela queria pegar então envolvia processamento de linguagem envolvia trabalhar conceitos de imagem planejamento isso foi caso de muito estudo na Inteligência Artificial bom década seguinte tempo fechou falou
muito de inteligência especial as pessoas criaram grandes expectativas e aí vem aquela famosa frase né grandes expectativas trazem grandes frustrações as pessoas começaram a perceber que a ia não conseguia generalizar esse raciocínio ela funcionava bem para casos pequenos Mas a gente não conseguia lidar com tarefas grandes eh problemas reais podiam ser muito difíceis podiam ser o que a gente chama na computação de intratáveis muito caros Então as pessoas se decepcionaram porque aquilo não escalava como a gente diz ou houve cortes de financiamento muita gente desistiu de trabalhar com isso na época mas a coisa melhorou
né pra gente chegar onde a gente tá as pessoas Descobriram que para os sistemas funcionarem bem eles precisavam de conhecimento conhecimento é considerado um dos componentes essenciais da Inteligência então surgiram sistemas baseados em conhecimentos eh ou sistemas especialistas em que as pessoas iam lá e codificava manualmente muitas vezes o conhecimento que elas tinham o exemplo clássico aqui é o médico então o médico tem muito conhecimento né então ele ia lá e falava assim põe no sistema a seguinte regra se a pessoa tiver com dor no corpo dor no fundo dos olhos e febre alta Então
ela pode ter Dengue Então as pessoas faziam isso para todas as áreas e os sistemas começaram a se desempenhar bem ã eles atingiram aqui o sucesso comercial Toda grande empresa tinha especialistas de a fazero nesse tipo de sistema eh a ideia era que esses sistemas finalmente tornassem a máquina inteligente começaram a surgir projetos de máquina nas melhores usando linguagens de programação mais inteligentes tá e mas infelizmente o marketing foi tanto a expectativa aumentou de novo houve outra frustração os sistemas não atingiram o que se esperava e a ia entrou no que a gente chama de
inverno da Inteligência Artificial então de novo muito corte de financiamento muita gente se afastou da área tá ah por conta da das maluquices que estavam propondo que não conseguiam atingir que não conseguiam fazer acontecer aí de 86 para frente o mundo começou a mudar as redes neurais começaram a voltar com dificuldades mas voltaram tá eh existiam métodos mais interessantes para treinar essas redes neurais novos modelos de redes eh Elas começaram a rivalizar com esses sistemas que usavam regras para resolver problemas isso é muito importante né porque elas aprendiam de uma maneira diferente ah de 87
até os tempos atuais o paradigma mudou então a gente parou de tentar resolver problemas pequenos para tentar resolver problemas reais a gente parou de filosofar sobre o que que é inteligência e passou a usar na prática esses sistemas para fazer as coisas funcionarem né a gente foi atrás de resultados experimentais o aprendizado de máquina chegou com força o aprendizado automático a gente passou a ter conjunto de dados que a gente usa para avaliar os nossos sistemas então Imaginem comigo tem vários tradutores automáticos no mercado Como é que você sabe quem é o melhor então você
pega um conjunto de traduções icial aí que todo mundo usa e roda todos os sistemas e compara eles Quem foi melhor tá E então a gente começou a fazer isso de uma maneira mais sistemática mais robusta com métricas de avaliação eh mais interessantes eh O que aconteceu foi um resultado interessante a área da iak era muito fragmentada se reunificou as pessoas vieram de volta para esse campo então a gente teve esses invernos na ias os cortes de financiamento esse novo olhar trouxe todo mundo de volta tá tá vou para vocês terem uma ideia o que
que o aprendizar de máquina é capaz de fazer vou trazer um exemplo clássico aqui todo mundo que já fez um curso de Inteligência Artificial de aprendizagem de máquina já viu esse exemplo lá em 97 um pesquisador famoso chamado Tom Mitchell lançou o livro que é considerado um dos principais Marcos aí na na Inteligência Artificial o livro de aprendizado de máquina e ele brincava com a seguinte ideia Ah uma coisa é a gente fazer um sistema ir lá e manualmente dizer assim se não tiver muito calor não tiver ventando eu vou jogar tênis Então essa é
uma abordagem para fazer um sistema inteligente o humano foi lá e fez isso outra coisa é deixar a máquina descobrir então eu tabelo todos os meus dias então por exemplo esse aqui é um exemplo clássico dele ó dia um D1 a aparência tava ensolarado a temperatura tava Alta alta umidade vento fraco no dia um eu joguei tênis não eu faço como se fosse uma agenda um diário dos meus dias no dia do também só que o vento estava forte Eu não joguei no dia TR estava no vento fraco eu joguei tênis registrei 14 dias da
minha rotina em vez de eu criar as regras para desenvolver o sistema eu mando a máquina aprender as regras Será que é possível então o aprendizado de máquina ele tenta fazer isso o que a gente aprende olhando para essa tabela uma técnica de aprendizagem de máquina é essa ó é como se fosse um fluxograma isso a gente chama oficialmente de árvore de decisão então eu olho lá pra raiz da árvore pro Nozinho que tá lá em cima né eu sei vocês estão achando estranho né a raiz não fica em cima professor fica embaixo só que
na computação a gente faz umas inversões às vezes Assim não vale a pena entrar muito num motivo para isso mas só para vocês entenderem porque que eu chamo de raiz tá então esse nó lá em cima ele fala assim como tá a aparência então se eu pegar o raminho da esquerda dessa árvore se tiver insolarado eu tenho que olhar a umidade se a umidade tiver alta eu não vou jogar tênis se a umidade tiver normal eu vou se eu olhar o tempo ele tiver nublado eu vou jogar tênis e assim por diante isso foi foi
aprendido automaticamente não é interessante isso a máquina tem o poder de aprender essas coisas isso é uma representação que a gente chama de simbólica a gente usa símbolos é possível pra gente ser humano olhar para aquilo e entender o que tá acontecendo ali nem todo aprendizado de máquina é assim logo em seguida a gente vai ter uma explicação só sobre isso que é muito interessante tá bom de 2001 para cá surgiu o que a gente chama de Big Data grande quantidade de dados a web tava explodindo aí no udio da sua popularidade né Eh até
hoje tá muitos dados em muitos formatos texto áudio imagem eh o poder computacional começou a aumentar bastante a baratear eh o aprendizado de máquina se consolidou muito interesse comercial aconteceu aí em 2011 uma coisa muito interessante a IBM inscreveu um sistema seu o famoso IBM Watson num show do Milhão americano que eles têm que é o geop e o sistema vem seu campeões humanos usando muito conhecimento muita inferência eh e probabilidade então isso foi um Marco na história aí recente o sistema vencer esse tipo de coisa tá surgiram as redes neurais Profundas vocês já ouviram
falar do termo Deep learning aprendizado profundo então só para esclarecer né Falei para vocês que a inteligência artificial é uma área grande dentro da inteligência artificial tem o aprendizado de máquina é importante a gente falar isso porque muita gente não sabe que aprendizado de máquina é um ramo da inteligência artificial dentro do aprendizado de máquina existe essa linha que a gente chama de aprendizado profundo ou Deep learning quem gosta de falar o termo em inglês tá alguns exemplos muito rápidos vou tentar usar a melhor metáfora que eu conheço para explicar esses modelos para vocês por
que que ele é considerado profundo porque ele tem várias camadas de processamento em geral Deep learning é usado para descrever redes neurais artificiais Então eu tenho várias e várias camadas de neurônios Processando o meu sinal para me dar um resultado e isso que vocês estão vendo é um modelo profundo que a gente chama de redes convolucionais ela é muito usada para processamento espacial processamento de imagens e coisas assim a melhor metáfora que eu conheço para explicar a rede convolucional é a da fotografia É como se você tivesse uma grande imagem e essa rede fosse tirando
fotos de pedaços importantes da sua imagem e tomando decisões com base nessas fotos que ela vai tirando Tá T tô explicando de maneira super simplificada meus colegas vão explicar em mais detalhe isso depois para vocês tá outro modelo interessante é a rede profunda recorrente em que ela gosta de sequência de dados então Imaginem um texto vocês querem ler um texto e saber se ele fala bem ou fala mal de um assunto um texto é uma sequência de palavras e símbolos não é aente é essae que CONSEG ler Dee palav por vez ir acumulando esse significado
para tomar uma decisão então ela não pega que nem a rede convolucional uma imagem inteira e vai processando ela pega uma palavra de cada vez e vai rodando sem parar até processar toda a entrada outro modelo de rede profunda que fez muito sucesso na Inteligência Artificial e aqui talvez esteja o mais famoso de todos né os famosos Transformers alguns traduzem por transformadores mas a gente chama eles de Transformers são pilhas e pilhas de redes neurais vocês podem ver que eles têm dois lados ali o lado dos codificadores em verdinho e o lado dos decodificadores em
vermelho é uma tecnologia que sur na tradução automática Então você dá uma frase em inglês por exemplo essas pilhas essa essa sequência de redes neurais vai processando a frase tentando aprender o seu conteúdo e aí vem os decodificadores que pegam esse conteúdo aprendido e decodificam geram na outra língua a resposta tá Por que que esse modelo fez tanto sucesso por alguns motivos porque essas redes neurais que ele usa são mais espertinhas que as redes neurais que a gente usava até então elas sabem prestar atenção no que é mais importante então se eu tô traduzindo uma
frase para outra do inglês para português algumas palavras têm mais peso elas influenciam mais a tradução ou como você escolher alguns termos do que outras essas redes neurais conseguiam prestar atenção nisso elas fazem A modelagem de atenção a gente treina essas redes neurais em grandes quantidades de dados já falei isso hoje aqui né quando eu falei do chat GPT a gente treina em grandes quantidades de dados a gente faz o que a gente chama de pré-treino um treino Inicial E aí a gente pode usar daquele jeito ou a gente pode ajustar aquela rede para uma
tarefa específica para deixar ela Melhor ainda então É como se eu ensinasse alguém a ler e aí eu falo assim agora que você já sabe ler no geral eu vou ensinar você a interpretar bula de remédio que é uma leitura mais difícil E aí você faz um ajuste da Leitura para ela ser melhor nessa tarefa Isso foi uma revolução na área você conseguiu utilizar um um treinamento básico igual fazer um pré-treino e só ajustar depois paraas suas tarefas a maior parte das tarefas Teve teve resultados muito melhores causou um impacto enorme usar essa tecnologia o
GPT ch GPT e Compania o que tá por trás deles é isso daqui então o GPT ele usa pilha de decodificadores do Transformers ele nem usa os codificadores os tradutores automáticos modernos que usam redes neurais estão usando isso daqui uma tecnologia super de ponta então vocês podem pensar assim professor vale a pena estudar isso então sim se você quer entrar na área de ia e quer est na fronteira do conhecimento eu diria que você tem que começar por essas redes neurais Profundas aqui a gente não vai ter tempo de abrir essas caixinhas e mostrar tudo
isso funcionando eh mas tem materiais muito interessantes muito didáticos tá para vocês entenderem melhor como isso funciona Olha lá em 2011 usando essas redes Profundas o sistema Alfa go venceu o campeão humano de Gol um jogo que era considerado quase impossível da máquina bem usando essa modelagem profunda de aprendizado tá umaa que aconteceu mais recentemente foi a entrada das empresas na Inteligência Artificial elas passaram a trabalhar em conjunto com as Universidades vários pesquisadores das Universidades foram pras empresas e muita comeou a nascer disso porque as empresas tinham mais dinheiro mais recurso computacional para rodar às
vezes mais dados surgiram aplicações surpreendentes via vídeo por exemplo o chat GPT e começa a surgir um medo de um novo inverno da Inteligência Artificial as pessoas têm medo das pessoas estarem com muitas expectativas todo mundo que usou o chat de PT aqui deve ter ficado Maravilhado né Então as pessoas têm um pouco de medo os pesquisadores têm medo disso causar um novo inverno uma nova frustração só que tudo isso tem um outro lado também tudo isso é maravilhoso as empresas investindo dinheiro as Universidades trabalhando juntas nisso só que a gente tá altamente dependendo da
dependente do poder computacional e da quantidade de dados para esses sistemas serem bem treinados e funcionarem direito tá como a gente já comentou aqui o professor Paulo falou antes eh as pessoas têm muito medo do Mau uso da tecnologia aí a gente pensa assim ah isso não acontece a gente só vai usar pro bem Aham vou dar alguns rápidos exemplos a gente vê isso na mídia toda semana né os incidentes com inteligência artificial estão aumentando então por exemplo a gente sabe que esses sistemas que processam imagem faz reconhecimento do rosto da pessoa funcionam melhor para
homens brancos você começou a fugir disso ele começa a errar e isso pode ser usado para situações terríveis pessoas sendo presas injustamente sendo acusados de terem cometido crimes que não cometeram tá e vários outros outros casos assim ah teve casos de grandes empresas que começaram a usar a ia e especificamente isso que a gente chama de ia gerativa como o chet GPT que é capaz de gerar coisa e para fazer análise de currículo então por exemplo você pega uma grande empresa como Google como Amazon deve receber milhares de currículos quando eles abrem uma vaga de
empresa de empresa como é que você seleciona quem é o melhor currículo eles tentaram usar Inteligência Artificial o que que aconteceu a inteligência artificial começou a escolher homens brancos para ocupar os cargos porque tinha muito viés nos dados e ele deixava de lado mulheres ou pessoas de outras etnias e assim por diante tá algumas empresas logo abriram mão de usar isso e voltaram humano no processo a gente sofre de um mal aqui gente que é o seguinte esses algoritmos de aprendiz de máquina eles ficaram tão tão bons que eles aprenderam até a parte ruim da
humanidade então eles se baseam em dados a gente tá usando a web como fonte de dados e na web tem de tudo tem muita coisa boa e tem todo o nosso lado ruim da humanidade misogenia homofobia transfobia discurso de ódio racismo vocês já ouviram o caso famoso do robozinho da Microsoft que depois de uns dias aprendendo da web virou nazista tá aí você fala assim ah o sistema errou Será que você errou ou fomos nós que erramos ao produzir aquele conjunto de dados então a gente não sabe a resposta para isso ainda como melhorar isso
será que é o caso da gente melhorar o algoritmo de aprendizado para fazê-lo conseguir filtrar isso e não aprender daquilo mas como identifica isso vocês sabem como é que o chat GPT identifica isso ele teve todo um treinamento especial para detectar todo esse tipo de discurso orrendo da humanidade Você fala Nossa que bom né então e ele filtra mesmo se vocês já tentaram falar coisas erradas com chat GPT ele ele vai te podar na maior parte das vezes pelo menos acontece gente que ele contratou as empresas openi que lançou o chat GPT terceirizou o trabalho
de pegar uma base de dados e rotular como discurso de ódio e não discurso de ódio pro sistema poder aprender a diferenciar uma coisa da outra essa empresa que subcontratar pessoas do Kênia pagando ó à hora de trabalho e um trabalho extremamente difícil de ficar o dia inteiro lendo o discurso de ódio e rotulando dizendo o que que era não era discurso de ódio Então teve bastante exploração humana por trás disso Então veja como a ainda Precisa melhorar tá em vários aspectos Deep fake Nossa Senhora temos um monte de exemplo na mídia todo dia de
Deep fake né de você criar imagens e áudios que não são da pessoa sendo usados pro mal ah as eleições isso se fala disso o tempo todo desde as eleições Americanas as brasileiras de outros países de propaganda direcionada de Deep fake sendo usado para convencer as pessoas eh a geração de desinformação tem acontecido bastante principalmente usando esses grandes modelos de língua então gente as pessoas têm razão e estarem preocupadas com o uso da ia tá tem muita discussão de regulação da Inteligência Artificial não é à toa tem bastante coisas acontecendo aí recentemente duas ou três
semanas atrás foi aprovada a primeira resolução mundial da ONU sobre o que que a ia deveria fazer então depois vocês podem buscar isso essa resolução e fala coisa super interessantes assim o Óbvio mais interessante Alguém precisava falar isso oficialmente ela falava assim não use um sistema de a para separar pessoas por gêneros por gênero por cor por Credo tá Ah e vejam que engraçado parece tão Óbvio isso pra gente né mas quando vocês olham a votação da ONU Teve muita gente que se absteve e muita gente que foi contra uma resolução desse tipo então vejam
como é uma questão mal resolvida pra humanidade isso ainda tá a gente tá aprendendo muito se vocês puserem resolução da ONU no Google vocês vão achar milhares de notícias sobre isso isso é bem fresquinho tá Ah existe um balanço anual sobre a ia que a Universidade de Stanford produz eu trouxe só alguns resultados que eles trouxeram no fim de 2023 eles fazem isso uma vez por ano então eles falam assim o que que aconteceu recentemente na ia as grandes empresas chegaram no cenário os conjuntos de dados que a gente usa para para avaliar os sistemas
estão saturando ou seja os sistemas estão indo muito bem nesses dados os dados já não nos ajudam a separar um sistema bom de um ruim a gente tem que melhorar o conjunto de dados A a tem ajudado no no progresso científico na investigação de novos medicamentos melhorando os processos matemáticos o número de incidentes com ia esse tipo de coisa que eu acabei de mostrar aumentou muito muito muito temos que nos preocupar com isso as questões éticas saíram da abstração chegaram no concreto a gente discute ética em a faz muito tempo mas sempre era uma coisa
meio abstrata a gente não via esses problemas éticos acontecendo em avalanche como eles estão acontecendo hoje tá a gente tá muito preocupado em conseguir explicar as decisões que a ia toma então uma rede neural profunda falou que aquilo que eu dei para ela é uma fake News Por que que ela tomou essa decisão eu quero entender o motivo e muitos métodos de aprendizado que a máquina USA eh não tem essa capacidade de explicar Então a gente tem buscado alternativas para tentar fazer isso com Contec tá houve um interesse público grande muita gente da ia tá
discutindo a regulação da ia o que que pode ser feito o que que não pode quem é o culpado eh os impactos ambientais estão surgindo aí com força então a gente sabe que para treinar um grande modelo de língua como o chat GPT vai muita energia a pegada de carbono disso é muito alta dá para faz mais barato tá e o que que o futuro nos reserva então é muito difícil prever o futuro na i a história mostra isso pra gente então aqui eu trouxe algumas frases que a gente já falou na Inteligência Artificial muita
gente falou assim ó conhecimento é o caminho época dos temas especialistas não não não são as probabilidades métodos beanos vocês lembram do Teorema de beas tem gente que tinha pesadelo com o teorema de base né a gente usa muito na Inteligência Artificial Não nada disso vamos usar aprendizado de máquina mas aprendizado de máquina a gente não sabe o que ele faz ele não é sólido a gente já sabe que tem técnicas muito sólidas aí né o caminho são os modelos neurais mas eles não são explicáveis Poxa temos algumas alternativas já hoje para tentar explicar esses
modelos ainda são limitados mas temos o que a gente fala hoje é isso né os grandes modelos de língua de língua são o caminho a chat de PT e Companhia que vou resolver tudo será a gente já errou tanto na história da ia nas nossas previsões tá Ah eu vou fazer uma tentativa de futuro daqui uns 10 anos vocês podem me cobrar tá eu acho de fato que os grandes modelos de lí vieram para ficar eles são Talvez um primeiro passo pro que a gente chama de ia forte ou ia geral que consegue resolver problemas
variadíssimos sem ser especificamente treinado para cada problema a gente vai começar a fazer hibridização de técnicas então vincular por exemplo aos modelos de língua conhecimento simbólico especializado ou estatística e as abordagens multimodais também tem se mostrado muito importantes multimodal no sentido de que ler mais de uma modalidade de entrada então não é só texto é texto é é imagem é vídeo é áudio a gente já tá vendo esse movimento acontecer na área tá eu acho que essas coisas vão se intensificar ã logo logo e eu paro por aqui pra gente tomar nosso primeiro café Tudo
bem então cafezinho lá fora aqui para mim são 10:45 voltamos 11:10 pode ser Ah então ó um recadinho vocês tiraram foto aí do do link pras perguntas pros formulários podem postar perguntas lá que a gente vai tentar responder algumas delas hoje mais tarde tá bom então bom café voltamos daqui a pouco gente pessoal Vamos recomeçar então alguns rápidos recados antes da gente recomeçar Ah eu já falei no início vou falar rapidinho de novo Tem várias pessoas com dificuldade de fazer login no sistema Apolo não precisa tá o Apolo era só para vocês fazerem inscrição podem
Ignorar as outras mensagens que o apo te mandar só não ignorem a última daqui uns meses que vai ser o certificado do curso para quem cumprir os requisitos aí para ter certificado tá bom o restante Deixa para lá a a transmissão no YouTube é aberto o material vai estar disponível de maneira aberta para todo mundo não precisa logar no apola não precisa de número USP não precisa ser aluno da USP para assistir esse curso São perguntas que estão fazendo incessantemente pra gente então Fiquem tranquilos quanto a isso todo mundo precisa marcar presença de manhã e
de tarde para quem ainda não conseguiu marcar a presença da manhã basta ler esse qco CDE que tá no slide ou entrar por esse link colocar o seu nome e seu e-mail completo cuidado para digitar o nome certo quem tá com dificuldade para ler o qrcode ainda não conseguiu aqui no cantinho vocês têm os monitores que tão para ajudar eles são jovens eles entendem tudo de celular então é a hora de vocês pedirem ajuda Tá eu vou pedir para eles ficarem um minutinho aqui na frente eh quem quiser quem não tiver conseguindo por Qualquer que
seja o motivo Desce aqui que eles ajudam vocês agora Tudo bem eu vou deixar o q code aqui na tela mais um minutinho e a gente já começa a próxima sessão pessoal última chamada para quem tá tendo problema técnico com QR Code com página então mais uma dúvida que estão fazendo todo esse material vai est na página do curso a página do curso tá no e-mail que todos vocês receberam quando foram notificados da seleção tá bom muito bem passamos agora pra segunda parte do nosso curso eu vou apresentar para vocês a Professora Nina irata minha
colega aqui do projeto de Inteligência Artificial e ela vai entrar mais a fundo agora nesse assunto que a gente falou muito rapidamente que é o aprendizado de máquina ved PR Nina contar um pouquinho a históriaa antes de comeo poder coner a n muito [Aplausos] obrigada deixa eu ver se Talvez um pouquinho mais alto Alô alô eh Bom dia a todos eh a todos que estão remoto também Bom dia meu nome é Nina Hirata Eu Sou professora aqui no departamento de ciência da computação do Instituto de matemática e estatística da USP nesse Campo então ah a
ideia hoje é eu falar um pouquinho sobre então aprendizado de máquina então o Thiago deu uma um belo Panorama sobre a como as coisas foram se desenvolvendo eu vou abrir um pouquinho a caixinha e tentar explicar um pouquinho como funciona aprendizado de máquina o que que é aprendizado de máquina final vamos ver se oos slide funciona aqui ok então Eh o que que a gente discutiu que eh essa parte de Inteligência Artificial recentemente tá dependendo muito da da questão da disponibilidade de dados e duas subáreas então que se destacam dentro da grande área de inteligência
artificial é área de aprendizado de máquina que eu tô chamando de machine learning e Deep learning ou aprendizado profundo e é sempre bom lembrar que junto a esses avanços que nós tivemos na na ia tivemos o quê na verdade eh muitos avanços computacionais Então os fatores relevantes pra gente ter chegado até esse ponto é a capacidade de coletar dados transmitir dados armazenar e processar dados do do ponto de vista computacional e essa abundância de dados Então essas coisas meio que são eh fortemente correlacionadas né Eh eh e aí como vocês podem ver eh machine learning
é uma subárea dentro da Inteligência Artificial e Deep learning é digamos uma sub subárea aí ou seja está dentro da grande área de a depois da de machine learning eh bom e eu vou tentar explicar machine learning do ponto de vista assim sobre uma perspectiva computacional porque no fundo a gente tá falando de máquinas ou dispositivos computacionais ou seja máquinas que têm capacidade de processar dados e aqui vocês podem ver alguns exemplos de Tais máquinas né então desktops notebooks smartphones Eh sei lá os eh os tablets Hoje em dia a gente tem relógios inteligentes sei
lá tem várias eh dispositivos que T algum poder de computação e portanto podem ter uma inteligência de máquina como o Thiago disse tá eh Ok então como a gente estamos ah pensando em computadores ou computação eh atrás de desses sistemas ou desses dispositivos existem sistemas computacionais para fazer esse processamento de dados E aí eu vou começar então primeiro tentando explicar o que que é computação assim principalmente para aqueles que não tê muita a vivência experiência obviamente aqueles que já estudaram computação ou programam Isso aqui vai ser muito babá assim redundante mas eu acho que como
como vocês perceberam como a gente já discutiu tem perfil pessoal de perfil muito variado aqui acho que é interessante Então eu D uma ideia de O que que a gente faz em computação assim simplificadamente então computadores processam dados e eh a gente consegue pensar então eh tarefas de computação e aqui um exemplo que eu tô mostrando é processar imagens tenho imagens de fundo de olho e um interesse é eu extrair os vasos presentes nessa imagem porque a a forma como que esse vaso se espalha no olho etc é uma informação relevante por exemplo para saber
se tem alguma doença do olho ali tá eh e aqui existe então processamento entra uma imagem e do outro lado sai também uma outra imagem Mas é uma imagem processada outro exemplo de processamento que que o computador pode fazer bom eu tenho um monte de números aqui eu quero somar eu posso fazer o computador me d a soma Qual é o total daquela adição então de novo entrada tem um monte de número saída também é um outro número ali tá no terceiro exemplo de de processamento a entrada POD ser uma frase em uma língua qualquer
aqui no exemplo em chinês por exemplo tem algum processamento e na saída eu quero essa frase eh em outra língua por exemplo aqui português então de novo entrada a saída então de forma geral a gente pode pensar computador como processament desculpa uma máquina que realiza processamento de dados é basicamente isso que o computador faz processar dados pega um dado fora ou então gera novos dados eh Então resumindo é isso né a gente tem computadores que realizam processamento de dados e em geral a gente consegue caracterizar esse processamento em termos de os dados que entram os
dados que saem e agora para a gente fazer o computador realmente fazer esse processamento nós precisamos programar o computador e é isso que os vários estudantes deut de sistemas de informação Engenheiros muitas vezes aprendem a programação de computadores e Então aqui tem um exemplo de O que que seria uma programação de computador quer dizer não é exatamente uma programação mas um eh eu preciso pensar o que que eu preciso fazer eu preciso ler os dados depois eu preciso ir calculando a a adição termo a termo até gerar o resultado então vocês não precisam não entendeu
o que tá escrito aqui mas isso aqui seria uma espécie de pseudo código que depois eu posso transformar isso em algo que o computador consegue eh entender e aí ele iria processar os dados de acordo com essa sequência assim digamos de de instruções tá então esse seria o trabalho de um programador pegar e escrever Esses códigos computacionais tá bom somar números acho que qualquer um consegue fazer qualquer um que tá começando a aprender a programação consegue fazer mas agora vamos pensar um problema um pouquinho mais elaborado que seria por exemplo reconhecer placa de veículos aí
reparem que aqui a entrada é uma imagem não é o número nem nada é uma imagem uma foto da placa do veículo eu gostaria então de reconhecer Qual é a placa então a entrada a imagem a saída são as letrinhas e os dígitos que formam a placa essa seria atenção eh isso requer o quê processar imagens de alguma forma eu teria que escrever um programinha para ler imagens Seja lá o que for isso eh isso na prática não é algo fácil então só para dar uma ideia de o que não é que isso não é
fácil em vez de pensar em placa de veículos Vamos pensar no problema só de reconhecer fotos de letras a ou olhar fotos de letras e dizer se essa letra é uma letra A então a gente poderia tentar escrever um programinha de computador para fazer isso só que aqui eu tenho alguns exemplos de como as letras as podem aparecer aí na frente da gente aqui são alguns exemplos só vocês podem ver que podem mudar de tamanho eh a fonte pode variar pode ter textura pode ter cor pode ter uns eh uns enfeites aí ficar mais bonitinho
Alguns são vazados outros são preenchidos etc então eu teria que dar conta de considerar todas essas variações e muitas outras que nem aparecem aqui então imagina o trabalho de um programador para tentar fazer regras para reconhecer cada uma dessas coisas ok E aí vem a a ideia de machine learning então é em vez de eu Eh escrever o programa Será que a gente consegue treinar uma máquina para ele aprender a reconhecer e aí como assim aprender a reconhecer a partir de exemplos então aqui vocês podem ver exemplos de eh imagem de letra e a resposta
a à direita de cada letra Então aqui são exemplos de entrada a saída se eu reunir vários desses exemplos e passar pro computador Será que computador consegue aprender a fazer esse mapeamento da entrada pra saída essa a ideia fundamental aí da de machine learning ou seja aprender a partir dos dados eh e uma vez que a gente consiga treinar a máquina vamos supor que sim o que que nós esperamos é que a hora que eu pegar uma uma foto de uma letra qualquer e passar pra máquina a máquina seja capaz de dizer ah isso é
uma letra x maiúscula tá então essa a ideia de machine learning e agora eu vou começar a tentar explicar um pouquinho como é que essas coisas funcionam na prática quer dizer como é que a gente consegue fazer esse tipo de coisa e para isso eu vou usar dois tipos de problemas que são muito comuns na área de eh aprendizado de máquina basicamente A ideia é eu tenho alguma Algum objeto que eu quero identificar classificar então problema de classificação pode ser o problema de letras eu tenho foto de um monte de letras eu quero reconhecer a
letra ou eu tenho foto de gatos e cachorros eu quero dizer isso é um gato isso é um cachorro e assim por diante e temos também problemas de regressão que são coisas do tipo eu tenho uma casa eu gostaria de saber qual é um preço razoável Qual é o preço estimado se eu quero vender essa casa aluma coisa assim onde a minha saída é um valor contínuo bolsa de valores por exemplo qual que vai ser o índice ali não sei das quantas Ok então Eh para falar de classificação eu vou esquecer um pouquinho as letras
e vou trazer umas frutinhas aqui então Eh é para vocês pegarem Isso numa boa não é para levar isso super ao pé da letra A forma como explicar isso é só um recurso didático só para mostrar como as coisas funcionam então Suponha que eu quero eh separar bananas de peras todos conhecem bananas e peras Então acho que fica mais fácil F explicar assim e é isso que eu vou fazer eh então como eu disse eu tenho dificuldade de pegar fotos de bananas ou peras ou qualquer coisa e fazer alguma coisa então vamos por enquanto simplificar
e fazer o seguinte em vez de eu ter a foto Suponha que eu vou calcular atributos desses dessas frutas aqui e aí primeiro atributo é relativo à cor o qu Amarelo fruta é e vamos pensar que a fruta tá madura já porque senão a banana estaria Verde desde o começo não ia dar certo então vamos supor que eh cor é um atributo que eu é uma informação que eu tenho e o segundo atributo que eu tenho é a questão de simetria ou assimetria então o que que eu quero dizer com isso então se vocês olharem
essas quatro figuras aqui embaixo vocês podem ver que na esquerda a pera é mais verdinha à medida que você vai indo para a direita vai ficando mais Amarelo então de certa forma podemos dizer que as peras tendem a ser mais verdes e as bananas mais amarelas se pensarmos em cor se pensarmos em simetria tem Temos algo parecido assim no sentido de simetria no sentido de se eu fizer uma Ah eu não posso virar essa mão perdão refletir ali o cortar o o negócio no meio e fizer o espelhamento meio que continua tendo o mesmo formato
então no caso da pera se ele tá em pezinho basicamente se você cortar e trocar de lado meio que você continua tendo uma pera no caso da banana depende aqui eu tenho duas bananas uma tá em pé se banana pode ficar em pé não sei mas de qualquer forma em pé está bem simétrica mas quando a banana tá deitada Ela já não é mais simétrica então bananas são mais assimétricas peras são mais simétricas ok então são esses dois atributos que eu vou trabalhar o que que eu vou fazer agora então Eh eu posso pegar esses
atributos e colocar então Eh nesse eixo X o valor da assimetria então para cada fruta eu consigo calcular um índice de assimetria Digamos que varia de zero a 1 zero significa que é não assimétrico Ou seja é simétrico e um que seria mais na ponta aqui direita seria que é altamente assimétrico da mesma forma no eixo Y aqui eu posso pensar que aqui eu tenho o grau de com amarelo a fruta é então mais para baixo seriam mais verdes mais para cima seriam mais amarelos Então nesse sentido cada pontinho que aparece aqui corresponde a uma
fruta tudo bem isso aí tá claro para vocês então peguei a fruta calculei o índice de a similaridade e o grau de amarelo e aí virou um pontinho aqui nesse gráfico tá E aqui então vocês estão vendo uma nuvem de pontos marrons que seriam as peras Como eu disse eles tendem a ser Eh mais simétricos ou menos assimétricos mais verdes aqui mais para baixo e menos amarelos e do lado direito a gente tem as bananas que são mais assimétricas certo e mais verdes ou seja estão mais para cima OK então essa aqui seria a representação
de algumas amostras de peras e bananas em termos desses dois atributos muito bem agora eu tenho esse problema eu quero saber o que que é pera o que que é banana e a representação que eu tenho das peras e bananas é esse gráfico aqui então qual seria um jeito de separar peras e bananas bom uma possibilidade é isso eu posso traçar uma reta nessa nesse plano aqui e dizer que o que tá do lado esquerdo são peras o que tá do lado direito são bananas isso faz sentido para vocês não faz eh é claro que
tem alguns errinhos aqui no meio do caminho esses que eu marquei em vermelho são as bananas que invadiram a área das peras e as peras que invadiram a área das bananas mas é um caso ou outro então é uma separação bastante aceitável às vezes alguém vai levar uma banana no lugar de perira e etc mas tudo bem assim o o o risco é baixo aqui eh e aí o que acontece bom se esse separador tá tá aceitável eu posso agora pegar uma fruta qualquer aqui uma pera banana eu não sei o que que é tem
uma fruta aqui vamos supor que eu não sei o que que é essa fruta aqui eh o que que eu vou ter na prática é são as duas os dois atributos né o comão assimétrico é e o comão amarelo essa esse fruto é E aí eh baseado nisso eu consigo Então colocar essa essa nova fruta aqui nesse gráfico e ele caiu no lado da pera então é bem provável que seja uma pera Então essa é a parte de digamos uma vez eu já tendo a máquina treinada fazer classificação de coisas novas agora eu posso pegar
uma outra medida aí assimetria e cor e jogo o ponto nesse gráfico eu vejo para que lado esse ponto vai cair e com base nisso eu sei dizer se é uma pera ou banana como eu disse a gente pode errar um pouco mas faz parte da brincadeira tá eh o problema de regressão eh eu vou explicar via esse exemplo aqui então Eh Suponha que eu tenho uma casa quero vender essa casa eu queria ter uma ideia de quanto eu de devo cobrar qual que seria o preço razoável para colocar venda né Então nesse caso nesse
gráfico aqui o que que vocês podem ver aqui no eixo X digamos eu tenho a área da casa que pode ser uma casa pequenininha ou uma casa bem maior aqui no eixo Y Cadê o eixo Cadê o meu apontador errei A Miragem perdi e aqui no eixo Y eu tenho o preço da casa cada um desses pontinhos pretinhos que vocês estão vendo aqui são eh exemplos que eu já tenho de casas que digamos eu calculei a área e aí já foram vendidas ou compradas eu sei qual que é o preço eh e aí qual que
é a ideia então da regressão é eu tentar meio que encontrar uma uma linha aqui no caso que tenta se ajustar esses pontinhos pretos Porque se vocês pensarem bem existe uma tendência que quanto maior a casa maior tem de ser o valor dessa casa então eu posso dizer que a relação área da casa preço da casa é uma relação meio linear crescente aqui cresce a área cresce o preço também junto né E se eu conseguir digamos Se eu conseguir achar essa linha que consegue de certa forma captur durar bem essa tendência crescente o que que
acontece agora eu tenho aqui em azul a minha casa que tem uma certa área E aí eu posso rebater aqui e depois vi aqui e ver qual é o preço isso vai dar uma ideia não quer dizer que vai ser exatamente o preço mas vai me dar uma ideia então esse é o problema de regressão basicamente é um problema que eh você tem observações aqui no no x E aí eu tô querendo estimar por exemplo valor sei lá temperatura algum valor contínuo então eu posso usar essa ideia e aqui a gente tá usando uma reta
para fazer essa essa relação entre área da casa e o preço da casa mas não precisaria ser uma reta poderia ser uma curva qualquer também e outra coisa É eu tô falando em área da casa mas na prática eu posso considerar outros atributos da casa por exemplo se tem quintal tem garagem onde está localizado quando foi construído sei lá se bate sol na área etc etc Então embora que eu só represente o X em uma variável eu poderia representar em várias variáveis e nesse lugar da reta Eu teria na verdade um plano ou uma superfície
eh passando ali pelo pelos pontos assim digamos Ok então aqui a a expliquei o que que é classificar e o que que é fazer uma regressão E vocês viram aqui eu tô mostrando exemplo de encontrar retas para separar perira de banana ou passar essa reta para capturar essa relação entre área da casa e eh o preço da casa muito bem e aí a questão é como é que a gente vai achar essa reta Então aí a gente fala em qual que é o princípio utilizado para treinar uma máquina A ideia é dentre todas as soluções
possíve encontrar uma que tenha o menor erro Então nesse caso aqui da da classificação de fato vocês meio que não sei se essa é a melhor reta Mas é uma das melhores que eu consegui encontrar que erra menos assim digamos para esses pontos que eu tenho e aqui no caso da da regressão também tá mais ou menos razoável essa reta aqui se a gente pensar em como é que a gente conta erros no caso de esse problema de de regressão o erro é basicamente essa diferença entre o que a reta está predizendo e o valor
real do imóvel Esse é o erro então a gente tenta minimizar a soma desses erros considerando todos os imóveis para os quais eu já conheço o preço isso pode ser explicado por essa fórmula aqui embaixo não vou detalhar isso mas existe uma forma matemática pra gente calcular a eh esse erro e o objetivo Então seria o quê tentar encontrar a descrição dessas retas que minimizam esse erro aqui tá eh e aí então eu vou colocar aqui uma equação Zinha essa equação aqui no fundo representa eh uma eu posso pensar que representa uma reta no plano
então se eu pegar por exemplo especificamente essa equação aqui onde o w0 é -05 W1 é 1 W2 é -1 e pegar os pontos onde essa equação é exatamente zero eu vou ter o quê essa reta aqui se eu pegar e trocar o primeiro coeficiente o w zer por menos mais 1.5 eu vou ter essa outra reta laranja e assim por diante se eu for mudando esses valores eu vou tendo retas diferentes ou mudam de posição ou mudam de ângulo tá então o que que eu tô querendo dizer com isso que como é que a
gente tem a família de todas as soluções possíveis se estivermos pensando em retas é simplesmente eu posso variar esse valor w0 W1 W2 se eu considerar todas as variações possíveis eu consigo preencher o plano inteiro variando a reta de ângulo posição etc Então essa é a minha família de todas as posições todas as retas possíveis e o o objetivo do aprendizado de máquina então é encontrar uma dessas que melhor Separa ou se ajusta aos dados que eu tenho eh e aí eu vou trazer de volta o neurônio que o thgo mostrou agora antes eh como
vocês eh como ele já explicou assim rapidamente eu vou falar mais um pouquinho aqui o que que nós temos eh Então temos aqui entrada que podem ser aqueles atributos que eu falei o com amarelo é com assimétrico é e outras eh informações do outro lado nós temos eh a saída ou seja esse neurônio simplesmente recebe os atributos e responde lá na frente se é uma banana se é uma pera ou então Qual é o preço da casa essa é a ideia e ah o thago já falou dessa dessa combinação aqui que acontece o que que
o neurônio faz simplesmente pega esses dados faz uma conha e a partir da conha toma uma decisão para dizer é uma banana opira e essa conha basicamente se vocês lembrarem é o meu aqui eu escrevi B para ficar consistente com dado mas seria o w0 + W1 X1 + W2 X2 e bom aqui eu tenho mais então eu poderia somando W3 + X3 W4 + X4 etc etc é uma combinação linear das entradas cada entrada x tá ponderado por um w e o que que a gente comentou sobre essa equação são retas então o neurônio
essencialmente ele tá aprendendo uma função linear se a gente pensar em duas variáveis é uma reta eh OK agora eu tô dando exemplo com retas porque é mais fácil de explicar visualizar mas em princípio a gente pode pensar em qualquer tipo de curva para fazer essa separação poderia ser uma coisa semim curva eu poderia pensar em algo muito mais elaborado uma coisa bem tortuosa aqui eh então essas são escolhas Possíveis quando a gente fala em ou seja qual é a família de curvas ou funções eu vou usar para fazer essa separação esse ajuste nos dados
eh Talvez algumas pessoas tendam a achar que a solução melhor aqui é o que tá à direita porque aqui ele não tá errando nada certo se a gente olhar Cadê CAD me aqui eh o que tá desse lado da curva é todo mundo azul o que tá desse lado todo mundo é marr então aqui não tem erro nenhum então tá perfeito só que em machine learning a gente tem também a questão do sobreajuste Se você começar gerar na na família de funções na complexidade dela eu posso ficar muito preso aos dados que eu tenho em
mãos e esquecer o resto porque Qual que é a ideia do aprendizado de máquina não é não é ela funcionar apenas para pras pros dados que você tem então você coletou meia dúzia de de amostras e quer que o sistema aprenda Mas eu não quero que ele aprenda Só aqueles seis casos eu quero que aprenda todo o resto tá então eh é muito possível que a melhor solução nesse caso seja o que tá à esquerda Apesar de ele tá errando um pouquinho eh podemos pensar também em coisas mais complexas aí eu vou retomar a ideia
de árvore de decisão do que o thgo comentou rapidamente eu vou falar mais um pouquinho eh então a ideia da árvore de decisão se a gente olhar desse ponto de vista de esses pontinhos no gráfico então ali em cima o branquinho seria todo mundo aqui e aí eu vou fazer um corte aqui nesse no plano então tô dividindo o plano em Duas Metades o lado esquerdo e o lado direito que é as bolinhas que vocês estão vendo aqui e é aqui então eu teria pergun assim ponho está do lado esquerdo ou direito em relação a
essa esse corte aqui a partir disso eu posso ir pra esquerda ou pra direita tá E aí aqui vocês podem ver que eu fiz o corte num lugar mais ou menos Ok no sentido de que a maioria que tá do lado esquerdo é marrom a maioria que tá do lado direito é azul só que tem umas umas misturas aqui então eu vou tentar refinar um pouco mais isso então vamos lá mais um passinho agora eu fiz mais um corte aqui pegi aqui e cortei ou seja esse Nozinho aqui uma vez que eu vim para cá
Ou seja eu já estava do lado direito aqui eu posso fazer mais uma pergunta ele está do lado esquerdo ou direito em relação a essa segunda linha vertical aqui e aí eu vou pro para essa parte do meio aqui marrom ou eu vou pro lado direito Azul então percebam que aqui eu estou crescendo uma árvore de ponta cabeça comecei com a raiz branca e agora os Ramos estão aparecendo então por isso que essa estrutura de decisão é chamada de árvore de decisão E eu posso ir crescendo essa árvore Então vou crescer mais um pouquinho só
para ficar mais claro Eh agora o que eu fiz foi pegar então essa faixa do meio que é essa bolinha marrom aqui e dividir de novo em dois pedaços uma parte marrom uma parte azul e aí percebam que quando eu fiz isso eh essa parte do meio agora tá correta a parte da de baixo tá marrom a parte de cima está Azul agora eu vou fazer o quê eu vou pro lado direito esquerdo dessa árvore e vou resolver o lado esquerdo aqui então essa a ideia de crescer uma árvore de decisão e a gente consegue
fazer isso eh no computador assim já existem coisas prontas para fazer isso mas a gente consegue programar isso também isso é relativamente quer dizer é trabalhoso mas é já bem estabelecido eu não vou continuar crescendo a árvore mas eu poderia também continuar crescendo mais se se houvesse necessidade e aqui o que eu queria eh chamar atenção é a a questão de onde que fica a superfície de decisão se a gente seguir essa linha aqui depois aqui depois aqui e aqui então na parte superior a gente tem o azul que seriam as bananas e aqui na
parte de baixo eu tenho as peras esse seria o resultado final mas pra gente chegar nisso eh na prática se percorre essa estrutura aqui de decisão então uma vez construída essa árvore agora eu consigo classificar qualquer pera ou banana simplesmente eu calculo novamente a a simetria e com o amarelo é esse ponto vai cair em algum lugar mas para saber aonde ele caiu eu simplesmente vou percorrendo essa árvore e vou descendo subindo né pro ramo até chegar numa folha que é onde vai tá o a informação de se é banana que é azul ou se
é Beira que é marrom bem Ok eh então agora quer dizer eu especifiquei então algumas eh superfícies para separar ou curvas que a gente pode usar para fazer ajuste nos dados E aí eu queria também trazer esse gráfico e vou tentar explicar por palavras eh que eu não tenho mais furas mas aqui a ideia é o quê eu posso pegar dois neurônios não sei se vocês lembram que o Tiago comentou que eu posso pegar um monte de neurônio juntar e montar uma rede neural aqui eu tô ilustrando um caso em que eu tô pegando dois
neurônios Lembra que eu falei que o neurônio no fundo essencialmente ele tá traçando uma reta então se eu tiver dois neurônios eu posso traçar duas retas vocês concordam e aqui é um exemplo de duas retas então vocês podem pensar que cada neurônio tá gerando uma dessas retas aqui e isso faz o quê se antes com um neurônio eu conseguia separar o meu plano em metade da esquerda ou da direita agora eu consigo por exemplo separar em quatro regiões diferentes vocês concordam ou ou seja se eu tiver mais retas ou mais neurônios eu consigo separar em
mais regiões eu posso usar tantos quantos neurônios eu quiser e começar a fazer essas bordas muito mais elaboradas se eu tiver neurônios suficiente eu consigo até aproximar uma região circular eh não vou entrar em detalhes assim sobre isso mas acho que vocês conseguiram pegar a ideia ou Espero que tenham pego a ideia sobre isso E aí bom Aqui está a a rede neural assim um exemplo de rede neural então novamente aqui temos eh entradas né de um lado saídas de outro e aí cada uma dessas bolinhas azuis são neurônios que como o Thiago já disse
são eh no modelo mais genérico são organizados em camadas então cada cada fileira aqui vertical é uma camada e o process orçamento aqui na rede neural ele é eh entra aqui e vai propagando o dado para a direita ou seja a entrada passa pelo os neurônios da primeira camada que vão gerar a saída essa saída vai alimentar os neurônios a próxima camada isso vai propagando então é sinal que entra e vai propagando e depois lá no final sai a resposta entre aspas e e o que é importante também comentar aqui é que cada uma dessas
conexões que vocês estão vendo são aqueles parâmetros que eu falei o w0 W1 W2 e aqui eu tenho vários infinitos muitos sei lá então quanto maior a minha rede neural mais parâmetros eu vou ter para fazer o ajuste eh Então como é que a gente faz esse ajuste de parâmetros eh uma forma de fazer Principalmente quando a gente fala em redes neurais a técnica mais utilizada para fazer ajuste de parâmetros é via um processo iterativo como é que funciona isso então A ideia é inicialmente eu poderia começar com valores quaisquer que eu vou atribuir inicialmente
pros meus parâmetros o w0 W1 W2 etc etc que aqui eu denote por eh cadê perdi não aqui então Suponho que w0 é que representa o conjunto de todos os pesos no instante zero antes de iterar e eu vou fazer o quê eu vou pegar um dos exemplos que eu tenho por exemplo aqui vamos pensar que eu tô querendo reconhecer letras então entrada propaga e eu vejo a saída a saída está correta se estiver correta perfeito não preciso fazer nada mas se a saída estiver errada o que que eu vou fazer eu vou eh e
alterar o valor dos parâmetros de forma que a saída fique mais correta talvez não fique 100% correta mas talvez eu consiga aproximar e chegar mais perto da resposta correta então A ideia é sempre fazer isso a cada iteração eu posso ir eh usando exemplos diferentes ou pode até ser o mesmo exemplo posso usar elas repetidas eles repetidas vezes a cada iteração passo o exemplo que eu tenho confiro com a saída que eu tenho que eu espero que seja a resposta está correta se estiver ok se não altero os parâmetros eh não vou explicar como a
gente faz essa alteração de parâmetros porque aí eu teria que dar um curso de cálculo e acho que não é esse o objetivo mas existe então todo fundamentação matemática computacional e assim por diante pra gente fazer esse ajuste a partir do erro que a gente mede ali no no final como eu tinha dito antes eu a gente consegue medir o erro lá no final e a partir daí a gente consegue eh mexer esses parâmetros de forma que o erro diminua e matematicamente conseguimos mostrar que esse erro à medida que nós iteramos ele vai diminuindo Então
pode demorar um pouquinho talvez eu tenha que iterar 100 vezes 20 vezes sei lá 1000 vezes dependendo do modelo talvez 1 milhão de vezes mas alguma hora eu vou chegar eh numa situação de pouquíssimo erro e é isso que a gente sempre busca fazer tem aprendizado de máquina pelo menos em relação a redes neurais existem outras outros algoritmos outras técnicas que não necessariamente seguem esse esse tipo de ajuste de parâmetros eh de forma geral a gente sempre quer minimizar o erro Eh ok então acho que falei até agora então qual o que que é o
problema de classificação regressão e a gente tem os exemplos nós queremos ajustar alguma função ou para separar ou para descrever a relação entre entrada e saída eh e aí eu falei um pouco então de como que o que que é treinar uma máquina e então vamos eh só recapitular isso Eh como eu disse antes de mais nada a gente precisa muito bem definir o que que é a nossa tarefa quando a gente pensa em fazer ou aplicar machine learning O aprendizado de máquina o que que eu tô querendo fazer então em termos de entrada saída
eu tenho que ter essa definição muito clara qual é a tarefa computacional que eu estou querendo resolver isso é um detalhe muito importante ah segunda coisa eh a técnica que eu estou explicando aqui aprendizado de máquina e na verdade é chamado de aprendizado de máquina supervisionado porque eu tenho exemplos de entrada saída eu tenho a a medida lá das frutas e eu sei isso é uma banana Isso é uma pera então a supervisão se refere a essa resposta eu tenho as respostas mas há situações onde eu não tenho essa resposta apenas eu coletei dados e
agora o que que eu faço com esses dados isso eu nem vou comentar hoje aqui não vai dar tempo mas o exemplo que eu tô mostrando é o que a gente chama de aprendizado supervisionado eh Então nesse caso a gente precisa também ter esses exemplos de entrada saída para poder treinar a máquina e como eu falei eu falei bastante da de usar retas para fazer essa separação etc mas na prática eh como eu disse eu posso usar outros tipos de superfícies outros tipos de funções muito mais complexas então outra coisa que a gente precisa fazer
quando pensa em aplicar machine learning é saber escolher o que seria essa a família de funções adequadas não pode ser muito simples em alguns casos só uma reta não é não vai resolver o meu problema mas também tamb não pode ser uma coisa muito tortuosa como aquele exemplo que eu mostrei porque aí eu corro o risco de eh exagerar na dose e de repente funcionar só para aqueles exemplos que eu tenho e não funcionar no no mundo real Quando eu for realmente usar o modelo que eu já treinei tá eh depois de escolher também o
modelo eu preciso também ter então formas de fazer o treinamento Então o que eu expliquei aqui rapidamente foi eh como fazer o ajuste de parâmetros por exemplo numa rede neural mas como eu disse existem outros algoritmos E aí a forma de Treinamento pode diferir um pouquinho também eh não vou ter tempo de explicar todos os modelos nem nada mas ah acho que a ideia é importante que fique claro essa ideia de O que que a gente tá tentando fazer quando a gente fala em aprendizado de máquina muito bem e aí falamos de machine learning de
forma geral e hoje em dia se fala muito sobre Deep learning O que que é Deep learning no fundo é machine learning só que machine learning moderno em que a gente tem muito mais dado muito mais poder computacional e em termos de redes neurais É acho que é interessante comentar que eh apesar de rede neural essa ideia de neurônio existir desde a década de 50 eh por muito tempo as pessoas tiveram dificuldade de realmente treinar e chegar num bom treinamento Principalmente quando a rede tinha mais de duas camadas por exemplo Então as redes eram pequenininhas
em em geral para eu conseguir treinar o fato da gente ter muito mais dados permitiu eh que quer dizer fez com que fosse possível treinar redes muito maiores é isso que no fundo eh é Deep learning hoje em dia basicamente Deep learning refere-se a redes neurais gigantes sendo aplicado para um monte de coisas e aí eu vou tentar explicar por que H está estourando assim né Deep learning eh é E para isso é interessante Então comentar como era machine learning tradicional o que eu tô chamando de machine learning tradicional é o que vinha antes o
que veio antes de Deep learning que é essa ideia de então eu não consigo processar foto da da pera da banana então eu vou fazer o quê eu vou tirar alguns atributos desse fruto e vou passar esses atributos pro meu algoritmo pra minha rede neural para árvore de decisão Seja lá o que for aqui eu tenho um exemplo de galáxia a mesma coisa se eu quero reconhecer se essa galáxia é espiral ou elíptica formatos que os astrônomos costumam utilizar eu preciso pegar essa imagem aplicar processamento de imagem e aí mais tarde hoje vocês vão ver
um pouco sobre processamento de imagem eu não vou entrar em detalhes mas a ideia é extrair alguns atributos dessa imagem e aí passar esses Eh esses atributos para o treinamento então machine learning tradicional seguia basicamente essa esse fluxo aqui e por um tempo eh um grande desafio depois que os algoritmos de machine learning já estavam bem robustos todo mundo já aprendeu a treinar um grande desafio passou a ser justamente fazer essa extração e seleção de características ou atributos né Eh como que eu vou extrair esses atrib atributos quais são mais interessantes ou não E aí
que vem a a grande virada aí que vem do Deep learning então aqui tá o pipeline de eh machine learning tradicional então como eu disse por exemplo se eu quero processar a imagem eu preciso primeiro fazer uma extração de de atributos manualmente Ou seja eu devo programar algoritmos de processamento de imagens para extrair os atributos X1 até xn e assim passar pro algoritmo ali pra rede neural para árvore de decisão e assim por diante para poder fazer a classificação Deep learning faz o quê basicamente Ele engoliu eh essa parte aqui engoliu entre aspas não é
não não vamos dizer que isso foi intencional Mas é isso que acontece eh o que hoje em dia a gente consegue fazer com imagem eu consigo passar a imagem diretamente para uma rede neural ou especificamente as redes convolucionais que o Thiago mencionou eh as primeiras camadas da da rede convolucional elas usam neurônios com comportamento um pouquinho diferente que acho que vai ficar mais claro para vocês na Sessão da Tarde eh Então as várias camadas aqui no fundo fazem esse papel de extrair talvez não as features do jeito que a gente imagina Mas eh cada camada
pode ser pensada como uma forma de extrair representações alternativas da sua entrada então cada camada vai transformando os seus dados e mais lá pro final eu tenho essa representação rica o suficiente para ah essa maquinaria conseguir responder se isso é uma galáxia espiral ou eh elíptica aqui embaixo ten um outro exemplo que seria no caso detectar objetos na imagem ou no caso imagem astronômicas cada pontinho no céu é estrela é uma galxia é um quas etc então eu poderia também aplicar uma rede convolucion específica para detecção de objetos e marcar que verdinho é estrela ou
sei lá galáxia e vermelho é sei lá não sei o que que é exatamente tá tão pequenininho que nem dá para ver Então essa é a diferença assim eu diria fundamental entre o que a gente chama de machine learning tradicional e a o machine learning moderno ou Mais especificamente Deep learning Deep learning tem essa capacidade de extrair as características ou atributos das imagens ou de outros tipos de dados tá então eh eu não vou explicar nem mostrar que redes muito complexas Mas eu só queria mencionar que o que que tem de diferente nas redes neurais
modernas eh Primeiro eles incluem diferentes tipos de neurônios ó eh Thiago já comentou brevemente tem mecanismos de atenção então a rede consegue prestar atenção em partes da imagem ou parte do texto de entrada as redes são muito mais complexas em termos de arquitetura não é mais esse estilo só monte de camadas de neurônios Mas eu posso ter várias diferentes tipos de ligação diferentes módulos que se interconectam tem muito mais parâmetros eh só para vocês terem ideia o o GPT que é a base do chat GPT sei lá alguma das versões tinha 175 bilhões de parâmetros
bilhões eh E essas redes Então hoje em dia são capazes de processar diferentes tipos de dados sem a necessidade de fazer essa extração de atributos manualmente E aí quando eu digo diferentes tipos de dados exemplos aqui por exemplo imagem vídeo áudio texto combinação desses né que é o tal da multimodalidade e assim por diante eh então sobre isso vocês vão poder ver mais na Sessão da Tarde deixa eu ver meu tempo tá acabando acho que eu posso gastar mais 5 minutos né Eh aí eu queria Então só para já tô chegando concluindo fazer um panoram
minha Ah o Thiago fez um Panorama super rico super completo de A assim histórico e tudo eu vou fazer um panoram minha bem simples eh de machine learning olhando machine learning a evolução de machine learning eh tendo como perspectiva a a disponibilidade de dados como é que o dado foi importante paraa evolução de machine learning então no nos primórdios o que que acontecia a gente não tinha dados não tinha computadores basicamente dados estavam na cabeça da gente ou talvez anotado em algum papel mas não tava acessível para a máquina então nesse momento o que que
ela era a inteligência regras né basicamente aqui eu tenho um programinha que são regras né aqui é decidir se eu eu dou crédito ou não cliente então se a idade for maior do que 40 se a pessoa for dono de uma casa então aprova o crédito se não se a renda for maior do que R 5.000 aprova o crédito se não nega sei lá regras que a gente mesmo pode fazer tirar essas regras da nossa cabeça a partir da experiência que a gente tem do do conhecimento que nós temos né então na época sem dados
era assim que se fazia inteligência ou seja lá o que foi eu podia programar isso no computador eventualmente eh a partir do momento que começar começamos a ter dados ou computadores e coletar dados e representar dados vem uma fase que é mais eh probabilística que assim no stio seno de eh assumir uma certa distribuição de dados Então esse esse chapeuzinho que vocês estão vendo aqui é o que o pessoal chama de distribuição galciana distribuição normal é dizer que os dados seguem essa distribuição fica mais vamos pensar assim eu tô pensando em altura de pessoas então
ali no centro tem as pessoas a maioria tem uma estatura tal tem algumas pessoas que são mais baixas tem outras pessoas que são mais altas mas a maioria tem uma estatura média ali e a maioria né é meio essa leitura então a a gente poderia assumir esse tipo de Distribuição e aí tentar simplesmente ajustar esse chapeuzinho vai ser mais largo mais achatado basicamente isso eh Então são modelos muito específicos para tentar ajustar os dados à medida que eu comecei a ter mais dados aí começa a ser possível pensar em eh fazer essa indução de modelos
E aí eu falo em modelos mais genéricos por exemplo árvore de decisão foi uma das que apareceram eh No começo ali então essa árvore que vocês estão vendo à direita é é o mesmo deixa eu voltar aqui essa mesma regra que aqui digamos a pessoa escreveu agora aqui a ideia é o óleos dados e o próprio algoritmo monta essa árvore tá Ah bom os dados foram aumentando E aí como eu disse vem essa os algoritmos Machine L já estavam funcionando aí vem essa essa preocupação em fazer a a a extração de de eu chamei de
feats aqui seriam os atributos dos objetos que eu tô querendo analisar eh e aí finalmente a gente chega Nessa era do Big Data Então agora temos dados abundantes e a e isso viabilizou o treinamento dessas redes gigantes E essas redes então estão conseguindo também fazer essa extração de feats Então essa foi a o eh esse diria é o panorama assim como que o machin lan evoluiu ao longo dos anos e a gente tá nesse patamar agora em que eh eu consigo processar dados complexos Imagino que a evolução daqui para frente vai ser agora eu não
vou só eh analisar uma imagem isoladamente ou o texto mas juntar essas coisas e de fato isso já tá acontecendo Então tem redes neurais onde a entrada é um texto é uma imagem é um vídeo ou sei lá áudio junto tudo isso e ele dá um jeito de juntar informação que vem dessas três desses três modais de dados e conseguem fazer eh uma predição sei lá gerar uma resposta e a vantagem disso é que você tem informações complementares Quando eu olho imagem texto ou imagem áudio etc ou seja eu tenho mais contexto do problema que
eu estou querendo resolver eh ah ok só para terminar essa parte então Eh essencialmente então Mita evolução aconteceu por causa dos dados Então essas técnicas são totalmente assim totalmente não totalmente exagero é fundamentalmente baseados em dados e então só para resumir aqui para fechar tudo que eu falei aqui que é na verdade apenas uma pequena parte dessa área chamada de aprendizado de máquina e aí se a gente for juntar e a então é um oceano gigante mas em termos de aprendizado supervisionado precisamos definir bem a tarefa computacional o que que é entrada o que que
é saída precisamos ter esses exemplos se eu for usar a abordagem supervisionada e uma coisa a gente não deve subestimar o trabalho de preparar esses dados entrada saída Pode parecer fácil mas hoje em dia acho que é a parte mais difícil dessa área de aprendizado de máquina não é usar o algoritmo não é usar o computador nem nada é você ter esses dados porque esses dados também não podem ser qualquer coisa precisa ser curado Ou seja você tem que garantir que é minimamente confiável aqu que você tá passando pro computador aprender eh outra coisa que
é interessante comentar é que como a gente tá assim todo mundo tá falando de Inteligência Artificial também não podemos cair na tentação de usar Inteligência Artificial aprendizado de máquina para tudo às vezes você não precisa se eu quero somar números não preciso ensinar o computador a fazer isso eu sei fazer isso eu sento e faço um programinha em 5 minutos se eu for treinar Sei lá eu teria que coletar dados sei lá formular o problema etc etc vou gastar muito mais tempo não faz sentido tá eh outra coisa eu falei do do modelo genérico aí
de mapear entrada para saída então Eh é importante comentar novamente que eu preciso pensar o que que é um modelo adequado para a complexidade do meu problema não pode ser muito simples não pode ser muito complexo e uma coisa que eu não comentei até agora que é super importante é validar o modelo depois que você Trein Como que você sabe que isso vai dar conta do recado então não adianta eu ajustar ele para os dados que eu tenho e esse modelo não funcionar pros dados novos que vão aparecer então uma parte importante de aprendizado de
máquina não é só fazer o ajuste mas garantir também que ele vai funcionar bem para os novos dados e aí a gente tem vários desafios porque os dados podem mudar com o tempo também por exemplo Suponho que eu tô tentando aprender perfil de consumidores sei lá de uma loja ali eh hoje é um perfil mas daqui a um ano provavelmente vai ser diferente então se eu treinei o modelo hoje no próximo ano já não vai funcionar tão bem então eu tenho que saber fazer os ajustes ao longo no decorrer do tempo eh Ok eu vou
listar aqui eh Três livros que eu não sei eu no contexto mais acadêmico Eu costumo recomendar inclusive pros alunos que querem estudar um um pouco dessa área de machine learning então o primeiro livro ali do abum mostafa é learning from data é bom pra gente ler esse livro precisa ter conhecimento de matemática estatística álgebra linear computação e assim por por diante então Eh parece eh assim fascinante legal maravilha mas é bom saber que tem muito conhecimento por trás para dar sustentação a tudo isso que a gente tá vendo na prática hoje em dia e muito
conhecimento então muitas vezes a gente tem que estudar bastante para chegar ao ponto de entender realmente o que tá acontecendo Então eh o primeiro livro dá uma ideia do que que é machine learning eh então seria um uma explicação muito mais detalhada daquilo que eu falei hoje assim rapidamente em uma hora ou menos né o segundo livro fala de Deep learning e o terceiro é um livro que fala de redes neurais eu listei aqui porque eu conheço esses livros eu gosto e mais do que isso tem uma versão online que tá publicamente disponível Não primeiro
não é o livro mas tem vídeos o primeiro tem vídeos eh no site aqui eh que tá disponível publicamente então para quem tiver interesse acho que é bem interessante eh acho que eu vou concluir Na verdade eu tenho uns exemplos mas eu vou pular essa parte eu mostrar algumas aplicações assim mais relacionado com o que eu faço mas isso depois eu posso convar se alguém tiver interesse e a parte de imagens e mais tarde Vocês vão ter exemplos então de aplicações aí de linguagem natural e de visão computacional então eu vou encerrar por aqui vou
voltar inclusive para Obrigada me sentindo Roberto Carlos Agora pessoal então agora a gente faz uma pausa pro almoço Voltamos às 13:40 aí dá tempo de todo mundo almoçar com calma e voltar com as forças revigoradas à tarde a gente vai ter um mergulho nesses dois mundos de processamento de linguagem natural e visão computacional como a Professora Nina disse então vai ser uma tarde de Emoções bom amoço para todo mundo até mais tarde pessoal boa tarde prontos para continuar treinando a nossa rede neural biológica Essa é a parte mais difícil né treinar na sua própria rede
neural bom a gente reservou alguns minutos 20 minutos mais precisamente para tentar responder algumas dúvidas que vocês têm postado nos formulários E então estamos a equipe toda aqui na frente eu vocês já conhecem a Nina que já falou com vocês apresentar os dois professores Robertos Então temos o professor Roberto Marcondes Ele é professor aqui do IME da USP aqui de São Paulo e o professor Roberto irata também Professor aqui do im Vamos tentar responder o melhor que a gente puder as dúvidas de vocês antes de entrar nas próximas sessões técnicas o Roberto Marcondes fez umas
umas coisas super legais com as dúvidas de vocês então vou passar a bola para ele explicar para vocês o que que ele fez e como que vai funcionar essa sessão aqui Obrigado Tiago eh Boa tarde a todos boa tarde a todas ah prazer enorme A tá vendo isso acontecer é um sonho que como o Paulo começou comentou no começo a gente eh Teve teve alguma ideia tá construindo muitas mãos Desde dezembro então bem legal eh vê-los todos participando e quem tá em casa também né ah a gente já teve mais de 20.000 visualizações no YouTube
desde de manhã todo mundo contente com a o que tá acontecendo até agora então deixa eu contar para vocês para não perder muito tempo eh O que que a gente planejou para essa sessão então a gente teve os números já foram mencionados né quase 35.000 inscritos 20.000 visualizações nós recebemos lá no formulário Então até agora pouco os monitores passaram pra gente quase 1300 ah dúvidas perguntas comentários Ah no coisa vocês vem que são números que é difícil né Por exemplo não dava pra gente ler 1300 perguntas agora e e comentar aí o que a gente
fez a gente pediu para algo que nós acreditamos eh funciona paraa tecnologia nos ajudar nisso então a gente passou as 1300 dúvidas pro nesse caso o gmini podia ter escolh do chat PT Gê Qualquer um podia ser um desses esses slid language mods que o Thiago vai comentar daqui a pouco e aí a gente ah fez esse caminho que vocês estão vendo a ali deixa eu ver se eu consigo aqui então ah só lembrando tem que tentar ah consigo ver daqui então Ah vocês preencheram formulários aqui isso aqui é uma abordagem baseada em data Science
né ciência de dados para resolver o problema então vocês entraram com dados aqui as dúvidas de vocês preencheram formulários aqui a gente recebeu aí como eu falei 1300 dúvidas comentários tudo mais a gente tá super contente com isso que aconteceu ã E aí a gente passou essas 1300 dúvidas perguntas tudo mais pelo por uma large language Model e ele selecionou ou ela não sei se eu falo ele ou ela eh selecionou um grupo de questões e comentários que vocês que eu vou passar aqui com vocês rapidamente ah como tem muita coisa e a gente quer
fazer isso em 20 minutos porque começa a aula a próxima aula daqui a pouquinho o que a gente decidiu fazer é primeiro mostrar para vocês o resultado então como isso eh no final é uma ferramenta útil eh foi o que o o thgo falou há alguns anos atrás a gente não conseguiria fazer isso ler em meia hora 1300 dúvidas e sumarizar algumas coisas que fazem sentido é difícil fazer um exercício desse agora a gente já consegue mostrar para vocês o tipo de eh questão que para nós educadores é fundamental porque afinal tem 35.000 pessoas que
indicaram 1300 dúvidas e a gente pode comentar com vocês o que é relevante em relação a que o público tem eh interesse e assim por diante Então as pessoas perguntaram sobre tokenização de caracteres perguntaram sobre ia em museus a questão de e tornar museus mais acessíveis e assim por diante Ah as pessoas perguntaram relevante pro Brasil né eá na agricultura quais custos de usar I na agricultura quais os impactos sociais e ambientais e a in tradução O Thiago falou bastante vai falar mais daqui a pouco dilemas éticos a gente tocou em alguns momentos a Nina
o Thiago já tocaram nesse tipo de assunto Então ess essas são as questões que estão aí na na cabeça das pessoas Tá certo com uma com a mais ah diferente com a diversidade grande que a gente tem de pessoas que estão nos acompanhando e outras perguntas que apareceram que o gmini trouxe também quais são as carreiras em a como posso aprender mais sobre a qual é o futuro de a e assim por diante ao vez da gente tratar cada uma delas não vai dar tempo da gente tratar isso isso aqui é mas para mostrar para
vocês o exercício de construir então uma experiência dessa uma é uma experiência didática a gente nós todos estamos aqui participando de uma experiência didática Tá certo ã para ensinar paraa sociedade um pouco mais Tecnicamente Como funciona o que as pessoas chamam hoje em dia de A então a vez da gente tratar cada um desses temos a gente quis mostrar para vocês o experimento e a gente decidiu que vai comentar aqui entre nós cada um vai fazer algum comentário sobre algum desses temas pra gente ah concluir essa primeira essa primeira parte e depois a gente continua
com o curso tá bem então quis explicar para para vocês acho que a gente pode começar agora sem muita H sem muita regra entre nós quatro aqui o que que a gente quer responder talvez eu ajudo aqui só para mostrar qual é a pergunta o que que vocês acham quem gostaria de tratar alguma das em primeiro lugar aí claro então o thago fica à vontade então já que a gente vai falar de processamento de linguagem natural em seguida vou tentar rapidamente responder essa pergunta da tokenização os sistemas que fazem processamento de linguagem natural quer sejam
tradutores automáticos esses chatbots o que quer que seja eles têm que fazer uma primeira etapa de reconhecer o texto lido separar as palavras e símbolos Isso é o que a gente chama de tokenização saber identificar cada palavra cada símbolo que forma um texto e Até recentemente os sistemas pegavam as palavras inteiras às vezes até normaliza um pouco a palavra então menino e meninos fica tava só no singular para ele perceber que é a mesma palavra uma no singular uma no plural então ele tentava unificar um pouco tirar um pouco da diversidade das palavras chegando na
forma canônica ou lema que é como a gente conhece isso os grandes modelos de língua Eles são um pouquinho mais espertos vocês já ouviram falar que a língua é viva né a gente cria palavra o tempo todo então eles não separam as palavras inteiras como a gente tá acostumado a fazer eles tentam achar segmentos dentro das palavras que se repetem então por exemplo o chat de PT famoso chat GPT ele tenta achar prefixos sufixos e coisas assim que acontecem bastante então vou dar um exemplo para vocês Imaginem que vocês vão traduzir um verbo e é
um verbo fácil correr então vocês vão pro inglês Run de repente a pessoa pediu para traduzir um verbo que ela acabou de inventar o tradutor nunca viu aquele verbo ele não vai saber como traduzir aquilo você citar um exemplo real diz que uns anos atrás os japoneses criaram um verbo correspond ente a ao ato de ir ao McDonald's então era um verbo como mcdon zar alguma coisa assim se você D um verbo assim pro tradutor ele não vai saber traduzir aquilo porque aquilo não existia aquilo é um fruto da língua viva né mas se ele
é capaz de quebrar a palavra em pedaços ele consegue ver que essa palavra termina com zar que tem cara de verbo então ele consegue tentar compor a resposta final Então quando você quebra as palavras em subp palavras você ganha um pouco de versatilidade Então muitos sistemas que a gente usa hoje a gente nem sabe disso mas o chat GPT o Gemini o CoPilot eles estão fazendo esse processamento por trás eles estão fragmentando as palavras procurando os pedacinhos que fazem sentido e ajudam na tarefa Tá bom acho que respondi muitoo bom eh próxima quer falar alguma
coisa Roberto sobre os museus então boa tarde eh para todos vocês que estão presentes aqui e no YouTube obrigado pelas perguntas né acho que a gente fica bem contente de ter Tantas perguntas perguntas interessantes essa Eh pergunta inclusive é uma pergunta bastante positivo entanto a gente também fica contente de ver que as pessoas não não estão pensando naquela na destruição da humanidade né mas como como toda essa tecnologia Pode ajudar eh as pessoas a a eh inclusive pessoas que TM algum tipo de deficiência né E E no caso não só de museus e outros eh
outros lugares né Você pode ter a a visão computacional por exemplo aprendizado de máquina eh ajudando e esse tipo de eh ajudando as pessoas a a a por exemplo enxergarem o que o o alguma coisa no no museu né interpretar alguma coisa eh isso através do dos próprios celulares né hoje em dia os Nossos celulares celulares ajudam de eh São máquinas muito Poderosas né então se a pessoa tivesse com um celular pendurado eh Ela poderia eh ser ajudada né Eh usando as as câ as câmeras da da do celular e tem aspectos éticos é ali
por exemplo você vai estar filmando todo mundo que tá ao seu redor E E aí bom também é uma questão complicada né como a gente vai tratar isso e inclusive no nos nos projetos que que que a gente tá fazendo aqui na USP junto com com a softex e com a com Motorola e o ministério da Ciência e Tecnologia a gente tem tratado essa questão de anonimização de de de pessoas em vídeos né então como é que a gente pode é ter uma câmera de de vigilância e e e dar alertas né pr pra PR
PR para um Guarda para uma vigilância sem expor as pessoas eh desnecessariamente né em particular nesse nessa questão de eh auxílio a a pessoas com deficiência visual né tem um projeto de Mestrado Eh que que é um feito por um dos eh nossos monitores que é o Pietro eh cariola que é justamente como a gente pode eh apontar como é que a pessoa que tem uma certa deficiência visual isso Às vezes a gente vai ficando velho e vai vai tendo essas deficiências também né Eh então eh como é que ela a pessoa pode apontar o
celular para alguma coisa e o celular fala olha Eh melhora a a visualização um pouquinho afasta um pouquinho eh o celular que você vai ter uma imagem melhor né olha o o seu cartão de crédito tá aparecendo aqui né Eh muda a a a visada né Para Para não acontecer isso e e e só para contar também de um outro projeto né quer dizer o o Roberto convidou algumas pessoas para eh fazer hoje um vídeo e depois ele vai mostrar né Eh esse vídeo que é justamente eh para auxiliar as pessoas a caminharem ou terem
eh saberem por onde caminhar numa numa cidade então acho que eu fico contente que essa essa essa esse tipo de pergunta é positiva né acho que a gente tem que realmente ver a a parte positiva da da Inteligência Artificial e como ela pode ajudar as pessoas no futuro quer falar um pouquinho do seu projeto acho que vou deixar para depois pro finalzinho e Nina quer escolher alguma que você queira comentar ess aqui eu acho que posso complementar um pouquinho essa essa coisa do do do museu contando duas experiências que eu passei uma é de um
pesquisador de Minas Gerais ele contou de um um projeto que ele fez com os alunos de a pessoa vai pro Museu e por exemplo tem uma câmera que filma a pessoa e aí ele estiliza a foto da pessoa para sei lá ficar com cara de pintura do Van Gog ou coisas assim eh isso Provavelmente você já viram na internet e tudo mais mas no caso de Museu acho que isso é bem interessante porque Museu não é uma coisa que todo mundo vai acho que as pessoas preferem ir no shopping no cinema sei lá mas museu
é uma coisa eh que não é tão Popular digamos isso pode ajudar esse tipo de coisa pode ajudar a atrair as pessoas as pessoas se sentirem mais à vontade mais engajadas mais interessadas em museu Então essa é uma experiência e essa parte de pegar uma imagem e dá um certo estilo diferente de repente sua foto parecer uma pintura de Van goog por exemplo é pode ser feito usando técnicas de machine learning Então essa esse é um ponto o segundo ponto que eu queria comentar eu colaboro com uma pesquisadora uma professora da física que trabalha com
pessoal de Museu e ela trabalha com ah pessoal do museu obviamente nessa parte de restauração de de pinturas Quadros obras de arte então Eh quando os restauradores vão ter que analisar a pintura e saber o que que tá acontecendo ou não o que que tinha Originalmente para fazer restauração correta ela tem vários sensores E aí esses sensores captam as imagens desses quadros e a gente juntando diferentes tipos de sensores a gente consegue ver por exemplo olha embaixo da camada superficial da pintura lá atrás tinha alguma outra coisa que não é visível mas esse sensor consegue
capturar então nessa parte de analisar esses dados a essas técnicas de Inteligência Artificial de machine learning eles podem ajudar a identificar essas coisas que digamos estão ocultas ou a gente não enxerga então é isso que eu queria comentar tá ótimo a gente tá chegando perto da do horário das 14 então eu vou convidar aqui nós quatro talvez mais vocês três do que eu pra gente o futuro o o thago falou bastante né a gente não pode deixar de fazer a piada que previsões é uma coisa razoavelmente difícil principalmente se a previsão for sobre o futuro
é mais difícil ainda eh mas eu vou falar S vamos pegar o chapéu de educador da gente aqui vamos falar sobre carreiras em ia e como aprender mais sobre ia porque eu imagino que é algo de interesse de muita gente então não sei quem de vocês gostaria de começar sobre isso mas são os dois primeiros tópicos carreiras de i e como aprender mais sobre ia eu vou falar de uma coisa anterior a essa Roberto Eu acho que a nossa vida tá mudando por causa da ia todo mundo concorda com isso né chat GPT e Companhia
mudaram a nossa produtividade a gente tem ouvido vários relatos visto vários casos de que as pessoas estão mais produtivas por causa desse tipo de sistema ele tá desonerando a gente de algumas eles não são totalmente autônomos né não deveriam ser pelo menos a gente ainda Precisa revisar e ler o que eles estão fazendo mas que é impressionante como eles ajudam em muitas tarefas é impressionante e tem muita gente que tem medo de perder o emprego para Iá E aí eu vou lembrar a fala do Professor Paulo nosso pró-reitor de pesquisa e inovação que ele falou
que ele não tem medo do conhecimento mas ele tem medo da falta do conhecimento eu acho que ele tem razão a gente em vez de ter medo de perder emprego a gente tem que correr atrás de aprender um pouco sobre essas coisas e saber como usar isso na nossa vida tá então alguém citou aqui já o caso da tradução automática que nossa ajuda muito o trabalho do tradutor faz boa parte do trabalho dele então a gente tem que aprender a incorporar esse tipo de coisa na nossa vida tá mas tá então vou deixar meus colegas
continuarem a resposta acho que você você já disse tudo né Eh realmente é difícil prever o que vai acontecer mas o que a gente percebe que cada vez mais o o mundo é mais rápido e a gente tem que tá sempre se atualizando tá sempre sem reinventando então quer dizer embora isso seja um jargão aí esse negócio de ficar se reinventando Mas é verdade né quer dizer mesmo nós acadêmicos eh nós estudávamos uma certa coisa depois tem que estudar outra coisa e tá toda toda hora a gente tem que tá realmente eh renovando os conhecimentos
e acho que isso vai valer cada vez mais para qualquer pessoa na sociedade e e como se preparar eu acho que é bom uma das a gente esse interesse mostra né que as pessoas estão atentas a isso eh usar essas ferramentas é importante então começa a usar né Acho que não não dói não não acontece nada vai lá e usa começa a brincar com isso não fica viciado porque é ruim eh você fica viciado nessas ferramentas tem gente que fica dependente dessas ferramentas e e daí não não sabe mais fazer as coisas então sempre tem
que tomar os os cuidados para que você não fique Totalmente Dependente delas né o Thiago tava contando que teve gente que no dia que o chat GPT foi atualizado Ficou desesperada porque eh não sabia o que fazer né Eh então acho que quer dizer de novo previv com alguma coisa futuro é bem complicado mas eu acho que eh O que vocês estão fazendo aqui o que a gente tá tentando fazer aqui também é é uma forma então de de de tentar ajudar nesse sentido alô ok eh eu só queria comentar rapidamente que eu eu enxergo
e a sei lá todas essas ferramentas como basicamente uma tecnologia que está aí e eu tenho a impressão que não tem mais volta assim no sentido já veio e agora vai fazer parte de dos produtos dos serviços um monte de coisas que a gente usa no dia a dia e já tá fazendo né na verdade e a melhor coisa é entender que tecnologia qualquer tecnologia pode ser usado pro bem e pro mal e acho que cumpre a nós a sociedade como todo ser vigilante e zelar pelo bom uso da tecnologia então Eh nesse sentido acho
que é é importante todo mundo ter uma ciência do que que tá acontecendo pelo menos o que que significa uma Iá o que que ela pode fazer ou não mesmo que você não entenda nem nem seja capaz de construir um não é que todo mundo precisa E e essa essa ciência é que vai ajudar as coisas progredirem bem eu acho então as pessoas precisam ter ciência que sei lá serviço que você consome Provavelmente tem eá por trás e aí tem toda essa discussão de tá fazendo coisa certa ou errada bom eh faz coisa errada porque
a gente deixa Talvez né então a gente tem que ser vigilante também e como tecnologia e a é uma coisa que pode ser empregada em qualquer área onde tem dado se você tem dado para analisar se útil para alguma coisa você pode empregar Essas tecnologias Então realmente nesse sentido é muito poderoso e Acho que todos precisam estar pelo menos cientes do potencial assim no sentido de ajudar a facilitar a tarefa como o Thiago disse então acho que é isso tá eu vou comentar eh a um aspecto principalmente ligado essa de Formação então como como foi
a palavra como posso aprender mais sobre a e quais são as carreiras em A então carreiras eh acho que tem tem tem gente que desenvolve a e tem gente que usa e a tem as duas coisas provavelmente vai ter cada vez mais usando sei lá coisas ligadas à Inteligência Artificial mas eu queria chamar a atenção para um aspecto do que aconteceu do que tá acontecendo aqui hoje então essa experiência desse curso de extensão ã nós somos aqui professores no tratamento então de cento de computação aqui em São Carlos a gente atua na pós-graduação a USP
eh como o Fábio e o Paulo mencionaram eh de manhã tem atuado na área de Inteligência Artificial há décadas e tudo mais então tem esse esse viés aí de quem faz pesquisa e quem faz ensino ah na universidade sobre isso e tem essa aproximação com a sociedade em geral um dos mecanismos que a Universidade de São Paulo tem de aproximação com com a sociedade para se engajar com a sociedade que são esses cursos de extensão Então hoje eu tenho a impressão que é um experimento que é uma iniciativa bem sucedida no sentido que a gente
conseguiu divulgar e as pessoas prestaram atenção pelo menos 35.000 pessoas tudo bem perto de 200 milhões 35.000 é pouco mas não é toda vez que você tem um curso sobre algo técnico e esse é o outro aspecto que eu queria chamar atenção eh o que tá sendo mostrado aqui nesse curso e eu ten ten certeza que vocês estão percebendo isso são coisas que TM um razoável peso teórico um razoável peso de conhecimento eh por trás que não são coisas simples são horas e horas e dias e meses de pessoas que se dedicam à Vida para
construir a gente tá falando de milhares de pessoas que foram construindo ao longo do tempo isso daí Então essa é um aspecto importante significa que isso ninguém pode atuar não pelo contrário assim como eu não entendo nada de sei lá de várias outras Áreas Aí o ponto é a sociedade Na minha opinião é importante que a sociedade reconheça a Esse aspecto a construção de uma tecnologia desse tipo demanda investimento demanda esforço durante décadas de universidades universidades públicas universidades privadas empresas que investem em pesquisa e investem na formação de seus funcionários e assim por diante então
é uma construção da sociedade então eu quis chamar Atenção para isso existem dois eh aspectos ligados quando a gente tá falando de formação e de atuação tem um aspecto pessoal Ah eu decidi fazer Ciência da Computação eu decidi fazer engenharia eu decidi eh fazer medicina mas eu quero usar tecnologia eu decidi ser um educador então eu faço sei lá faculdade de educação ou mestrado na educação ou em pedagogia Sei lá o qu e eu quero trabalhar com incorporação de novas tecnologias porque hoje em dia a criançada aprende de um jeito diferente do que as crianças
aprendiam daqui há um tempo atrás nesses casos todos tem a decisão pessoal você vai fazer alguma coisa ligada àquilo mas tem a nossa decisão coletiva enquanto sociedade porque a gente cobrar de quem toma decisões tanto iniciativa privada quanto no estado para que tenha investimento nisso para que esse investimento seja protegido para que as pessoas possam se desenvolver Esse é um outro aspecto ligado a isso daí a carreira a e tudo mais então tem tem dois aspectos de de Formação tem a formação individual mas também tem a formação da sociedade eh como um todo então eu
queria chamar atenção Para isso acho que a gente pode parar agora e vamos lá para processamento de linguagem natural muito bem obrigado aí aos meus colegas por ajudarem a responder as perguntas Então antes de entrar na nossa próxima pauta coloco aí para vocês o formulário de presença da parte da tarde então quem tá aqui presencialmente escaneia o qrcode ou entrem nesse link quem tá em casa faça a mesma coisa não tá conseguindo não tem problema tira uma foto do telão que você tenta depois a gente vai deixar aberto isso durante o dia temos aqui na
frente alguns os monitores se alguém precisar de ajuda vem aqui no cantinho que a pessoa ajuda escrevam o nome correto de vocês chequem por favor coloquem o e-mail correto tá muito bem os monitores estão aqui agora na frente Se alguém quiser procurá-los depois eles estão ali fora na mesa de entrada também podem ajudá-los tá como eu contava para vocês eu trabalho com inteligência artificial há bastante tempo e sempre trabalhei mais numa área que chama processamento de linguagem natural Então se a gente pensar que a ia é multifacetada tem várias frentes de atuação lidar com a
linguagem seria uma delas tá eh então é disso que eu vou contar um pouco para vocês proc de linguagem natural também é uma área muito grande como vocês vão perceber eu tentei fazer um uma mega síntese da história dos produtos e das tendências que a gente tem tido aí de novo pensando que há um ponto inicial para vocês começarem a estudar e mergulharem nesse mundo e e se se interessarem continuarem trabalhando nisso tá então o que que é língua natural língua natural pra gente é a língua humana Português Inglês Espanhol é isso que a gente
usa para nos comunicarmos a gente fala dessa forma para conseguir diferenciar das linguagens inventadas então por exemplo as linguagens de programação não são linguagens que a gente fala por aí tá então a gente não considera elas linguagens naturais Ah então a área tem esse nome né processamento de línguas naturais ou processamento de linguagem natural eh o nosso objetivo então é ensinar a máquina ler a escrever informalmente falando ou habilitar a máquina a lidar com as várias tarefas linguísticas que a gente ser humano faz no dia a dia a gente resume a gente traduz a gente
lê a gente fala tá então esse é o nosso sonho aí dessa área que eu vou chamar daqui paraa frente de PLN vou usar a sigla tá bom processamento de língua natural responde perguntas né então o Che chat GPT e seus amigos são da categoria de sistemas de diálogo ou chatbots respondem nossas perguntas área tem outros nomes Tem muita gente que chama de engenharia das línguas naturais linguística computacional Eh esses nomes em suas origens eles representavam coisas um pouco diferentes entre si com o tempo a comunidade passou a encarar como sinônimos então proco de linguagem
natural tinha um olhar mais computacional linguística computacional tinha um olhar mais linguístico essas coisas se unificaram com tempo e e a gente passa a usar os mesmos termos para tudo é tradicionalmente vista como uma subárea da inteligência artificial no Brasil e no mundo pensando nisso que a língua tá atrelada a um tipo de inteligência que a gente tem aqui existe uma confusão que eu acho deliciosa então vocês já devem ter visto gente falando processament de língua natural que nem eu tô falando aqui e já devem ter visto em vários lugares em todos os livros de
a em português escrito processament de linguagem natural Então esse é um daqueles erros clássicos de tradução que foram consagrados pelo uso em inglês a palavra lenguage pode significar tanto linguagem quanto língua que são coisas diferentes em português em português língua é o sistema de código que a gente tá usando para se comunicar o português o inglês linguagem é uma coisa mais Ampla envolve todo o nosso aparato físico e cognitivo para usar a língua então alguém um dia traduziu errado esse termo a gente continua usando errado a comunidade de votou errado e aí foi consagrado pelo
uso ficou certo tá então eh quando a gente fala proximamente de linguagem natural a gente sabe que não é o termo ideal mas tudo bem a gente sabe do que a gente tá falando então tomem cuidado com isso eh com esse nome aí qual que é a história do PLN então ele nasceu na segunda guerra mundial com os países inimigos tentando traduzir o que que os outros falavam americanos tentando traduzir Russos tentando traduzir japoneses e assim por diante eh numa tentativa de tornar o processo de tradução mais eficiente até então eram humanos que faziam e
humano é um recurso caro que leva tempo e pode cometer erros pode ficar cansado e assim por diante eh então a tradução automática nasceu Nesse contexto foi uma das primeiras tarefas de PLN para tentar otimizar o processo de tradução eh no início a tradução era muito arcaica então era uma tradução basicamente usando um dicionário bilíngues todo mundo aqui já vi um dicionário bilíngues palavra Ficava muito pobre mas já dizia alguma coisa do que que o inimigo tava falando na época Ah e muita coisa aconteceu em PLN desde então teve uma coisa muito interessante que nessa
época teve uma reunião de pesquisadores tentando dar um nome pra área que eles estavam criando essa coisa da máquina lidando com língua e foi aí que começou a surgir esses nomes que a gente ouve né computational linguistics natural language processing E tem alguns que são interessantes vejam esse ó Automatic language data processing tem gente que chama até hoje área de processamento aut automático de línguas naturais eles colocam esse automático no nome porque muita gente diz que nós seres seres humanos também processamos língua biologicamente então quando você coloca o automático na frente você diz que a
máquina não é o ser humano ah outro nome que foi ponderado na época é isso de Mecan linguística Acho ótimo que não escolheram esse tá gosto mais de p né acho mais bonitinho bom então houve as primeiras tentativas de tradução automática eh a linha de tempo da I ela percorreu algo muito parecido do que aconteceu eh com o PLN tá Eles foram bem pareados nisso as pessoas criaram grande espectativa já contei isso para vocês hoje todo mundo achando que a máquina ia fazer tudo que o ser humano tava fazendo até então H Lógico que os
resultados frustraram porque a expectativa tava lá em cima a área entrou num numa época de inverno o financiamento pro processamento de linguagem natural diminuiu Bastante e com isso as pessoas repensaram reviram seus objetivos as pessoas passaram a encarar o PLN como uma área que podia ajudar o ser humano e não substituir por completo não fazer todo o trabalho dele e a área foi ressurgindo com tempo foi ganhando mais prestígio E aí com a web com a quantidade de dados que a gente tem a coisa foi mudando e foi melhorando tá teve esse relatório da aac
aac foi um comitê de avaliação do que a área tava fazendo na época que foi derradeiro nesse inverno que a área entrou os os avaliadores olharam pros resultados de tradução e outras coisas feitas ficaram decepcionados falando assim isso aí tá muito pobre a gente investiu tanto dinheiro Nisso para isso Veja isso aí era década de 50 tá eh e eles falava vocês T que trabalhar mais recurso básico tem que investir em regras de tradução de sumarização e coisas assim bom H então o tempo nos trouxe a internet com essa quantidade enorme de dados e tudo
que veio com ela né as redes sociais a gente teve acesso a elas facilmente pelos smartphones eh surgiu aí o Big Data dois termos muito importantes que apareceram e que geraram um casamento incrível foi o aprendiz lado profundo que vocês já ouviram falar bastante hoje eh e o que a gente chama de modelo distribucional já vou contar o que é isso para vocês tá é o que tá por trás de todos os grandes modelos de língua só são os modelos distribucion nome técnico deles ciência de dados chegou para ficar com força né a gente usa
muitos métodos aí para processar os dados eh a internet das coisas coletando dados dos nossos aparelhos de sensores Então tudo isso fez PLN ter um Boom na área eh e crescer bastante e se eu puder colocar o dedo num fator assim que fez o PLN brilhar nessa última década foi esse casamento feliz do aprendizado profundo do aprendizado de máquina com esse isso que a gente chama de modelo distribucional então deixa eu contar uma história para vocês lá na década de 50 linguistas começaram a perceber que o jeito que a gente usava as palavras diziam algumas
coisas sobre elas então se eu digo assim eu gosto muito desse filme eh aí eu mudo eu odeio muito esse filme eu assisto muito esse filme as pessoas começaram a perceber que essas palavras que aconteciam em posições parecidas com palavras vizinhas iguais tendiam até alguma correlação Eu Adoro sorvete de chocolate eu adoro panqueca de frango puxa Será que a Dora é uma palavra que pode acontecer com comida Será que assistir é uma coisa que pode acontecer com teatro com filme então as pessoas começaram a perceber agora eu vou falar o termo técnico tá que o
jeito que as palavras se distribuíam nos textos podia dizer alguma coisa sobre elas por isso que chama modelo distribucional e eles começaram a fazer um exercício muito simples eles falavam assim ser humano vem cá vou tampar uma palavra vê se você adivinha qual é eu levei meu cachorro para tampava a palavra a pessoa falava passear e as pessoas fazam sistematicamente Opa quer dizer que a gente tem algum jeito de prever o que que tá vindo lá na frente de alguma forma o nosso aprendizado da língua nos permitiu generalizar esse conhecimento e aprender alguma coisa sobre
a língua isso era a década de 50 as pessoas foram além Elas começaram a tentar representar isso em tabelas então elas falavam assim pensem em uma tabela simples colunas eh e linhas na primeira linha elas colocavam a palavra adorar e nas colunas elas colocavam todas as palavras da língua e a elas iam lá e marcavam um X nas colunas em que a palavra adorar acontecia com aquela palavra na mesma frase então adoro o filme e é lá na coluna filme da linha dorá x adoro o sorvete é lá na coluna sorvete da linha dorá marcava
com x tá elas perceberam os pesquisadores perceberam com o tempo que dava para tirar padrões dessas tabelas de palavras com as palavras que elas ocorriam e começar transformar essas palavras em números então eles falavam assim puxa adorar aconteceu em 10 frases com a palavra sorvete então põe 10 lá naquele espaço da tabela em que ela aconteceu com sorvete adorar aconteceu cinco vezes com filme Põe cinco lá se eu pegar essa linha do adorar vocês concordam comigo que vai ter números ali indicando quantas vezes ela aconteceu com cada palavra da língua por que não falar olha
a ousadia década de 50 por que não falar que essa linha da palavra adorar pode ser um conjunto de números que caracteriza seu uso na língua e se eu fizer isso pra língua toda todas as palavras vão ter um conjunto de números não vão Surgiu uma técnica vou inventar um verbo tá a gente tava falando de inventar palavras que a língua viva surgiu portanto uma uma técnica de numer ificar palavras transformar símbolos em sequências de números sequências de números na na matemática a gente costuma chamar de Vetor tá tudo bem essa ideia era interessante muito
discutida na época muita gente não acreditava que isso significava alguma coisa em 2013 um pesquisador do Google resolveu tentar criar esses vetores de números que representam as palavras usando redes neurais as fatídicas redes neurais que a gente falou de manhã e ele conseguiu e ele fez de um jeito muito mais eficiente do que as pessoas pensavam em fazer até então ele fez um jeito super rápido com uma Rede neural Super simples Eu sei que vocês estão pensando Professor mas rede neural tem tanta coisa que a gente Vi de manhã não pode ser simples mas comparativamente
falando ele usou um dos modelinhos mais simples de redes neurais e ele conseguiu e como é que ele comprovou que ele conseguiu ele pegou esses números que caracterizavam cada palavra e começou a fazer umas brincadeiras se eu pegar os números da palavra bonito pego os números da palavra Belo e são muito diferentes ele percebeu que não as palavras bonita e Bel tinham números parecidos e a palavra feio tá um pouco mais longe mas tem números parecidos e a palavra cadeira op palavra cadeira bem longe tem números bem diferentes mas os números da palavra cadeira são
parecidos com o número da palavra poltrona Ele percebeu que ele conseguiu levar pra língua o que a gente faz na matemática na matemática a gente faz 2+ 2 = 4u gente aeguir fazer Brasil dava Brasília ou algo próximo de Brasília isso não é impressionante esse cara fez isso em 2013 transformou símbolos palavras sentenças parágrafos textos em números a partir daí muitas técnicas diferentes para gerar números para as palavras surgiram técnicas melhores hoje a gente usa os Transformers que a gente falou de manhã para fazer isso que são redes neurais muito mais sofisticadas do que essas
redes neurais que foram usadas pela primeira vez em 200 13 e acontece que rede neural quando a gente vai aprender uma tarefa sei lá vamos vamos supor que a gente quer fazer uma tarefa que diz de novo a polaridade de um texto se a pessoa tá falando bem ou mal de um produto redes neurais é uma coisa a Nina contou pra gente de mãe elas gostam de processar números de entrada até então a gente tinha uma dificuldade porque você tinha texto para processar agora você tem que processar número na rede neural Poxa resolvemos o problema
a gente consegue transformar texto em número e dar esses números de entrada pra rede neural isso causou uma revolução na área os sistemas deram um salto de qualidade gigantesco e houve toda essa revolução que teve em pé dele tudo bem então é por isso que eu digo que esse casamento aí foi impressionante Esse é o exemplo clássico que vocês vê no slide né o o autor original desse trabalho de 2013 ele fazia esse tipo de conta ele pegava Rei menos homem mais mulher tem que dar algo próximo de rainha e dava mesmo tá tá então
tem diversos exemplos assim super interessantes e isso revolucionou bastante o que a gente fazia em PLN até então então foi um casamento bem feliz que que abalou o mundo bom isso trouxe novos entendimentos sobre o que PLN podia fazer a infraestrutura computacional foi crescendo a gente passou a contar com processadores poderosos gpus tpus eh surgiram novas demandas a gente conseguiu acomodar um pouco melhor os vários desafios da língua que desafios bom todo mundo que lembra lembrei do ensino básico né Deve ter aprendido a fazer análise morfológica sintática semântica então a máquina começou aprender esse tipo
de coisa com mais facilidade Ah mas a gente ainda também dá esse conhecimento simbolicamente o humano pode ir lá informar essas coisas como eu vou mostrar para vocês daqui a pouco tá vou fazer agora um rápido Tour pelos produtos de PLN os produtos de PLN gente a gente classifica de três formas tem aqueles que a gente chama de aplicação ou aplicativo são aqueles caras que o usuário final tá usando um tradutor automático um corretor gramatical tá Ah tem um outro produto que a gente chama de ferramenta intermediária ou só ferramenta são softwares que todo programa
tá usando mas o usuário final não precisa saber que ele tá sendo usado então a gente falou aqui do tokenizador que é o sistema que separa palavras puxa todo tradutor automático tem que fazer tokenização certo tem que separar as palavras antes de traduzir mas o usuário final precisa saber disso não precisa vários sistemas fazem ah anotação de classe gramatical nos textos diz o que que é verbo o que que é substantivo mas o usuário final da aplicação não precisa saber disso então isso que a gente põe na caixinha de aplica de ferramenta e a última
categoria é a categoria de recurso várias tarefas precisam por exemplo de bases de dados de gramática de dicionário Isso é o que a gente chama de recurso tá são fontes de dados em geral estáticas essa imagem inclusive foi gerada por ia alguém aqui já usou o Dali o irmãozinho lá do do do chat GPT e companhia então é um que você vai lá você descreve o que você quer e ele gera então só para vocês verem o poder e é uma imagem linda né só para vocês verem o poder de geração desse tipo de sistema
Então vou contar rapidamente e vou tentar contar de maneira histórica desde os sistemas mais antigos até os mais novos para vocês perceberem como a área foi evoluindo e é interessante a gente perceber os movimentos dentro da área nesse tempa tá bom H começamos a área de PLN com tradução automática na segunda guerra mundial então a tradução automática era palavra a palavra ou no máximo usava regras e o pessoal fazia regras muito simples então para traduzir do português pro inglês todo mundo sabe que no português a gente coloca o substantivo antes do adjetivo né o menino
legal chutou a bola menino e legal estão nessa ordem né o primeiro substantivo depois o adjetivo no inglês a gente costuma inverter the Nice Boy o adjetivo vai antes do Boy né o Nice vai antes do boy eu posso fazer uma regra se eu for traduzir um substantivo seguido de um adjetivo pro inglês inverte o adjetivo vai antes então houve muitos sistemas que faziam isso usavam dicionários bilíngues usavam regras para fazer tradução Esse é um sistema bastante famoso H que tá no ar até hoje vocês vão perceber nesses slides que eu sempre tento colocar o
link para vocês acessarem esse material já tá na página do curso para vocês fica o desafio para casa cliquem nesses links e testem esses sistemas tá esse é o sistema perum eh e ele usa regras de tradução até hoje tá é super interessante e ele funciona bem para caramba ah um dos primeiros chatbots que surgiram e isso é um negócio super legal de ver vocês já ouviram falar da Elisa a Elisa era um chatbot que se passava por um psicólogo conversando com o usuário tem essa conversa relatada num livro de PLN eu até pus diência
aí para vocês Vocês podem buscar depois que é fascinante a conversa então Diz a lenda que muita gente foi enganada pela Elisa que achava que realmente tava teclando tava conversando com o psicólogo mas é muito fácil como era um sistema é um sistema antigo a estratégia de diálogo era muito simples vocês vão perceber que ela reformula a frase da pessoa ela sempre pega o tópico principal e tenta fazer uma pergunta em cima daquilo tá sai diálogos Fabulosos então aqui eu trouxe um que eu acho incrível absolutamente incrível pro bem e pro mal tá tá vou
ler com vocês então a Elisa começa Veja a pessoa não sabe que tá conversando com software tá ela tá teclando lá no computador com alguém tem alguém do outro lado então a Elisa pergunta como vai você hoje a pessoa diz não muito bem por que você diz não muito bem eu estou com alergia interessante você pensa puxa o psicólogo tá achando interessante a alergia deve est pensando que somatizou alguma coisa né sei lá um sentimento mal resolvido mas tudo bem eu fico com manchas vermelhas acho que não sei do que você está falando qualquer ser
humano normal sabe que a alergia pode deixar mancha vermelha né então começa a ficar esquisita a conversa manchas vermelhas no meu rosto seu rosto isso mesmo é isso mesmo perceberam que a coisa já degringolou coisas que não acontecem nos chatbots de hoje né eles resistem mais tempo a uma conversa não deg gringola tão rapidamente assim mas vocês acham que acabou a conversa essa conversa é fabulosa gente vamos lá o cara já sacou que tá conversando com o programa né você é um programa não é E aí a Elisa com uma resposta incrível te agrada pensar
que eu sou um programa com certeza eu percebo Ok Acabou a conversa ele não deu elementos ali para Elisa reformular e fazer outra frase Mas ela é espertinha ela sabe recuperar o que foi dito anteriormente ela fala um pouco antes você falou do seu rosto voltou completamente num assunto irrelevante né o cara Sacana e sobre o seu rosto que é que você realmente quer saber você é meu tipo de garota aí que que você pensa que um sistema da década de 60 70 vai responder né ele vai impressionar vocês talvez em suas fantasias eu seja
seu tipo de garota em minhas fantasias Você é loira o que te faz pensar que sou loira não sei você realmente não sabe não você está dizendo não apenas para ser negativo não você está sendo um pouco negativo não não estou por quanto tempo você não tem estado já era já era se ele tinha alguma dúvida que ele tava conversando com o software não tem mais nenhuma tá eh Então esse diálogo é relatado nesse livro como um diálogo real que aconteceu entre esse chatbot e uma pessoa e a gente vê as estratégias como eram simples
né era simplesmente uma questão de refr de ter frases congeladas prontas na memória que ela usava para sair de certas situações ela tinha muito poder de gerar hoje a i é gerativa porque ela gera coisa gerativa ou generativa a gente usa as duas palavras apesar dos meus colegas linguistas dizerem que a palavra generativa é uma uma aberração na língua portuguesa né A gente devia falar gerativa mas tudo bem de novo foi consagrado pelo uso então a gente aceita os dois Ah ele não tinha esse poder gerativo que a ia tem hoje tá ele usava padrinhos
congelados refr para gerar esse tipo de coisa então a gente vê como era muito restrito isso como os chatbots melhoraram né a Elisa fez tanto sucesso que ela teve várias versões antigamente a gente tinha o Google Mars assim como a gente tem o Google Earth que deixa vocês explorarem a terra tinha versão de Marte e a Elisa tava lá então você a gente I nos pontos de interesse em Marte apare um robozinho que você podia conversar com ele era melisa Elisa de Marte tá esse é um sistema real tá lá vocês acham na internet ainda
para usar tá é super legal só que mais controlinho ela só falava daquilo que tava lá outro sistema muito famoso é o sistema start ele é considerado o primeiro sistema de perguntas e respostas automática ele tá no ar eu não vou rodar ele agora se tiver se der tempo no fim eu rodo para vocês verem e ele é atualizado com alguma frequência ele consulta bases de dados como Wikipédia e responde coisas pra gente essa consulta é uma que eu já fiz faz algum tempo Qual é o país com a maior população na América do Sul
ele fala é o Brasil tá Ah só que é só em inglês a interface dele ele é interessante porque ele é um sistema histó super antigo que a gente consegue acessar e comparar com sistemas de perguntas e respostas que a gente ainda tem hoje auxílio a escrita outra frente de atuação de PLN tem muita gente com dificuldade de leitura e escrita Será que PLN pode ajudar então por exemplo um corretor ortográfico é um sistema de auxílio escrit um corretor gramatical Também quem faz pós-graduação e tem que escrever sua monografia de Mestrado ou doutorado muitas vezes
não sabe como começar quem vai fazer um TCC não sabe escrever ver um TCC da primeira vez o orientador tá lá para ajudar mas se você tiver um sistema que te dá apoio pode ajudar né então tem vários sistemas desse tipo ah PLN trabalha bastante nessa frente esse aqui por exemplo ajuda esse chama lengua de T ele ajuda você a corrigir ortografia ó as menina comprou um carro ele vai lá do ladinho não sei se vocês estão enxergando ele fala assim as menina erro gramatical carro erro ortográfico ele faz sugestões para melhorar isso tá Ah
esse é outro famoso oo ele te ajuda a corrigir a gramática ele vai além da ortografia e tem muitos e muitos sistemas desse tipo língua portuguesa o primeiro corretor gramatical ortográfico gramatical que surgiu foi feito na USP lá de São Carlos ganhou todos os prêmios como um produto inovador na década de 90 depois foi vendido Grandes Empresas e o tempo ele foi substituído depois né Por causa das nov sumar Então você dá lá um texto grande você pede um resumo Eu sei que vocês não conseguem ler vou colocar em letra maior daqui a pouquinho isso
pode ser muito útil porque tem textos muito grandes muitas vezes e a gente quer só uma ideia do que o texto fala então a gente pode resumir notícia jornalística essa só os mais fáceis em geral o jornal começa com a manchete a coisa mais importante pode resumir livro pode resumir leis resumir decisões jurídicas então é super interessante Então aqui eu peguei uma notícia de Jornal só só um pedacinho dela então começa lá né Belo Horizonte trabalhadores entraram em greve mais 65.000 pessoas foram às ruas na Grécia na maior demonstração pública de indignação é um texto
grande esse mandei o sistema resumir ele foi lá e fez assim para mim ponto vejam que ele se perdeu um pouquinho né ele começou com ponto trabalhadores da área Ferroviária que já estavam em situação de greve desde a última quinta-feira afirmam que o incidente da última semana denunci um Estado em Ruínas da malha do país eh Então fala de um acidente que ainda não foi introduzido tá interessante esse resumo ele dá uma ideia do que trata o texto mas tem problemas tá por muito tempo a sumarização automática usava o que a gente chama de técnicas
extrativas Ela olhava pro texto de origem extraía pedaços do texto para formar o resumo daí o nome extrativo hoje elas já usam técnicas abstrativa todo mundo sabe o que que é um abstract né no inglês é um resumo então a gente reescreve aquele conteúdo original é isso que esse sistema tá tentando fazer então ele tá usando modelagem de língua eh para tentar pegar o texto e reescrever de maneira sintetizada pra gente isso tem problemas então vocês já devem ter ouvido falar que a ia gerativa esses grandes modelos de língua eles podem cometer alguns erros eles
podem alucinar a gente usa esse termo técnico eh ele pode gerar coisa que não tava no original que não é fiel à fonte tá ã já falei do IBM Watson para vocês é o sistema da IBM de perguntas e respostas que ganhou dos humanos nesse show que é como se fosse um tipo do Show do Milhão Quem Quer Ser um Milionário como a gente tem hoje ah e se vocês olharem O que que a IBM falava na época a equipe de pesquisa da IBM ela contava que ela usava um monte de base de dados um
monte de conhecimento codificado probabilidades para tentar achar as respostas para as perguntas super legal depois a IBM disponibilizou a maior parte dos componentes do Watson pra gente testar e usar Olha o link lá tarefinha para casa tá para vocês testarem esses caras aí os diversos assistentes digitais e virtuais que a gente tem lançamento de fala a Siri a Alexa esse sistema da openi que faz um sucesso danado Whisper é um dos melhores sistemas que a gente tem para reconhecimento de fala tá eles têm bastante limitação quando a gente fala de variedades de uma mesma língua
então no Brasil por exemplo a gente diz que todo mundo fala portuguê mas vocês concordam que dependendo da região do Brasil o nosso português é muito diferente então isso é um desafio para sistema de processamento de fala e não só no Brasil mas no mundo todo por inglês por espanhol tá depois depis eu vou mostrar se der tempo uma avaliação que as pessoas fazem da Língua Portuguesa no mundo é muito interessante tudo isso é produto de PLN gente para vocês verem quanta coisa tem eh os tradutores que a gente chama de Sub simbólicos ou não
simbólicos Eles Não Usam regras Eles Não Usam dicionários bilíngues Como os antigos usavam Eles já usam estatística eles usam tradução neural os Transformers para tentar fazer isso então o Google Tradutor é um dos mais famosos eh tem esse que valiza com o Google tradutor que é o DP e ele se gaba porque ele até ganhou do Google numa competição lembra que eu contei para vocês que a ia ficou mais rígida na avaliação dos produtos tem competições tem conjuntos de dados que o pessoal usa para se comparar ele ganhou do tradutor do Google um ano e
então ficou bastante famoso por conta disso tá a tradução automática é muito boa hoje mas tem problemas V citar um famoso meus colegas linguistas adoram citar Você vai no Google e coloca alguma coisa assim a médica casou com o enfermeiro e manda Traduzir por inglês ou por espanhol por qualquer outra língua e manda voltar pro português adivinha o que que vira o médico casou com a enfermeira ele troca o gênero das coisas porque ele tem um conjunto de dados altamente com viés né uma marca da época em que era mais comum ter enfermeira do que
enfermeiro e assim por diante então ele erra muitas coisas assim quando maior a frase maior a ch dele errar porque ele perde um pouco da dependência sintática entre as os pedaços distantes da frase então esses sistemas melhoraram muito mas tem bastante trabalho para fazê-los ficar redondinhos e aí vem aplicações variadíssimas né Então aqui tem uma por exemplo de um grupo de pesquisadores que decifraram um manuscrito de 1700 e eles descobriram ninguém sabia o que estava escrito ali porque estava escrito numa língua maluca eles descobriram que aquilo tava falando de oftalmologia tá usando técnicas de a
técnicas de PLN tá lá o link para vocês outra coisa super legal quem já viu aqui O Guia do Mochileiro das Galáxias que tinha o peixinho que você colocava no ouvido né ah a Google lançou aí esse Google Pixel Bud então era um fonezinho que colocava no ouvido ele traduzia em tempo real que as outras pessoas estavam falando você podia falar sua língua a pessoa falava dela e você ouvia na sua língua o que ela falava logicamente isso não vingou porque os smartphones já incorporam todo o tipo de tecnologia que a gente tem eh mas
esse negocinho tá para dá para encontrar para comprar Inclusive a gente acha ele aí no Mercado Livre eh Super Legal né então depois vocês acessem aí Vejam a notícia outra tarefa legal análise de sentimentos então é uma grande área em que a gente tenta descobrir sobre o que as pessoas estão falando e como elas estão falando então sai um novo Smartphone de uma marca ele foi bem assento no mercado ou não as pessoas falaram bem ou mal nas redes sociais vamos descobrir como os estudantes da USP estão se sentindo Vamos tentar descobrir a emoção que
os estudantes estão sentindo nas redes sociais deles tudo isso análise de sentimento super útil para um monte de coisa então Eh eu fiz um teste aqui né coloquei lá esse aplicativo é muito bom só não gostei que ele é pago ele tem uma versão paga e uma versão gratuita aí ele fala assim para mim olha você foi 58% positivo né Suas Emoções São tristeza 42% alegria 100% medo 0% tão vendo ali no cantinho isso é análise de sentimento é super útil todo mundo aqui já teve um momento em que quis comprar um produto E você
vai ler as revisões dos usuários na página de comércio eletrônico que tem centenas às vezes milhares de opiniões Será que a gente não consegue ordenar essas opiniões não tem um jeito de dizer quais são mais importantes análise de sentimentos é uma tarefa predição de utilidade de comentários tá então é uma tarefa muito interessante muitas empresas gostam muito disso pra academia pra gente pesquisador é um tema Super Interessante porque primeiro que é a língua em uso a língua real a língua da internet tá segundo que tem uma aplicação prática então é muito legal outra que faz
sucesso detecção de fake News foi aqui na USP nós fizemos o primeiro sistema de detecção de fake News pra língua portuguesa é esse que vocês estão vendo ele chama fake check ele tá no ar até hoje ele tinha uma taxa de acerto alta na época mais de 90% e aqui eu eu fiz um teste recente peguei aí uma notícia dessas que não sei como alguém acredita mas enfim as pessoas acreditam suco de limão e de cana cura um dengue juro gente é uma notícia que circulou no WhatsApp muita gente acreditou o sistema felizmente detectou que
isso é falso tá como é que ele faz isso ele faz o que a Nina contou para vocês ele faz aprendizado de máquina ele pega uma base de dados de Notícias verdadeiras uma base de dados notícias falsas Pense aí na analogia que a Nina fez de bananas e peras tá pense que a notícia verdadeira é a banana notícia falsa é a pera ele tenta aprender a separar essas coisas tá tá no ar vocês podem testar o link que tá aí tá Ah bom isso a gente já tava nos anos 2010 2011 e se falava desse
negócio do tal do GPT que até então era uma coisa de Nerd só a gente que trabalha com PLN sabia o que que era GPT eh que é o generative pretrained Transformer né Essa é a sigla aí de GPT a gente testava o gpt1 o gpt2 quando o gpt3 saiu ele começou a ganhar a mídia e as pessoas falavam assim o mais poder sistema de Inteligência Artificial já criado tá E ele era interessante mas ele cometia bastante Erro Foi aí a partir do 3 e me que eles deram esse nome mais bonitinho de chat GPT
e deram uma interface de acesso pra população então pela primeira vez eu nunca imaginei que eu fosse ver pessoas normais falando a sigla GPT era uma coisa que só pessoas de PLN que trabalhavam com isso falavam e a gente vê em larga escala o primeiro exemplo disso que a gente chama de ia gerativa que tem o poder de gerar coisas a partir de uma grande base de treinamento como a Nina contou para vocês né usando aprendizado profundo usando os Transformers eh para fazer isso funcionar isso abalou o mundo né ah todo mundo passou a usar
isso pras pros mais variados fins isso empoderou os chatbots uma coisa que talvez vocês não saibam que chatbot era meio patinho feio em PLN até antes dos gpts chatbot era uma coisa muito congelada era eles funcionam como eles têm tabelinhas de perguntas e respostas mais ou menos pré-programadas então de fato não tinha muita inteligência linguística ali o pessoal de pen torcia um pouco o nariz para isso porque achava que aquilo não valia a pena é simplesmente padrãozinho de perguntas e respostas aí a gerativa mudou o cenário agora não é padrãozinho de pergunta e resposta congelada
Esse cara tem poder de escrever coisas novas ali usando o aprendizado que ele H adquiriu na base de teste dele tá e muito mais a gente quer dar computação muito Às vezes tem um olhar bastante utilitarista para PLN a gente quer sistemas que funcionem mas PLN é muito mais do que isso tem trabalhos muito famosos de PLN que não estão muito preocupados em fazer sistema então por exemplo tem um trabalho incrível da década de 80 que tenta desvendar usando softwares de PLN como a nossa cabeça processa a língua não é interessante Então Eles olham o
nosso cérebro como se fosse um computador qual aquelas estruturas de dados quem é da Computação aqui vai saber o que eu vou falar aquelas estruturas de dados que a gente aprende na universidade pilha fila árvore né fila de prioridade eles tentam descrever o funcionamento mental eh ao entender ao ler um texto por que que um texto é mais difícil de entender do que outro eles não geraram software Mas eles trouxeram uma contribuição Super Interessante paraa linguística usando PLN e tem muitos trabalhos desse tipo tá tem muita gente que não tá interessada em fazer um software
agora mas quer descobrir como a língua evolui a língua portuguesa historicamente mudou muito se alguém já teve chance de olhar pro português do século X 15 16 e olhar para ele hoje ele é bem diferente olha que ambição interessante Será que a gente não consegue usar uma rede neural ou qualquer técnica de aprendizado de máquina para prever como é que ele vai ser daqui 500 anos Já pensaram nisso antecipar as mudanças da língua isso interessa muito a PLN quase não tem trabalhos nisso é muito difícil né É muito difícil você dizer se você tá certo
ou não porque daqui 500 anos você não vai estar vivo para saber se o seu aprendizado de máquina conseguiu fazer esta tarefa e tem muitas e muitas coisas em PLN que às vezes fogem da aplicação prática tá fica o desafio para vocês aí um dia investigarem um pouquinho a gente já passou as referências que a gente usa Ah tem bastante coisa lá legal para vocês verem tá Ah PLN hoje também tá em várias outras frentes que antes não tinha então por exemplo recuperação de informação recuperação de informação é o nome oficial do que o Google
faz eh que é buscar num grande repositório de documentos aqueles que respondem uma consulta do usuário pessoal usa processamento de língua ali sistema de recomendação para saber se aquele filme tem a ver com outro que você gostou ã PLN tá lá também e a gente tem muito essa preocupação hoje de de fazer pras diferentes plataformas não só pro desktop pro laptop mas pro tablet pro smartphone hoje todo mundo tem smartphone então é muito importante que esses sistemas funcionem nessas plataformas variadas esse projeto que nos que nos uniu Eu os dois Robertos e anina o nome
dele é computação heterogêna para PLN e visão computacional porque essa é uma preocupação que a gente tem por que heterogêna porque a gente quer diferentes plataformas a gente quer aquilo funcionando né isso é legal isso dá acesso pra população eh em geral vou contar rapidamente como é que se trabalha em PLN E aí tem histórias fascinantes quando eu dou aula disso na pós--graduação eu gasto umas duas aulas falando disso aqui eu vou falar em 5 minutos só para vocês terem um gostinho da maluquice que isso pode virar tá bom ser humano é movido a paixão
n então tem gente que gosta de trabalhar em PLN tentando modelar a mente da pessoa as regras que regem o mundo o professor de português de vocês lá no ensino básico deve ter ensinado que frase é sujeito e predicado lembram disso toda palavra depois de um artigo é um substantivo a gente aprendeu regras assim na escola Será que eu não posso ensinar a máquina regras desse jeito regras que a gente tem na nossa cabeça Essa é uma vertente de trabalho em PLN que funciona m b problemas vou mostrar uma solução de problema usando isso para
vocês daqui a pouco muita gente fala assim nossa criar regras é muito trabalhoso vamos US aprendizado de máquina deixa ele aprender tudo que é o que a gente conversou de manhã aqui vou mostrar uns exemplos também de Como isso acontece tá acontece gente que enquanto na computação a gente é mais agnóstico e quando a gente olha as discussões que acontecem na linguística a coisa é mais ferrinha na linguística é mais comum o hábito de você se filiar a uma teoria um paradig do que é na Computação na computação a gente é meio herge né a
gente usa aquilo que tá servindo para aquele momento e a gente não liga muito se aquilo é de outro paradigma ou se funciona de um jeito diferente na linguística eles defendem um pouco mais isso E aí surgem coisas interessantíssimas tá então a gente pode pensar em usar o conhecimento explicitamente sintaxe semântica ou não Ou deixar ele ser aprendido automaticamente pela máquina tá ele pode ter uma representação simbólica eu falo uma regra legível por humano se artigo e substantivo então ou não eu deixo a máquina aprender o padrão que ela quiser sem eu ter que definir
essa regra esse conhecimento pode ser adquirido manualmente eu posso pagar um monte de linguista para me escrever essas regras linguista ou Qualquer que seja profissional tá Às vezes da Psicologia às vezes da própria computação eu posso deixar a máquina tentar fazer isso ajudar o humano a aprender esse tipo de coisa então o PLN te dá muitos caminhos de atuação E aí surgem pessoas interessant mimas nesse caminho então a gente começou lá na década de 40 50 com abordagens simbólicas com regras com árvores de decisão ah com fluxogramas na década de 90 para 2000 a gente
fez um shift a gente fez uma mudança paraas abordagens estatísticas e e um dos grandes responsáveis por isso foi a IBM o grupo de pesquisadores da IBM começou a usar modelos estatísticos para fazer tradução automática e foi uma das revoluções anteriores aos modelos neurais que a gente tem hoje que causou um estrondo na área eles conseguiram melhorar muito a tradução automática com base em estatística até então a tradução automática não era muito confiável quando a estatística entrou em jogo melhorou muito muito muito mesmo a gente passou a poder usar quase pronto aquilo que a gente
traduzia tá E e aí agora mais recente de 2010 para cá como eu já contei para vocês esse casamento de modelo distribucional com aprendizado profundo fez uma nova mudança de paradigma as abordagens neurais dominaram o o mundo só que em PN a gente não aband Don nas outras linhas porque elas servem para tarefas muitas vezes específicas ou de outras áreas ou para resolver outros problemas então é normal que essas coisas comecem a se mesclar Então hoje por exemplo a gente tem visto muito o pessoal fazendo abordagens neurossemântica de computação trabalhando na década de 50 surge
um cara chamado noomis já ouviram falar desse cara ele é bem famoso em várias áreas ele ousou responder uma pergunta que muita gente não tinha ousado responder não com a força que ele respondeu todas as áreas do conhecimento tem suas perguntas existenciais né O que que havia antes do Big Bang o que vai acontecer depois qual é a origem da vida ah de PLN é de onde vem a língua não de PLN só mas da lingui né Por que que a gente fala ele ousou falar que a língua era uma capacidade inata a gente nascia
com alguma coisa no nosso Genoma a gente tinha algum tipo de órgão no cérebro que nos ajudava a processar a língua e ele falava assim Vocês ficam olhando para dados para tentar aprender padrões da língua não serve para nada os dados estão corrompidos a pessoa pode ter cometido erros a escrever ela pode gaguejar ela pode se você tá gravando o que a pessoa tá falando ela pode fazer Pau cheio deessa bobagem de olar dados queis engada naam do que a ciência de dados faz hoje el F assim em ve disso pensa olha faz introspecção que
conhecimento você humano tá usando para falar então el acreditava que a gente tinha de alguma forma uma gramática da língua universal que todo ser humano nascia com ela um professora da ciência de dados abandonou essa área foi trabalhar aí com a modelagem mental da língua os sistemas de I os sistemas de pelene começaram a usar muito conhecimento explicitamente representado lembra que eu contei para vocês os temas especialistas de manhã jomes que teve esse efeito jomes que ainda é vivo Ele tem 90 e poucos anos ele é casado com uma brasileira volta e meio ele tá
no Brasil dando entrevista nos mais variados programas é um daqueles cientistas que nós temos o privilégio de estar vivos na mesma época tá assim como stepen hawkins e outros tá vamos ver quem é esse cara é é um cara que abalou a ciência ele fez coisas incríveis não só na linguística o que ele fez na linguística abalou a computação hoje quando a gente fala de linguagem de programação as linguagens de programação não sei se vocês sabem disso tem uma gramática por trás a gramática das linguagens de programação a gente escreve usando noções que tesk definiu
lá atrás chomes é super polêmico nas Ciências Sociais nas ciências políticas é muito interessante tá então eh vamos conhecer o um pouquinho disso bom veja isso é década de 60 até 85 antes disso e depois eh tem o que a gente chama de empirismo as pessoas que não acreditam que a mente tem coisas inatas pra língua elas acreditam que a mente tem operações genéricas de processamento de sinais de padrão reconhecimento de eh de regras processos de generalização e elas acham que a gente usa isso para tudo para andar para ouvir para ler para falar tá
essas pessoas são as pessoas que acreditam nos poderes dos dados Então essa é a linha dominante desde a década de 90 quando o aprendizado de máquina chegou com força em PLN essa linha passou a dominar a ciência de dados mais recente valorizou isso a gente usa essas bases de dados textuais que pra gente em PLN tem um nome bonitinho são os corpos corpos desse jeito que tá escrito ali com acento ou a gente usa versão em latim né Corpus e corpora eu falo da do jeito que tá escrito que acho mais bonitinho bom deixa eu
dar um exemplo para vocês de cada momento de PLN Então como é que era trabalhar simbolicamente com PLN então eu falei que teve o simbolismo teve a estatística e teve o neural né vamos ver se eu consigo mostrar para vocês um exemplo bem simples só para vocês entenderem o paradigma então por exemplo a revisão gramatical foi tratada simbolicamente por muito tempo o corretor gramatical que a gente fez na USP era simbólico como é que funcionava você escrevia lá assim o carro os quebrou tem um erro de concordância de número ali todo mundo percebe o primeiro
passo que o sistema tinha que fazer é achar a classe gramatical dessas palavras então eu pegava um dicionário que aqui a gente chama de léxico tem uma pequena diferença tá o dicionário Obrigatoriamente ele tem que ter uma definição o léxico não precisa mas tudo bem para termos didáticos não vou entrar muito nessa questão tá o dicionário falava assim pra gente ó o pode ser um artigo masculino e singular mas o também pode ser o pronome obl blá blá blá ele listava todas as possibilidades de classe gramatical para o ele fazia a mesma coisa com carros
ele fazia a mesma coisa com quebrou Aí vinham regras de desambiguação regras que nos ajudavam a a escolher qual que era a classe gramatical correta e tinha uma regra que dizia assim se esse o tiver antes de um substantivo então ele não é pronome ele é artigo então com um conjunto de regras eu conseguia decidir por exemplo ó que o era artigo carros é substantivo e quebrou é verbo certo primeira etapa Por que que a gente faz isso porque a gente quer descobrir a estrutura dessa frase para conseguir identificar o erro Vocês já vão ver
onde eu vou chegar eu pego essas palavras com suas classes gramaticais e uso regras que a professora de português nos ensinou lá no ensino fundamental eu sei por exemplo que uma frase é formada por sujeito e predicado tem uma regra na minha cabeça sobre isso a gente aprendeu isso eu sei que o sujeito é um artigo e um substantivo eu pego essa sequência de palavras aplico essas regras e construo o que a gente chama de árvore sintática uma frase se divide em sujeito e predicado à direita aí ó sujeito se divide artigo substantivo artigo gera
o substantivo gera carros e assim por diante para que tudo isso porque eu sei que na língua portuguesa os elementos dentro do sujeito tem que concordar em gênero e número a gente não sabe isso então eu tenho que achar o sujeito para eu achar o sujeito eu preciso usar regras que usam as classes gramaticais para eu achar as classes gramaticais eu posso usar dicionários regras de escolha de classes e assim por diante E aí já que eu sei quem é o sujeito eu vou lá e checo que puxa o carros dentro do sujeito não tá
concordando então tenho que corrigir ou vira o carro ou os carros Isso é uma abordagem totalmente simbólica tudo bem quando vocês usavam o Microsoft Word foi paraa Microsoft que a gente vendeu o nosso corretor ortográfico gramatical na época era isso que estava por trás dele enquanto as pessoas iam digitando suas frases ele ia grifando ele tava fazendo isso ele tava escolhendo classe gramatical ele tava escolhendo regras sintáticas aplicando regras de correção então ele sabia que dentro dos sujeitos os elementos tinam que concordar em gênero e número totalmente simbólico esse processo não é bonito isso conhecimento
humano codificado né Isso foi a marca de algumas décadas em PLN como eu contei para vocês a partir da década de 90 o aprendizado de máquina chegou com força e uma das linhas do aprendizado de máquina era a linha estatística então a gente adorava base a gente adorava esse método que vocês já devem ter ouvido falar o naiv base as redes basias tudo com base nos trabalhos de pe tá e uma tarefa muito comum que a gente sempre usa para mostrar o uso da probabilidade é detecção de spam ou de golpes virtuais então isso aqui
é uma notícia real isso é recente GO da herança nigeriana ganha fôlego em rede social outra coisa que eu não sei como é que as pessoas acreditam né mas enfim tá lá a parte da Notícia é assim antes da morte dele no dia 12 de Dezembro em um hospital de abidjan ele me chamou e pediu que eu guardasse 6 milhões me em uma conta bancária em meu nome aí ele sempre precisa de um parceiro internacional para transferir o investimento todo mundo já receber um e-mail assim né uma solução para isso é a gente usar estatística
para tentar descobrir se isso pode ser um spam ou não como é que as pessoas faziam uma solução muito simples é você ver a chance das palavras serem usadas em um spam todo mundo lembra de probabilidade aqui então a probabilidade de usar a palavra conta em um spam a probabilidade de eu usar a palavra herança num spam então a gente fazia umas a gente faz umas continhas quando a gente tá detectando span que é assim qual é a probabilidade de ser spam dado aquela Barrinha é o dado né a probabilidade condicional essa mensagem que eu
recebi qual é a probabilidade daquilo não ser um spam dado essa mensagem que eu recebi a gente faz essa conta tá quem dá um valor maior de probabilidade é que leva então a gente quebra essa conta em vários pedacinhos e olha assim tá então para eu saber a mensagem é cumprido vou testar palavra por palavra vou ver a chance de conta tá relacionada com spam herança tá relacionada com spam está relacionado com o spam e vou fazer o raciocínio inverso e se não fosse spam Qual é a chance de herança não ser spam Qual é
a chance de conta não tá relacionado com o spam o cara que ganhar tiver a maior probabilidade é quem eu escolha essa é uma técnica muito simples conhecida como classificação por naiv base é naive no inglês significa ingênuo é um uso ingênuo da probabilidade para tentar fazer essa classificação tá tem mais coisa aqui eu tô simplificando bastante só para vocês entenderem a ideia de qu a probabilidade pode me ajudar mas como é que eu descubro de onde vem a probabilidade da da palavra herança tem a ver com spam ou não spam dados eu pego um
grande Corpus um grande conjunto de dados e vou ver em todos os dados que eram spam Quantas vezes a palavra herança apareceu e todos os dados que não eram spam Quantas vezes a palavra herança apareceu e eu faço essa conta tá mais recentemente Então a partir eh dos anos 2010 2011 em diante os modelos neurais surgiram eu tinha uma animaçãozinha aqui que eu não vou passar porque não vale a pena Tá mas o link tá aí vocês podem ver depois eh o modelo neural então ele tenta aprender a fazer tradução Então o Google tradutor e
Companhia usa isso daí tá então você escreve uma palavra lá eu sou um estudante uma frase em francês isso passa pelas pilhas e pilhas e pilhas de redes neurais que tá aí no meio em duas etapas né Eu já contei para vocês que tem os codificadores os decodificadores os codificadores tentam interpretar aquele conteúdo e jogam pros decodificadores que a partir dessa interpretação de conteúdo que nada mais é do que um monte de número já falei que os modelos distribucion nos ensinaram a transformar palavras em números pega esse monte de número interpretado e começa a Gerar
em outra língua e solta lá em português ou inglês eu sou um estudante Então essa é uma abordagem super comum que a gente segue hoje totalmente neural tá então com isso a gente consegue ver os três tipos de aplicações e tem todo tipo de mistura que vocês podem imaginar tá a gente consegue fazer isso de todo jeito que que acontece agora em PLN para onde o futuro tá apontando vocês viram que tem muita coisa dentro dessa área falar que PLN é uma área só é quase injusto tem muitas aplicações diferentes de características completamente diferentes tendências
então bom a gente quer processar o que tá na web Eu quero processar email Eu quero processar redes sociais Eu quero processar isso que a gente chama Tecnicamente da na área de user generated content conteúdo gerado pelo usuário tudo aquilo que a gente escreve nas páginas de comércio eletrônico eu quero conseguir processar tá eu quero fazer min mineração de opinião ou análise de sentimento o que que as pessoas estão falando a gente tá desenvolvendo bastante assistente virtual como ALX e Companhia as abordagens multimodais estão muito quentes já falei isso para vocês também e temos esse
fator de que as empresas a indústria entrou com peso no trabalho aqui em PLN ah gente hoje é muito difícil você achar profissional de PLN disponível as empresas contratam rapidamente que tá faltando gente na área tá é um ramo quente temos muitas ambições a gente quer fazer coisas que funcionou para todas as línguas inglês português espanhol o método que você dê um conjunto de dados em qualquer língua ele funciona bem a gente quer que ele escale que ele seja robusto eh tem uma frase que a gente fala bastante que é isso ó deve funcionar para
qualquer coisa na web por muito tempo em PLN a gente trabalhou com técnicas que funcionavam só para texto bem escrito bonitinho mas a gente sabe que a web tem de tudo né Cada rede social nova que surge traz jargões próprios peguem o antigo Twitter agora x meu lá tinha hashtag tinha @ tinha cashtag vocês já ouviram falar de cashtag procurem depois os sistemas de PN tem que saber lidar com aquilo lá tem texto sem capitalização sem pontuação escrito de tudo jeito tem uma linguiça que trabalha comigo uma vez ela teve a pachorra de levantar de
quantos jeitos diferentes a pessoa escrever a palavra design ela encontrou 20 jeitos diferentes errados de escrever a palavra design então o sistema de PLN robusto deveria ser capaz de perceber que é tudo a mesma palavra em vez de ficar Tent tando arrumar antes de processar então houve um pouco de mudança de mentalidade nisso a gente quer fazer coisas que funcionam ali para todo mundo há uma preocupação Grande hoje em atender os minoritários as línguas que têm poucos recursos tecnológicos por exemplo as línguas indígenas isso é um congresso recente que teve nesse ano no começo do
ano lá na Espanha sobre tratamentos das línguas indígenas do Brasil e da iberoamérica tá criação de dicionários criação de tradutores automáticos uma coisa que às vezes a gente não percebe a gente usa a língua para tudo né mas a gente não percebe que a língua também é o nosso instrumento de pensamento a língua é uma marca da nossa cultura então a gente cada vez que uma língua morre a gente perdeu muita coisa hoje a gente tem cerca de 7000 línguas no planeta elas estão sendo extintas rapidamente tem línguas que são faladas por uma pessoa por
uma família então é importante a gente tentar preservar isso e a gente prê tecnologia de tradução de dicionário de gramática ajuda a preservar um pouco essa história da língua e e o seu conteúdo e eu vou terminar falando dos Desafios de processar a língua portuguesa como eu falei para vocês dá a falsa impressão que é uma coisa só né a língua portuguesa é uma só mas não é a língua portuguesa é falada em 10 localidades Ah é ela é a língua oficial em 10 localidades não é a única oficial em todos os lugares o Brasil
é o maior falante do português e quem já teve chance de falar com falantes de português de outros lugares deve perceber deve ter percebido que pode variar Bastante tem gente que a gente não entende o que fala tá de tão diferente que é no ramo da linguística a língua portuguesa vocês podem ver ela tá grifin ali embaixo ela é prima da do galego do espanhol do Catalão é uma língua latina tá e cada ramo de de línguas aí é uma família de línguas diferente com características bem diferentes entre si então a gente pode levar isso
em conta né Na hora de produzir os nossos sistemas Olha lá os 10 os 10 locais que falam português então o Brasil é a maior deles aí Eh mas tem vários lugares do mundo segundo as últimas estimativas nós somos a sexta língua mais falada do mundo a gente tem um instituto internacional dedicado à promoção da língua portuguesa tá o link aí para vocês buscarem é considerado uma língua grande Academia Brasileira de Letras fala que a gente tem mais de 350.000 palavras diferentes bastante né se se a gente olhar comparativamente tem línguas cuj dicionário tem menos
entradas e as variações são muito interessantes tem variação de pronúncia de ortografia de gramática os perfis de usuários são diferentes eh tem comportamentos e culturas diferentes eu trouxe aqui um negócio que eu acho fabuloso vocês já ouviram o o termo White Paper então White Paper quando você faz um um relato técnico de como alguma coisa funciona então em Portugal pesquisadores de Portugal fizeram White Paper que eles chamam de livro branco eles traduzem quase tudo né sobre a língua portuguesa como é que a língua portuguesa funciona então eles fiseram o livro branco da língua portuguesa eu
vou ler com vocês as coisas que eles falam são Fabulosas tá são Fabulosas e são divertidas Então são só uns trechinhos O link tá aí para quem quiser acessar esse livro branco por coincidência o sobrenome do primeiro autor é branco Tá mas não não tem a ver com com o título do artigo é o famoso Antônio branco que também integra o centro de I que a gente falou hoje cedo então ele começa Ó em Portugal a divisão geográfica dos dialetos distingue os dialetos do centro sul do norte os das ilhas atlânticas os dialetos do Norte
podem ser identificados pela ausência de distinção fonológica entre b e v com prevalência do b e etc tá então Ele nos explica a cara do português de Portugal e as variações que acontecem lá dentro cantinho esquerdo lá em cima a situação das variedades africanas do português é variada enquanto emog e Moçambique o número de falantes tem vindo a aumentar em outros outros casos como Sant Tomé em prpo em muitas circunstâncias utiliza-se o e o português é uma língua segunda língua aí chega no Brasil quanto ao Brasil dada a dimensão geográfica deste país não é viável
apresentar aqui as suas variedades linguísticas Por quê a gente tem muita de Fato né no Sul se fala diferente do Sudeste se fala diferente do nordeste do centrooeste do Norte um bom sistema de pel tinha que conseguir abarcar tudo isso então eu tenho colegas que dedicam suas vidas a fazer sistemas de processamento de fala que identificam cada sotaque do Brasil a aex Siria o assistente do Gu o que quer que seja deveria entender todo mundo igualmente bem então a gente Por simplicidade talvez talvez também numa iniciativa política fala que o português é uma única língua
mas na prática tem bastante diferença e a gente tem a gente que trabalha com tecnologia e quer dar acesso à tecnologia linguística precisa pensar um pouco nisso tá eh tem um autor que fala assim o português é difícil porque tem muito vocábulo tem muito sinônimo tem muita flexão verbal tem muita construção sintática muita flexão de gênero número e grau e exceção para tudo isso tá então ele é bem pessimista quanto a ao processamento do português por causa disso O link tá aí vocês podem consultar depois tá Ah pra língua portuguesa do Brasil historicamente a área
se fortaleceu de PLN a partir da década de 90 ah a gente começou a alinhado a trabalhos de outras línguas reproduzindo os métodos que se fazia por inglês para espanhol que começaram muito antes antes da gente veja eles começaram na segunda guerra mundial a gente começou na década de 90 e e agora a gente tem valorizado mais o português a gente tem técnicas mais especializadas pra língua então isso é super legal e eu termino deixando dois links para vocês muitas vezes a gente quer usar um recurso quer procurar um software não sabe por onde começar
o português tem dois portais Que disponibilizam recursos ferramentas e softwares pro português tem um mais novo que é esse que é o port lã Clarim é uma iniciativa internacional europeia em que a gente coloca todos os nossos recursos do português lá vocês vão achar corpos vão achar ferramentas vão achar tradutores vão achar sumarizadas e tem um mais antigo que tá no ar até hoje que é a famosa língua Teca Então ela tem uma interface meio antiga porque ela é da década de 90 mas ela também tem muita coisa lá dentro tá Então vale a pena
Isso aí tá no material para vocês e aí eu paro pra gente tomar um cafezinho Tá bom então então a gente faz um intervalinho agora até às 15:30 certo irato acho que é isso né 15:30 Então dá tempo de tomar um café reiniciar a mente a gente volta daqui a pouquinho tá p pessoal vamos lá então depois de fazer o nosso mergulho no mundo de PLN agora a gente vai fazer um mergulho numa outra área quente da ia que é a visão computacional tá quem vai nos guiar nesse caminho é o professor Roberto irata daqui
do im a gente já apresentou ele então irata fica à vontade Muito obrigado thgo tá bom eh então boa tarde novamente para quem tá por aqui para quem tá no YouTube Obrigada pela eh presença eu vou começar contando uma história que aconteceu comigo em 2003 eh vocês sabem que na em vários eh cursos né a gente tem um uma coisa chamado eh TCC né que é o trabalho de conclusão de curso e E aí vem um estudante eh falar comigo e falou assim ó Professor eu queria que eh pegar uma imagem tipo essa imagem aqui
e gostaria que eh o meu sistema o meu trabalho a final do meu trabalho eh esse sistema dissesse assim ó ali tem pessoas ali tem carros eh tem placas me dissesse que placa que que diz cada placa etc né e a eu falei para ele Ah eu também eu também ador o sistema sim eh mas naquela época a gente a gente ainda tava eh a gente já já sabia fazer bastante coisa né mas ainda tava longe desse eh desse sonho né de colocar uma imagem e e e descobrir o que que essa imagem tinha então
vou trazer para vocês eh bom desde o começo né de de do que que é uma imagem como o que Quais são as transformações possíveis em imagem e tudo mais até a gente chegar a resolver parcialmente esse problema tá bom bom o que que é uma imagem uma imagem então a gente tá toda hora tirando imagens né mas bom o que que é uma imagem Afinal uma imagem é um instantâneo de uma cena né então eu tenho aqui uma cena eu tiro uma foto de vocês eu tenho um instantâneo dessa cena esse instantâneo ele vira
lá dentro do computador ou do celular uma tabela uma a gente Falou várias vezes aqui em uma tabela uma matriz onde cada cada posição dessa tabela tem um valor né que é o valor eh em geral das da da intensidade da Luz naquele eh naquela posição da imagem né imagens coloridas então tem até três tabelas né e e imagens de satélites tem até mais tabelas tudo depende da do da quantidade de de sensores que que esses Eh esses dispositivos têm eh se você você eh olhar Então se esse negócio funcionar bom então se você eh
olhar aqui um pedacinho dessa imagem né tô trazendo aqui um pedacinho dessa imagem tem os valores dessa tabela aqui tá bom então isso é uma imagem cada pontinho eh dessa imagem a gente chama de um um elemento eh da da figura né um pixel a gente tem diversos tipos de processos que que trabalham com imagens então um deles é chama-se processamento de imagens o processamento de imagens são processos que leva uma imagem em outra imagem Então sempre que eu tô fazendo uma transformação que eu levo uma imagem em outra imagem eh eu digo que eu
tô fazendo um processamento de imagens eh outro tipo de eh processo que trabalha com imagens é um processo chamado computação gráfica em que eu dou uma descrição eh formal de um certo objeto então por exemplo ele fala assim ó isso que é um bloco poliédrico com oito Faces etc e ele gera para mim uma imagem uma imagem sintética então Eh processos de computação gráfica São foram muito comuns e já são muito comuns eh para jogos por exemplo né então você tem lá descrição formal e ele gera uma imagem e eh o outro processo importante pra
gente hoje é a visão computacional né a visão computacional o que que é é você tem uma imagem né você sai parte de uma imagem e aí você através de um certo processo cria uma descrição formal dessa imagem então por exemplo eu dou essa imagem aqui eh dos bloquinhos e ele fala assim ó Isso aqui é um bloco poliédrico com oito faes e assim por diante Então essa é descrição formal eh isso a gente chama de visão computacional tá ele não tem nada a ver com a nossa visão né Muito embora a gente fala em
visão computacional e tudo mais não tem nada a ver com a nossa visão a nossa visão é muito mais rica do que isso existem diversos tipos de tarefas de visão computacional que vocês eh cada vez mais e vem inclusive de aplicações né no mundo né Eh algumas das principais são vigilância a gente tá vendo várias vezes eh identificação de pessoas Então hoje em dia é bem comum você ter na na na porta de alguns estabelecimentos eh um um tablet em que você olha pro tablet ele fala ó você pode entrar ou não e assim por
diante né então tem várias tarefas aí e cada vez a gente vai ver mais tarefas eh relacionadas aí à visão computacional vamos pegar aqui eh passo a passo né como é que funciona essas como Ou pelo menos Como funcionava essas tarefas a gente vai ver que com Deep learn isso vai mudar um pouquinho né então você tem uma certa cena você tem a a imagem dessa cena essa imagem hoje em dia tá cada vez melhor mas essa imagem às vezes eh tem problemas eh se se você tem imagem com problema você pode fazer um processamento
de imagens para melhorar essa imagem eh se você quer fazer uma descrição da imagem Provavelmente você vai ter que eh achar o que a gente chama de bordas da imagem né Eh a partir das bordas você pode tentar encaixar objetos eh por exemplo elipses aqui ou outros objetos eh nas nas bordas das imagens aqui né eh fazer uma coisa que a gente chama de segmentação da Imagem e a partir daí a gente eh pode começar a pensar em descrever a aquela imagem né então aqui a gente tem os diversos as diversas fases que eu comentei
né magamento pré-processamento segmentação descrição reconhecimento e finalmente a interpretação tá eh como é que você começa esse esse processo de de identificar eh e tentar descrever a imagem né uma uma das formas é você tentar eh ver que características né Que atributos e aqui nesse caso atributos locais ou seja atributos que dependem de uma pequena vizinhança né em que você possa falar Ah isso aqui é uma borda Ah isso aqui é um eh um canto eh Isso aqui é uma junção e assim por diante então se você faz process eh eh uma um processamento na
imagem ou vários processamentos de imagem porque normalmente você tem que fazer vários processamentos para identificar cada uma dessas partes né você vai ter aí a extração dos atributos locais tá bom eh esses essa extração de atributos locais eh ela normalmente é feita então com eh percebendo né você eh vai lá e fala assim ah bom Como é que o que que é uma borda né uma borda é alguma coisa que tem eh um um certo uma certa intensidade de um um certo valor aqui e os vizinhos são eh ou mais escuros de um lado e
e mais claros do outro né então isso então vamos pegar esse caso aqui também né então você tem uma um certo valor aqui você tem vizinhos mais claros desse lado vizinhos Mais Escuros desse lado então esse a gente diz então que esse ponto tá é um ponto de borda a gente pode pensar em bordas Isso aqui é uma borda eh que a gente chama de Vizinhança quatro né porque a gente a gente só tem quatro vizinhos Mas a gente pode pensar também de eh bordas com vizinhança oito ou vizinhanças com com eh ordem maior tá
e como é que em geral a gente faz eh esse tipo de eh extração de de atributos a gente usa uma coisa que a gente chama de filtragem convolucional que é eh um nome geral né Eh para eh essa multiplicação eh de um vetor por outro vetor e esse vetor é ele pode ser multidimensional tá eh esse esse essa multiplicação desse eh nesse segundo normalmente o primeiro vetor é uma imagem o segundo vetor é um um um uma máscara de pesos né então você tem que pensar nos pesos que você vai usar para para fazer
essa multiplicação aplica essa operação que é uma operação linear e aí você vai ter como resultado eh a a imagem com os os atributos extraídos então só para dar um um exemplo de como funciona isso se esse negócio aqui funcionar acho que eu vou chegar mais perto aqui então por exemplo aqui eu tenho uma eh uma imagem aqui desse que a gente eu tô chamando aqui de imagem original chama de F aqui tem uma outra eh um outro vetor multidimensional que eu vou chamar de máscara né isso aqui é um simplesmente uma máscara que faz
uma m né porque eu vou pegar para cada eu vou colocar essa essa multiplicar cada ponto dessa máscara aqui por cada ponto dessa parte dessa imagem né e o resultado eu vou trazer para essa nova imagem que que a gente vai chamar de imagem convolar o ponto aqui já que o meu TRE parou de funcionar então se eu quando eu faço essa conta né para essa para aquele para aqueles três valores né 6 16 15 8 10 9 8 8 9 né e e multiplico por essa máscara que é 9 cada um o meu resultado
vai ser o eh 9. eh 89 E aí eu posso ir fazendo isso eh para cada ponto né Então essa essa essa ideia de convolução no fundo é is se você fazer essa esse essa translação né dessa dessa máscara Sobre Todo essa imagem e e colocando o resultado na numa outra imagem Então eu posso ir fazendo isso para cada ponto da minha imagem né e e finalmente até eh o o último eh último ponto possível aí da imagem tá e normalmente eh a gente eh aqui a gente tá vendo nessa nessa imagem convolução mais inteiros
né mas em geral a gente transforma isso para valores inteiros na quando você tá fazendo processamento de imagens usual né então isso a gente chama então de filtragem convolucional tá então essa filtragem convolucional ela pode servir para fazer várias coisas então suavização filtragem de ruído real de contrastes deteção de bordas e assim por diante então por exemplo se eu tenho aquela imagem dos bloquinhos e eu aplico uma convolução com essa com esse filtro aqui com essa máscara aqui né então ou seja faço a convolução dessa máscara por esse eh desse dessa imagem por essa máscara
aqui O resultado vai ser essa imagem aqui do centro né que uma vez linearizada ou seja eu eu eu digo assim ah valores acima de um certo valor eu V ser transformados em um valores abaixo de um certo valor vão ser transformados em zero eu fico com aquela eh com aquela imagem ali que a gente vê que são eh bordas eh numa certa direção né eh e eu podia fazer isso para todas as direções para pegar todas as bordas uma vez que eu tenho todas as bordas eu poderia descrever onde tá eh esse esse Como
está esse objeto Inclusive a pose desse objeto para de repente um braço eh mecânico ir lá e pegar esse bloquinho direitinho sem arrebentar o bloco outra coisa que eu posso fazer eh Ou seja eu modifico a máscara agora então penso lá eh faço uma engenharia de de de de eh olhar os os uma análise de dados para olhar a imagem falar assim ah e se eu usar essa máscara aqui por exemplo men1 né Eh em todas essa eh em todos esses essa borda aqui e cinco aqui e passar esse conv voluir por e conv voluir
essa imagem por essa máscara eu vou ter essa imagem aqui e se eu agora linearizar olha só que interessante eu peguei um dos cantos da daquela eh daquela daquele bloquinho tá então com isso eu posso extrair features extrair características da Imagem e fazer coisas interessantes por exemplo isso aqui é já que a gente tá mostrando coisas antigas né isso aqui é um um um um produto que foi feito né na Rand Corporation que tem aqui um sujeito que usa um uma uma certa que grava os movimentos dele para para e fazer o reconhecimento de números
e como é que eles fizeram isso e a pessoa escrevia o número então ela vai lá escreve o número então come nunca vi fazer o cinco desse jeito mas vamos lá cinco né faço o cinco assim e aí ele vai gravando né Essa a a a direção que a pessoa fez então aqui tão as direções que a pessoa fez eh ele detecta os cantos Onde estão os cantos onde estão as terminações onde estão as curvas grava tudo isso calcula certas eh valores a partir dessas características e fala assim Ah os números cinco Então são são
desse tipo né E aí ele pode Só usando esses atributos locais e mais algumas técnicas simples de regra eh como o o professor Thiago e a Professora Nina falaram né a partir daí para cada novo número que alguém fala ele vai lá e diz Ah isso aqui é um número TR isso aqui é um número C e assim por diante baseado somente em regras tá bom bom então você pode imaginar que a gente faz extração de atributos com processamento de imagens e a partir daí cria classificadores e resolve certos problemas é uma coisa era uma
coisa bastante limitada então lá em 2003 a gente conseguia fazer várias coisas mas não tudo é coisas e muito complicadas mas aí aconteceu o Deep learning né que qual que é a ideia bom o que acontece se ao invés de eu analisando a imagem ou seja indo lá na imagem falando ass Ah isso aqui se eu fizer uma máscara assim eu eu extraí um uma borda assim por diante O que acontece se de repente esses núcleos fossem criados por essa maquinaria né E aí que vem eh essa grande revolução do Deep learning né que a
gente deve bastante a esses três pesquisadores né que é o jos Ben Jeffrey hinton e o Ian le O Thiago falou várias vezes em invernos né na nas áreas de pesquisa né uma característica desses três pesquisadores é que nos invernos eles continuaram pesquisando e se mantiveram eh fiéis aquilo que eles acreditavam né eu lembro de do Yan lek depois que que Deep learning Começou a funcionar bem reclamando falando assim poxa olha há uns anos atrás eu eu mandava papers para essas conferências eh importantes de visão computacional e era rejeitado Mas agora ele é convidado como
o o principal eh eh eh professor né da da nessas conferências né então esses essas pessoas eles merecem esse esse mereceram esse premur e não só por toda a contribuição eh que eles deram pra área mas também por terem se mantido eh fiéis aí essa as suas eh as suas crenças né o Yum por exemplo exemplo Isso aqui é uma uma máquina de 2007 ou 2008 não lembro direito eh ele então ele tinha essa rede convolucional ou seja essa essa rede essa essa ideia de rede convolucional é é inclusive antiga eh nós usávamos aqui na
USP coisas parecidas né Eh a a Nina e o professor Júnior barreira eh fizeram eh avanços aí na parte de de aprendizado de de máquina com visão com com com eh imagens né usando ideias desse tipo só que com uma outra abordagem mais matemática e e o o Yan lekum então Eh começou né a fazer essas redes convolucionais né Eh em que eh ele fazia esse redes agora eh redes maiores né ou seja fazia esse esse aprendizado e conseguia que eh a rede aprendesse eh esses pesos sozinhos né os pesos daqueles filtros que a gente
estava comentando agora a pouco ele aprendia sozinho esses filtros né Essa essa rede dele aqui ele foi treinada com um conjunto de dados que é conjunto de dados de eh Car de letras de desculpa de eh dígitos manuscritos que é um conjunto bastante famoso eh e hoje em dia qualquer redinha eh consegue eh ter bons bons resultados sobre ele tá bom mas então n nessa época aqui os papers dele eram rejeitados na na e não por quê Porque tinha outras técnicas de aprendizado computacional de aprendizado de máquina né que que eh batiam né o o
o modelo dele eh deixa só contar um pouquinho eh uma certas características da da imagem que vão ser importantes para vocês entenderem um pouquinho como é que funcionam essas redes Então vou pegar aqui uma imagem eh essa imagem é criada por um por um por um software chamado this Person does not exist Então não é não de ninguém que exista essa essa essa imagem essa imagem então Eh ela foi criada eu tenho aqui uma imagem então de 512 eu vou fazer uma brincadeira agora eu vou fazer o seguinte eu vou começar a a tirar para
cada duas linhas da imagem eu tiro uma para cada duas colunas eu tiro uma Tá bom então o a a imagem agora que vocês vão ver é uma imagem de 256 por 256 prestem bem atenção que eh vocês vão ver pouca diferença entre essas duas imagens né Eh Se eu pedisse Para você reconhecer Se eu dissesse que a a imagem eh da esquerda é da Ana vocês certamente me diriam a a da direita também é a Ana né Eh e eu agora a gente só que agora embora eu tenha deixado essa imagem do mesmo tamanho
essa imagem agora tem 1/4 do tamanho da imagem original vamos fazer isso de novo para cada dois duas linhas eu tiro uma para cada duas colunas eu tiro uma e agora eu tenho uma imagem de 128 por 128 vocês vem que agora a gente já ficou com uma imagem mais pixelada né com mais os a os pixels já parecem com mais bloquinhos e tudo mais mas vocês ainda reconhecem que a imagem da ano né vou fazer isso de novo ficou ainda mais pixelada mas ainda você reconhece eh que isso aqui talvez talvez você já não
saiba mais direito se que é a imagem da Ana mas agora mas você ainda diz ah talvez é uma é uma pessoa né certamente parece uma pessoa né Eh e talvez seja uma uma pessoa do do do gênero feminino né sei lá fazer de novo 32 por 32 né agora certamente você talvez não não teria tanta certeza que é a Ana né mas ainda você reconhece que é uma imagem de um rosto né 16 por 16 agora desapareceu qualquer possibilidade de você dizer que que é de você identificar essa pessoa mas talvez né é que
aqui fica difícil você ver né mas se você visse a imagem e pequenininha você ainda falaria Ah isso aqui acho que é um rosto tá vamos fazer a mesma brincadeira agora para uma outra característica física da imagem que é a quantidade é de valores que eu posso representar em cada ponto da tabela né então com oit bits eu posso representar valores de 0 a 255 tá vou fazer o seguinte vou agora mudar para 7 bits então agora nessa nessa imagem da direita só tem valores entre 0 e 127 Você quase não viu a diferença né
agora só tem valores entre 0 e 63 também a diferença tá eh tá difícil de ver principalmente pela por causa do do da visualização né Eh e Quem tá na internet ainda vai ter o o problema que o YouTube vai tentar fazer uma suavização e tudo mais e vai ser mais difícil ainda agora eu só tenho valores entre 0 e 31 você já começa a ver alguma alguma diferença né entre as duas imagens agora eu só tenho valores entre 0 e 15 agora já ficou mais claro né Agora só tenho valores entre 0 e 7
agora tá bem claro que eu tenho eh eh várias partes chapadas mas de novo se eu olho para essa imagem né Eu continuo continuo conseguindo descrever com a imagem de um rosto de uma pessoa e assim por diante agora eu só tenho valores entre zer e TR e agora eu só tenho valores entre zero e um tá então mesmo fazendo uma um processamento aí de cortar informação Eu ainda continuo tendo eh uma possibilidade de e tirar informações dessa imagem e no fundo várias das estratégias dessas e redes convolucionais foram nessa linha então por exemplo essa
ideia de subsampling né No fundo é isso é você pegar e diminuir e o tamanho da imagem né E você vai por que que isso é bom porque aí sua rede sua rede começa a ficar menorzinho Então você tinha lá eh máscaras de convolução de 28 por 28 agora você tem máscaras de convolução de 14x 14 e depois você tem máscaras de convolução de 10x 10 e assim por diante até você chegar numa fase em que você temha a o que a gente chama de classificação do classificador então aqui eu tenho uma rede que reconhece
placas né de velocidade eh e pode classificar essas placas eh de acordo com a velocidade tá bom bom em 2012 as pessoas falam em 2013 mas na verdade o paper 2012 apareceu um cara que ele trouxe uma grande novidade em cima do que o o eh o Yan lekun tinha feito ele era aluno do Jeffrey hinton e ele fez uma uma rede convolucional que era eh foi treinada por com muito mais imagens né então isso aqui era lembra que eu a rede do em minist tinha 60.000 imagens Agora ela tem 14 milhões essa rede eh
foi treinada com 14 milhões de imagens 20.000 categorias ou seja 20.000 labels ela tinha aqui cinco camadas convolucionais três camadas completamente conectadas e um classificador soft Max e para fazer a parte final E além disso ele trouxe uma novidade que essa função de ativação relu e pra parte de ativação que era aquela função Zinha que transformava né depois do Da Da que a professora Nina também mostrou né você tinha lá a parte em que você fazia a eh dos pesos né com as entradas e depois você tinha que fazer uma uma função de ativação então
ele trouxe essa eh função relu trouxe essa essa ideia de dropout e também de aumentação de dados essa rede aqui tinha 61 milhões de parâmetros 650.000 neurônios ou seja não era uma rede pequena aquele usou GPU ele também traz essa novidade de ter usado o GPU o que que é essa ideia de aumentação de dados aumentação de dados é você pegar uma mesma imagem e fazer certas transformações na imagem e e dá pra rede também como uma entrada então por exemplo se eu pego a imagem e faço flipping que nem Nina falou ou faço rotações
e pego pedaços da Imagem e dou PR dou com uma entrada Eu Tô aumentando por assim dizer o meu conjunto de dados e quanto mais dados eu tenho melhor vai ser o meu classificador tá bom Então essa é a ideia as redes se a gente for examinar depois o que acontece em cada fase delas a gente vai ver que bom ah elas estão extraindo coisas como arestas ah elas estão fazendo junções essas arestas para me dizer que lá existem objetos ah elas estão eh Juntando os objetos então no fundo aquilo que que a Nina comentou
né que a gente antes fazia a extração de features e depois o classificador agora ele tá fazendo tudo isso ou seja ele tá calculando e minimizando o erro de forma que ele vai ter agora pesos em cada uma dessas dessas máscaras de forma que ele vai eh essa eh vai ter um resultado que eu não preciso então da da parte de eh engenharia de features né engenharia de atributos eh e eu tenho um resultado bastante bom né então isso aqui é uma parte de que a gente chama de interpretabilidade tentar achar como é que a
rede funciona essas redes foram começando a ficar cada vez maiores então em 2014 as pessoas começam a brincar e e aqui é uma coisa bem interessante né Eh isso acontece muito em pesquisa eh o Então Alex Kev Ele trouxe essa Eh alexnet aí todo mundo ficou Maravilhado com isso porque eh mostrou que que que ela funcionava muita gente voltou se voltou para fazer esse tipo de de pesquisa as redes começaram a ficar cada vez maiores então por exemplo aqui a gente já tem redes de 138 milhões de parâmetros 143 milhões de parâmetros nessa VG net
de 2014 né você já tem 10 anos então as pessoas começam a a brincar com essas essas arquiteturas ou seja vocês vem vocês notam aqui que aqui a gente já tem tantos neurônios que a gente não pode mais representar os neurônios como bolinhas né aqui a gente já representa as camadas como bloquinhos né e e as pessoas falam Ah o que acontece se a gente começar a fazer saltos juntar eh eh as informações de forma saltada juntar eh resíduos de informações e assim por diante então a as pessoas começam a brincar com essas eh eh
arquiteturas e ter resultados cada vez melhores né isso aqui por exemplo é uma rede que tem mais de 1000 camadas né então esse profundo é profundo mesmo é uma rede realmente muito grande e por exemplo em 2016 Olha que curioso teve uma pessoa que fez aí um um um zoológico de arquiteturas né Ele tentou mostrar que a gente tentou pegar todas as arquiteturas possíveis né E E categorizar essas arquiteturas e mostrar paraas pessoas então a a as pessoas começaram realmente a a a fazer um artigo era é fazer ou fazer uma um uma novidade era
fazer uma arquitetura nova tá bom as coisas vão evoluindo as pessoas vão estão fazer trabalhando com problemas mais cada vez mais complicados então por exemplo uma das novidades aí já em 2016 foi essa rede Iolo né e o only look on que a ideia é você pegar dividir a sua imagem em blocos aplicar eh as as o as as redes para descobrir eh bounding boxes começar a analisar esses Eh esses Bond Box dá certas eh probabilidades para cada para cada pedaço dessa imagem e falar ah os bonding Box importantes são esses aqui tá desculpa essas
redes então Eh ficaram boas o suficiente pra gente agora voltar pro meu problema Inicial né então eh só em aquele aluno tinha feito a minha aquela pergunta em 2003 para mim só em 2016 a gente já começou a poder resolver aquela pergunta então eu eu apliquei essa eh esse Olo V3 nessa imagem aqui da dessa rua né e e olha só o resultado né ele falou assim ó tem uma motocicleta com 81% de chance tem uma pessoa com 79 e e aqui ele fala para cada pessoa qual que é a probabilidade de ser uma pessoa
né então ah tem pessoas aqui que ele tem quase certeza que é uma pessoa tem pessoas aqui que ele não tem tanta certeza por exemplo que ele fala assim uma pessoa que tem 57% né tem dois carros e assim por diante então aqui ele já começa a a descrever melhor aquela imagem ainda não tá perfeito tá a gente vai ver coisas um pouquinho mais impressionantes daqui a pouco essa esse essa redeo hoje em dia tá já na versão sete e todas eh essas versões Ah desculpa não todas mas boa boa parte delas eh são abertas
você consegue ir lá no no site do do eh você consegue eh na internet achar o código para elas e rodar esse código que foi o que eu fiz nesse caso aqui do yolo 5 ele já começa a poder eh fazer processamento de vídeos então ele já começa aqui eh nesse nessa demonstração né Eh que vocês podem olhar nesses links né Eh ele tá ele faz eh ele consegue trabalhar com 140 frames por segundo ou seja é bem melhor que bem mais rápido que que o vídeo normal as redes também as pessoas já começam a
brincar com outros tipos de redes então por exemplo eh esse pesquisador good fellow que tá que é um dos autores de um dos livros que a Nina falou né no no nessa conferência neurips de 2014 ele apresenta essa rede eh generativa ou gerativa eh eh eh adversarial e que a ideia qual que é é você eh ter duas fases né uma de geração de imagens e outra de discriminação né em que você gera uma imagem né você faz um um sistema aqui que ele vai gerar imagens e você e ele vai ficar cada vez melhor
a ponto de gerar imagens que você não reconhe não sabe se são verdadeiras ou não esse discriminador já não consegue mais dizer se essa se essa imagem é verdadeira ou não Tá então por exemplo eh esse nesse site aí que que eu tirei essa imagem você consegue eh pedir para ele gerar imagens e aqui nenhuma dessas pessoas existe Desculpa eu não sei se isso é totalmente verdade no sentido de que eh depois a gente descobre no a gente começa a descobrir coisas como ah talvez essas essas redes tenham sido geradas com certos vieses e etc
mas bom a gente espera que nenhuma dessas eh eh pessoas realmente exista né porque eu inclusive eu não pedi autorização para nenhuma delas para elas estarem aqui tá bom e finalmente agora a gente eh isso é evolução né então a gente tá evoluindo né Tem um um colega nosso o atlas Wank lá da Universidade do eh de Austin no Texas e Universidade do Texas em Austin ele ele fala que essa a nossa área ela tá evoluindo numa velocidade de 3 anos por ano isso é assim uma coisa assim a gente dorme um pouquinho já não
consegue mais acompanhar já não consegue mais saber o que que o que que o que tem de mais novo na área tá esse é o nível de avanço dessa dessa área e aqui então em 2020 né eles lançam o o Vision Transformer que é uma ideia baseada nos Transformers que o professor Thiago falou agora a pouco né que qual que é a ideia do vi transforma é você pegar a imagem quebrar ela em pedaços transformar cada pedaço numa palavra né Eh E você também e de alguma forma que não não venho aqui falar agora a
gente também codifica a posição dela e passa isso por um transforme para ter resultados aí de classificação de segmentação e assim por diante esse vamos dizer assim um dos dos um dos avanços mais importantes recentes Então esse Transform nessa área de visão tá bom a coisa não para então por exemplo em 2013 no final do ano passado né a gente eh aprendeu sobre esse modelo vicer n né Eh em que ele além de você eh poder ter eh as imagens e fazer coisas com imagens você pode juntar isso com textos e também com eh imagens
eh de profundidade ou e também eh imagens de segmentação e E aí você tem resultados também PR que você pode seja fazer começar a fazer perguntas e pro sistema como se fosse um chatbot né então você passa uma imagem para esse voder e perguntar Ah que tipo de de objetos estão presente na imagem ele te diz ah tá presente t o tipo de objeto eu vou dar um exemplo voltando para aquele meu exemplo lá da lá do começo né que é o exemplo da dos ovinhos né então eu eu perguntei para ele Ah você pode
escrever essa imagem e ele fala assim ó essa imagem Ele parece um Closeup de um grupo de ovos brancos os ovos eh aparecem agrupados e o foco está no ovo Central os ovos ao redor estão desfocados dando impressão de profundidade o fundo uniforme como se estivesse numa bandeja a impressão geral é de simplicidade aí eu falei assim bom mas quantos ovos tem nessa imagem a ele falou essa imagem não é claro é o suficiente para contar o número exado de ovos isso é uma coisa interessante do chat CPT isso aqui o chat CPT 4 tá
o chat pt4 Há sei lá dois meses atrás ele era muito mais solícito que agora hoje em dia ele tá ficando meio preguiçoso você faz uma pergunta ele fala assim ah não tô com vontade de responder você agora eh aí bom aí eu falei assim bom quantos ovos inteiros na tem na imagem né então bom já que pelo menos os ovos inteiros será que você consegue Olha que interessante ele fala na imagem eu isso é uma coisa interessante né nem todos eh chat chatbots assumem essa figura essa personificação do eu né esse aqui assume então
nessa imagem eu consigo distinguir no mínimo quatro ovos inteiros que se destacam do fundo pode haver mais mas estão fora de foco ou apenas parcialmente visíveis aí o que eu fiz eu eu peguei aquela imagem e eh passei um filtro da Média nela né então melhorei a imagem e passei para ele Ó fale assim ó essa imagem essa é uma imagem melhor você pode descrever essa imagem fala assim a imagem melhor mostra que mostra eh que mostra um certo número de ovos brancos eles estão agrupados e desse triângulo você pode ver que eh pode ver
mais ovos e seu arranjo sugerindo que eles estão na bandeja as sombras na bandeja o que ajuda a distinguir os ovos individualmente Tá bom então agora eu falo assim quantos ovos H na imagem e aí o o chat GPT Fala nessa imagem eu posso ver seis ovos tá errado né bom eu pass na verdade foi o Artur né que fez isso para mim eu ele eu eu pedi para ele passar essa imagem no V coder e o v coder fala eh Há seis ovos na imagem Mas lembra que o v coder eu posso passar além
do da imagem eu posso passar eh auxílios para ela então profundidade ou segmentação então a gente eh pegou e fez uma segmentação semântica da imagem né então passamos por um outro modelo chamado eh de eh um modelo que faz a segmentação semântica passamos essas duas informações pro V coder ele fala há oito alvos na imagem que é mais próximo do que eh isso do que tem lá mesmo eh o oitavo ovo tava aqui escondido tá então você pode até falar não tem oito ovos não mas ele dá para ter um um Escondidinho ali tá bom
bom eh o o o professor Thiago e a professora já contaram uma parte das razões desse sucesso deixa eu contar para vocês mais um pouco dessa dessas razões uma delas eu acho que é GPU né a gente ter essa possibilidade de Us usar essas placas de eh computação gráfica outra é ter linguagens que facilitam que pessoas que não são especialistas em programação pessoas que eh mesmo não são especialistas na na na área de eh machine learning possam fazer coisas com machine learning tá terceira coisa grande quantidade de dados rotulados que que os dois já falaram
antes uma outra coisa que eu acho importante também é competições Então você tem várias competições públicas em que as pessoas eh eh participam e também software livre tá software livre é uma coisa que eh eh é uma coisa que nasceu aí já há muito tempo né um movimento de a que já nasceu há muito tempo em que fala assim ó você faz um software põe os código fonte disponível paraas outras pessoas olharem aquele código isso trouxe aí muito muito avanço pr pra área tá eh Só passando um pouquinho quer dizer a gente deve muito do
do que a gente tem hoje em dia em machine learning pros pras pessoas que jogavam tá pras criançada que jogavam faziam os seus pais comprarem as placas de de de de jogos para eles jogarem e que que fez com que a Nvidia fizesse placas cada vez melhores para fazer a parte de computação gráfica ou seja gerar os os bonequinhos pros jogos cada vez mais rápido cada vez melhores e assim por diante eh chegou um momento em 2006 2007 que as os cientistas começaram a falar esse negócio dá para usar para fazer computação científica também E
aí bom eh não só eh a o o o pessoal do Yan lekum e tudo mais mas bom a gente aqui na USP começou a aprender a programar essas essas eh essas gpus né para poder fazer algum tipo de computação científica aqui eu conto um pouquinho quanto tempo levou para desenvolver essas placas E também o preço delas quantos transistor essa placa por exemplo é de 2007 tem 800 milhões de transistores 128 processadores essa é uma placa mais recente 2015 e muita gente comprou essa placa só para fazer machine learning Desculpa essa aqui já tem 3000
mais de 3000 processadores Ahã Essa é uma das placas mais recentes a gente tava falando em Milhões né aqui essa aqui tem 54 bilhões de de transistores Ou seja é uma coisa eh fenomenal e aqui na na na propaganda da NVidia Ele já fala assim ó se eu treinar o Bert que é uma das eh de um dos modelos de linguagem nessa placa eu tenho aí um ganho eh bem maior em relação às placas anteriores da NVidia e assim por diante quem acreditou na NVIDIA lá atrás e comprou ações da Nídia e tá se aposentando
agora tá com sorriso daqui aqui é uma das ações que mais cresceu já bateu toda o valor de todas as ações que você conhece aí o Python né como eu falei né Python é muito fácil de usar tem até essa brincadeira aqui né Ah você tá voando ah Python eu aprendi na na noite anterior eh na eh eh tudo é s tão simples ó um print é um hello world é só um print hello world na verdade isso aqui já tá errado porque o o Python 3 agora você tem que colocar um um uns parênteses
ó não sei direito me parece muito complicado né não vem aqui v junte-se a nós né mas você tá voando como é que você tá voando Ah eu sou escrevi vi Import antigravity se você tiver acesso a um Python pode escrever Import antigravity que tem o o antigravity o pacote antigravity lá no fundo o que ele tá querendo dizer que o Python por ser software livre por as pessoas investirem tá cheio de pacotes interessantes lá o que você pensar provavelmente alguém já desenvolveu um pacote de software livre para você usar tá então isso trouxe então
uma uma uma aproximação muito grande de pessoas que às vezes não tinham não teriam capacidade por exemplo de fazer um programa de otimização né como a Nina falou né se se eu quero diminuir fazer um processo em que eu tenho que eh ter um um menor erro eu tenho que ter processo de otimização programas que fazem otimização são complicados não são fáceis mas isso trouxe a possibilidade então de você fazer por exemplo aqui eu trago a uma uma rede neural né uma rede neural simples né com poucas camadas Mas você vê descrever essa rede neural
Ô Roberto obrigado escrever essa rede neural é uma coisa muito simples né é escrever como se você tivesse ó eu quero uma camada aqui convolucional eu quero uma camada de Max pulling depois eu quero outra camada convolucional e assim por diante é negócio bem simples as competições como eu tinha falado né então várias conferências eh trouxeram competições ou seja elas falam assim ó venha participar da conferência E e traga o seu novo algoritmo participe dessa competições nessas competições e esse site kegle por exemplo esse aqui do último né esse kegle que eh ele tem essa
eh essa possibilidade das empresas colocarem lá desafios paraas pessoas eh eh eh eh resolverem com com aprendizado de máquina e nesse kg as pessoas as as empresas podem colocar dinheiro então falo assim ó resolve o problema aqui de eh limpeza de dados né E quem ganhar quem o que tiver melhor resultado vai ganhar $1.000 muita gente eh eh que quer emprego nas grandes empresas vai lá e e para ter bons resultados para e e as empresas ficam olhando né Ó esse cara tá tá tá se sobressaindo aqui nessa nessa competição deixe lá vê se o
cara é bom mesmo traz convida o cara para fazer uma entrevista e assim por diante o kegal tá tá perdendo um pouco de de força eh ultimamente mas bom eh certamente foi um grande eh uma grande ajuda pro avanço das nossas da nossa área eh eu eh acho que Fi mais rápido do que eu eh imaginava eh eu não não coloquei aqui nenhum slide do que vai ser o futuro eh porque eu também não sei o que vai ser o futuro eh eu acho que eh os desafios estão aí né Eh de novo a a
gente tem muita coisa né tava conversando agora antes de começar com com o Rui o Rui tava trazendo um problema que ele tá interessado e e bom cada um de vocês Talvez tenham problemas que vocês gostariam de resolver com visão computacional que talvez ainda ninguém resolveu eh alguns de vocês talvez até tenham ideias bastante inovadoras para montar uma empresa eu acho que quer dizer cada vez mais a gente tá e a gente tem disponível as tecnologias para resolver esses desafios Então eu acho que eh ao contrário Então de ter medo do que do que vem
pra frente eu acho que a gente deveria ter na verdade é um grande entusiasmo do que vem pra frente porque vai vem coisas muito legais pela frente Muito obrigado muito bom obrigado obrigado Roberto irata agora a gente passa paraa última sessão com o outro Roberto Roberto Mares segundinho só gente só vamos trocar a apresentação aqui muito bem eh bom Boa tarde a todos a gente entra agora na nossa última eh 10 15 minutos né para apresentação Ah para esse fechamento talvez como a gente tá um pouquinho adiantado a gente pode até aproveitar para conversar um
pouco eh sobre as outras questões ou algumas que tenham surgido daqui Ah eu vou falar de duas são dois momentos Ah que eu vou eh apresentar agora no final talvez até a última a gente vem em conjunto Fecha os quatro lá acho que vai ser mais divertido desse jeito em primeiro ah nessa primeira fase a gente começou com a naquela apresentação no começo do do da tarde aquele experimento né então a gente coletou Relembrando né a gente coletou aí ah 35 5 pessoas mandaram 1300 dúvidas ou perguntas ou comentários a gente organizou esses dados passou
concluiu que algumas questões pareciam ser relevantes pras 34.000 pessoas e discutiu essas então é uma ferramenta didática interessante se você imaginar que você quer educar as pessoas que você quer interagir com as pessoas a tecnologia permite a gente fazer isso que ia ser mais difícil fazer outra hora tá certo num outro momento ia ser mais difícil fazer isso ah deixa eu contar uma coisa para você vocês que acho que não dá para ver aqui mas o pessoal Deixa eu ver se eu consigo fazer daqui aliás eu acho que eu não consigo fazer daqui dado que
a gente tem tempo deixa eu deixa eu ser mais ousado aqui deixa eu ver se funciona desse jeito ou não ah que ainda tá passando o Roberto não acabou né ups como vocês podem ver eu gosto do Led zapplin Ah tá aqui então acho que funcionou eh o que que acontece a essa questão de demo né de ver a tecnologia funcionando e tudo mais então vocês devem estar me vendo ali na tela e tem um delay mas o que vai acontecer é o seguinte se tudo der certo ah e eu venho para cá a tela
vai começar a me acompanhar aqui então quem tá online tá me vendo que tem nessa tela aqui do YouTube Ahã deve acontecer daqui a pouco Eu imagino do eu não sei se eu tô forçando muito o sistema do Murilo e do Bruno vamos ver mas deve acontecer do dessa câmera continuar a me acompanhar ah antigamente Quem fazia isso daí eram eles eles ficavam com Ah tá acontecendo vamos ver se ela vai me acompanhar Ah foi sim eh antigamente era o Murilo e o Bruno que ficavam lá com joystick ou alguma coisa assim acompanhando a a
pessoa de vez em quando dava errado ele se Distraí um contava piada pro outro derrubava café sei lá o que que não funcionava direito isso daí funcionava um pouco não funcionava direito agora quem tá fazendo isso é visão computacional Então tem um algoritmo no sistema deles que tá controlando uma câmera com com um motorzinho lá que fica me acompanhando onde eu tô E aí essa câmera Vai chaveando automaticamente então para quem V quer ver visão computacional funcionando ã existe um algoritmo nesse momento acompanhando e fazendo essa transmissão então um exemplo da tecnologia funcionando disso tudo
dessa abordagem que o o Roberto Eh tava explicando aí a funcionando ao vivo para vocês aí como diz tem duas maneiras que eu costumo brincar com os meus alunos né ah tem a versão do Mit e tem a versão e do Faustão no MIT tem um dito que eles um ditado que eles dizem que é ah demo or Die quer dizer ou demonstra ou mor demonstra sua tecnologia ou morra demai a versão brasileira é quem sabe faz ao vivo então você vê a tecnologia funcionando quem sabe faz ao vivo o troo funcionando né então Eh
essa era a primeira coisa que eu queria contar para vocês e deixa eu contar de uma aplicação que envolve algumas coisas eh importantes ah na na Perspectiva no no contexto que a gente tá dizendo Hoje o Roberto irata mostrou agora a pouco uma lista ali de datasets a dessas competições do kegle e não sei se vocês viram uma do Meio eh chama Galaxis Zoo eh O que que o Galaxis Zoo é ele é um dos exemplos mais bem sucedidos de algo que em ciência nós chamamos de citzen Science que é Ciência cidadã eu não sei
se alguém já ouviu falar aqui dessa expressão Alguém já ouviu falar dessa expressão levanta a mão para mim só para entender tá então tem aí 10 15% que já ouviram falar a ideia de ciência cidadã de cit and Science é a a a ideia de você construir iniciativas de você construir atividades para ter engajamento público engajamento da sociedade eh em atividades de pesquisa a ideia e o o o Paulo costuma dizer bastante isso para instigar parte de vocês aqui são alunos de iniciação científica que estavam no primeiro dia deixa eu lembrar que a gente tá
no simpósio de iniciação científica aqui e se tem uma coisa que é diferente do ponto de vista da e que quando é concatenada com educação é importante que a gente aprende mesmo quando a gente sabe questionar quando a gente sabe perguntar então o a questão o questionamento que é a ferramenta básica do cientista a ciência Só existe porque o ser humano em algum momento deixou de ser eh acomodado no sentido de só aceitar mas ele passou a questionar as coisas inclusive questionar outras teorias questionar outros cientistas questionar autoridades questionar Deuses questionar O que você já
Lou o que tá acontecendo essa capacidade é fundamental então a a a ideia de iniciativa de ciência cidadã é como você consegue engajar a sociedade para que a sociedade compreenda como nós fazemos ciência nós a própria sociedade o próprio ser humano eh é uma maneira de você Educando para que a sociedade aprenda as ferramentas e que pra sociedade tome boas decisões com base em em questionamentos questione as coisas que as pessoas estão apresentando e tudo mais na esperança da gente encontrar uma um caminho melhor bom então esse é o Esse é o o papel de
fundo de ciência cidadã o Galaxy zul que foi apresentado ali é uma das Ferramentas mais importantes que tem em que as pessoas podem ajudar a fazer pesquisa científica então a gente vive criando mecanismos em que a gente tenta envolver a sociedade para que ela participe do fazer científico e eu vou contar uma pesquis que a gente tá envolvido Então nesse projeto aí que o thago o Roberto e Nina já mencionaram é um projeto que fica sediado tem São Carlos o laboratório lá e tem um laboratório nosso que fica aqui no inova USP vocês entraram por
aqui vocês devem ter visto o prédio logo do outro lado aqui é o inova USP é um projeto ã aí financiado pelo pelo mcti pelo Ministério de ciência e tecnologia pela softex e pela Motorola com suporte da Motorola para isso daí a a nossa ideia desse projeto é é usar um uma das Linhas é usar a dispositivos móveis para poder cuidar de um problema para tentar ajudar a desenvolver a melhores situações de um problema que é um problema que nos afeta a todos que é a questão da qualidade das Calçadas Ah não preciso ah lembrar
vocês que existe uma série de razões que tornam esse problema cada vez mais relevante Então se a gente quer um mundo sustentável um dia do ponto de vista sei lá eh de Meio Ambiente se tiver mais pessoas usando calçadas do que carros Esse é um caminho que muitos lugares estão tomando por aí tá certo pra saúde das pessoas pra saúde pública Se as pessoas caminharem mais e ficarem menos paradas e menos eh nos seus carros ou seja lá o que for também é bom também é um caminho que que que a gente espera que a
civilização eh comece a tomar ah existem fatos como a questão do envelhecimento das nossas populações então o Brasil por exemplo já tá chegando no momento que eu quando era criança eu via que sei lá população mais velha são os europeus e os Japoneses o Brasil é um país jovem não é mais assim gente é um país que já tá se tornando um país idoso e isso aí tem uma série de desafios que T que ser enfrentados justamente para minimizar riscos de queda riscos de se machucar e assim por diante bom então eu mostrei aí Alguns
desses exemplos que a gente tem e de situações só para mostrar a relevância dessa pesquisa e a nossa ideia é o desenvolvimento então de tecnologia que ajude a detectar problemas a entender melhor a situação das Calçadas para eventualmente tomar decisões para melhorar para enfrentar isso daí Então essa é a linha de pesquisa que a gente tem ah essa é uma pesquisa que a a gente faz em conjunto aí com o que o principal é o Rafael é o pdoc que tá tá por aí Rafael tá em algum lugar aí não levanta a mão que eu
não tô vendo se não tiver aqui bom eh não sei se ele tá aqui ou vocêe Tá no laboratório porque ele tava trabalhando ele tava montando apresentação Talvez ele esteja chegando e aí tem o Fábio a Mária e eu a que trabalhamos nisso daí a ideia desse projeto é o seguinte nós queremos capturar dados sobre as calçadas imagine acho que muitos de vocês já fizeram isso a seguinte situação você tá num lugar você quer ir num outro lugar então sei lá você tá aqui quer ir na na Paulista por exemplo na Consolação você abre o
seu waz ou você abre o seu o Google Maps e pede para traçar a rota essa rota ela usa essa tarefa que eu falei usa algoritmos de Inteligência Artificial de cabo a rabo do começo ao fim tem 1000 algoritmos integrados para resolver isso e grande parte dos dados que são ah usados para alimentar esses algoritmos eles têm a uma origem que é o que a gente chama de centrada no carro todo mundo já ouviu falar do carro da Google algumas pessoas já viram o carro da Google né esse carro que and anda na rua que
tem os canais que cria o Google Street View essas coisas todas Qual que é a a situação aqui aqui a gente tem os algoritmos que se eu perguntar para um desses aplicativos como eu saio daqui e vou para algum lugar ou a minha mãe que mora em Pinda monhangaba talvez tem algumas pessoas do Vale do Paraíba por aqui algumas me assistindo se a minha mãe perguntar para como ela faz para ir de a a b provavelmente esses algoritmos eles vão tomar uma decisão que é o que a gente chama de car centric é centrada em
carro porque foi um carro que faz aquele caminho então não é uma decisão que leva em consideração por exemplo a qualidade da calçada o horário se é um horário que tem sol que se bate mais sol naquele lugar ou se bate menos sol se é um lugar agradável por exemplo tem muitos caminhos e nós que gostamos de caminhar sabemos disso a gente toma decisões às vezes de caminhar porque você vai num caminho que você gosta que é agradável que tem árvore que tem eh coisa verde que tem e para não falar de coisas brasileiras do
tipo segurança e assim por diante Então a nossa ideia é justamente construir datasets construir conjuntos em que eventualmente essas decisões não sejam centradas no carro sejam centradas nas pessoas que vão caminhar e assim por diante Então esse é o tipo de motivação vocês viram um demo aqui ah de parte do do do algoritmo acontecendo do do desse projeto o que vocês estão vendo nesse demo então a câmera eu esqueci de pegar mas eu podia mostrar mas vocês estão vendo o Rafael andando a gente monta um colete que tem uma câmera que que é um celular
tem um aplicativo que foi desenvolvido E aí aquele colete captura esses dados que vocês estão vendo aqui era uma pessoa andando de cadeira de rodas numa calçada vocês viram eh chacoalhando e tudo aqui caminhando e assim por diante então é o tipo de de tecnologia que a gente faz e que envolve algoritmos de inteligência artificial para todos os lados como quem sabe faz ao vivo a gente também a segunda parte que eu queria mostrar terceira demo que eu queria mostrar para vocês a gente convidou algumas pessoas dentre vocês para coletar dados aqui e para mostrar
o resultado para vocês então a gente convidou a mácia que eu tô vendo ali a gente convidou o get que eu não tô vendo não sei se tá aqui tinha a Gabriela talvez eles tenham ido então Obrigado pros Três então a gente convidou os três e o que vocês vão ver aqui é justamente o resultado Ah disso daí a gente tava agora no almoço Enquanto vocês estavam se alimentando a gente foi ali na frente Vocês estão vendo ali a Márcia a Gabriela e o então que foram aqui na frente Eles colocaram esses eh dispositivos né
então o colete que vocês estão vendo as câmeras e saíram caminhando aqui em volta coletando dados eh para demonstrar o tipo de coisa que a gente eh consegue fazer então esses datasets estão sendo construídos são conjuntos de dados que envolvem vídeo áudio a gente consegue adquirir dados eh o Thiago comentou de manhã que a gente chama de multimodalidades então tem sensores eh giroscópio acelerômetro GPS todas essas a esses eh diferentes linhas diferentes tipos de fontes de dados e ali vocês estão vendo os acelerômetros andando eh o giroscópio funcionando enquanto as pessoas caminham Esse é o
tipo de vídeo que a gente captura então vocês estão vendo que é um vídeo ele Ah num certo sentido ele captura melhor a a o ponto de vista do ser humano caminhando né então o ponto de vista de quem tá olhando para baixo tá vendo a as coisas acontecendo na na na calçada Ah o próprio movimento do corpo e assim por diante então é um exemplo de coisas que integram grande parte do que a gente viu hoje ao longo do dia então construção do dataset dataset voltado para um problema específico no nosso ah caso um
nicho que é relevante pra sociedade e que além de tudo envolve a possibilidade da gente eh tratar a o engajamento das sociedade porque a nossa ideia é ter justamente um aplicativo que esse troço fica aí online as pessoas podem capturar dados para por exemplo montar casos em relação à sua comunidade local se você tiver que convencer por exemplo o poder público que tá precisando fazer um tratamento aqui ali e assim por diante Tá bom então a gente combinou de mostrar isso daqui como sendo um exemplo ah de de de iniciativa aqui da USP que envolve
tudo que a gente contou e a gente espera alguns de vocês se engajando Márcia Gabriela guerro obrigado pela pela ajuda a Márcia eu tô vendo aqui vou pedir uma salva de palmas pra Márcia que ajudou a [Aplausos] gente obrigado már obrigado tá bom Agora a gente vai então paraa conclusão eh eu acho que eu vou convidar todo mundo pra gente fazer um apanhado aqui de grande parte das lições eu queria da minha parte adiantar adiantar algo que acho que todo mundo mencionou aqui o Thiago mencionou a Nina mencionou o o Hirata mencionou é um longo
caminho ao topo quem é quem é que gosta de rock aqui levanta a mão para mim e todo mundo sabe do a long way to the top Tá certo do do ACDC Ah então o caminho é longo a gente tá aqui hoje a inteligência artificial não foi inventada anteontem não foi inventada pela Microsoft não foi inventada pela Google todas essas essas entidades todas essas instituições estão colaborando fundamentalmente hoje para essas coisas funcionarem assim como várias outras empresas várias outras universidades o caminho é longo se a gente retomar Ah e aqui eu fiz questão de mostrar
foi uma ideia do Paulo inclusive ah mostrar para vocês alguns dos primeiros passos alguns dos Passos importantes nesse caminho que nos permite viver hoje então eu vou dar um passo antes inclusive 1840 portanto quase H 200 anos quando quem a gente atribui a primeira programa adora da história que é a a ADA lovelace né que projetou os primeiros algoritmos os primeiros procedimentos para differential Engine do do babaj então a gente tá falando de alguém que tava pensando lá em 1840 Como programar as coisas antes da criação da USP antes da criação eh do da da
própria muitas coisas que estavam acontecendo dos primeiros computadores tinha o gedel propondo diferentes questões Matemáticas sobre algoritmos sobre decidibilidade sobre testes de parada e assim por diante inspirando pessoas como o touring que vocês estão vendo num paper de 36 que estava justamente discutindo eh e introduzindo o conceito de máquina de touring discutindo os problemas que foram levantados pelo gedo em 31 e a a USP sendo criada nesse meio e tudo mais com essas complicações todas essas equações que as pessoas acabam se assustando deixa eu dizer que a gente tá super feliz aqui que e nas
aulas que eu dou às vezes dependendo quando você começa a apresentar equação a quantidade de aluno que dorme por exemplo que vai embora mais cedo tudo mais não é desprezível Tá certo e vocês se mantiveram aqui o dia inteiro aparecendo regressão linear da Nina aparece essas coisas todas mas o fato é a construção dessa tecnologia é isso então é uma coisa importante que todo mundo entenda a construção desse tipo de de de tecnologia funcionando dessas coisas que beneficiam todos nós nós é algo baseado em conhecimento sólido construído ao longo de séculos com muito investimento de
tempo de dinheiro de suor de alegria de lágrimas e aí vai chegando aonde a gente tá então acho que esse caminho é uma coisa importante eh para entender porque pessoas como nós aqui somos apaixonados pelo que a gente faz porque é importante a gente defender a construção disso porque daí a tecnologia vai aparecendo e a gente espera ainda tem um um longo caminho talvez a gente tá no meio do caminho pro topo ainda tem um caminho longo ainda aí e pela frente acho que a minha parte era isso que eu queria falar talvez vamos vir
aqui na frente e falar de alguns aspectos finais a gente tem tem mais um tempinho aqui ainda tá bom E então acho eu falei acho que já falei bastante que eu queria eu vou puxar a conversa Ah um aspecto que eu acho importante talvez cada um pode falar de um aspecto importante pronto é um bom exercício o aspecto que eu vou chamar importante é que eu falei muito do esforço de muita gente durante muito tempo acabei de mostrar uma história de 200 anos para vocês Desde da da lovelace em 1840 e um outro aspecto importante
que foi tocado aqui o thgo falou bastante é a questão de muitas disciplinas envolvidas então a gente tá falando de cientistas da Computação a gente tá falando de física de matemáticos de Engenheiros de linguistas de filósofos quer dizer o que não falta é toda parte de neurocientistas biólogos tudo mais então é um conhecimento razoável eh nessa sei lá iniciativa humana de compreensão do que é inteligência e ah de construção de sei lá ah máquinas inteligentes alguma coisa acho que esse é um aspecto que eh me interessa bastante como eu falei aqui a isso aqui é
o simpósio de ministração científica da USP que tem alunos de todas as áreas e que hoje estão tomando decisões muitos de vocês que estão aqui estão começando suas carreiras Na graduação e tudo mais espero que a gente tenha convencido que o que não falta é oportunidade tá cheio de problema para todas as áreas ou para ajudar a construir ou para poder explorar a inteligência artificial que vai seguramente impactar a sua área acho que esse é um aspecto que eu gostaria de chamar atenção é eu só quero complementar Nesse sentido porque se a gente pega a
história da inteligência artificial tem esses grandes nomes a gente citou alguns hoje vejam são diárias variadas né evidenciando aí o que o Roberto acabou de falar o nosso amigo chomes que veio lá da linguística emprestou as coisas para computação Eh esses modelos distribucion da década de 50 que hoje a gente usa com as redes neurais para criar os grandes modelos de língua eh e há muita coisa por fazer vou dar um exemplo muito claro para vocês já citei um o tradutor aor automático por exemplo que ele muda o gênero das profissões porque ele não tá
acostumado a ver os dados igualmente distribuídos né mas todo mundo aqui que já tentou usar um modelo de língua para fazer matemática deve ter encontrado problemas neles eles são treinados de jeitos que não são ideais para você aprender matemática aí a gente pensa assim poxa mas por que treinar um modelo de língua para matemática se a gente tem calculadora se a gente tem sistemas especializados bom esses modelos de língua como eu contei para vocês Eles são um primeiro passo aí acreditamos que eles sej um primeiro passo para I geral para ia forte eh de que
resolve qualquer coisa e eles falham na matemática básica tem várias vários relatos vários estudos mostrando isso olha que possibilidade de estudo e investimento interessante como é que a gente deixa esses caras melhores em matemática não só em matemática mas em outras áreas também talvez a gente precise de matemáticos trabalhando com a gente nos ensinando esse a ensinar esses modelos a serem melhores né então tem muita possibilidade para muitas áreas aqui nos intervalos eu conversei com gente de todo tipo com advogado com tradutor todo mundo me contando casos de como eles usam a tecnologia n então
é muito legal gente a eu tenho um conhecido que fala uma coisa que é muito verdade a gente a gente tá muito acostumado a dividir o mundo entre zatas humanas biológicas então é muito comum por exemplo a pessoa desde cedo falar assim ah eu vou para exatas porque eu não gosto de redação já Ouviram isso passei num curso de computação porque eu não gosto de português ou eu vou para humanas porque eu não gosto de matemática lê do engano né A vida não é assim segmentada desse jeito matemática Portuguesa e todos os Ramos se misturam
em todo aspecto da nossa vida a gente só vai descobrir isso depois que já passou no vestibular que tá fazendo os cursos e e A Iá eu acho que é uma prova disso vocês vejam quantas pessoas de quantas áreas de diferentes trabalhando juntas para fazer isso tudo nascer tá Ah então acho que é bem importante acho que a gente precisa ter esse olhar mais aberto aí pras várias áreas só lembrar da história né quando a gente olha pra história da i e seus ramos a gente vê como pessoas de Formação muito diferente trabalharam ali isso
pode assustar um pouco quando a gente dá aula de PLN os meus alunos de computação Falam assim professor do céu vou ter que lembrar de gramática não sei mais nada os alunos de linguística fala assim meu Deus algoritmo probabilidade pelo amor de Deus a gente consegue todos eles fazem disciplin saem bem aprendem um monte eu aprendi um monte a minha formação em computação tinha muita dificuldade com linguística com estatística com Se eu conseguir vocês também conseguem as pessoas que estão vindo conseguem é isso que o Roberto falou é só a gente dar uma chance aí
pro pro conhecimento acho que isso é muito importante Essa é beleza do mundo né as coisas acontecendo juntas felizmente o mundo não é segmentado do jeito que a gente pensa quando a gente vai prestar vestibular as coisas todas acontecem juntas bom o que eu gostaria de comentar eh acho que é Deu para perceber que conhecimento é um negócio que a gente Vai acumulando e realmente não tem segmentação as coisas vão se interagindo e quanto mais interage mais a gente amplia o conhecimento mais eh possibilidade a gente tem e nesse sentido acho que as pessoas realmente
T que fazer um esforço para tentar entender um pouco as outras áreas sair um pouco da área de de conforto né e tentar entender e eu tô dizendo isso um pouco também porque eu acho que historicamente houve uma a a universidade por exemplo tinha a a ideia de ser um celeiro de conhecimento muitas vezes o pesquisador entendia de várias áreas e em algum momento a coisa começou a se especializar ou seja as pessoas se formavam fazia só matemática só física só isso só aquilo e agora a gente eu vejo que a gente tá voltando a
uma situação em que as coisas começam a se interconectar novamente então e eu acho que essa parte de a de computação matemática estatística eh demonstra muito muito isso porque no fundo para resolver problemas em diferentes áreas a gente precisa de tecnologias ferramentas ou conhecimentos dessas áreas língua também porque envolve comunicação então tem eu tenho que saber português eu tenho que falar em outras línguas saber me comunicar eu preciso saber matemática para entender certas modelagens necessárias para resolver problemas e nesse sentido acho que importante a gente meio que não tentar criar preconceitos no sentido de falar
matemática é difícil isso é difícil tudo é difícil se você quiser realmente se tornar especialista mas não é impossível assim a gente consegue aprender um pouco de tudo e isso é importante pra gente poder conversar porque uma coisa que eu vejo muitas vezes tentando trabalhar com pessoas de Outra área existe uma certa barreira de comunicação por você só estudou aquilo a vida inteira eu sei lá nunca estudei astronomia eu tento trabalhar com pessoal de astronomia tem muita coisa que eu não entendo mas sei lá a gente precisa fazer um esforço aí para tentar saber conversar
então Eh eu eu vejo também que se você vai estudar ia ou você vai usar ia é importante também pelo menos tentar entender o que que o especialista de quer dizer quando fala uma coisa que se você é um especialista de a tentar entender o que que o outro lado tá querendo fazer então existe aí uma acho que uma necessidade de esforço de todos os lados de conversar melhor se comunicar melhor e isso a gente consegue Eh sei lá abrindo a cabeça vamos parar ou meio que ficar com a mente mais aberta e tentar entender
outro lado acho que isso é uma coisa muito importante na na sociedade moderna a gente precisa eh fazer esse exercício e e também acho que no no nosso país em particular eu acho que a gente precisa pensar em como fazer para melhorar a educação a formação dos nossos jovens de forma geral Então como a gente tá num ambiente acadêmico aqui Acho que todos vocês são pessoas interessadas em aprender coisas acho que é esse é o tipo de preocupação que todo mundo deveria carregar e tentar de alguma forma plantar na sociedade que só assim a gente
vai conseguir melhorar a a sociedade como um todo eu desviei um pouco do assunto mas acho que é uma coisa importante eu resolv usar esse espaço para falar sobre isso quero falar de mais um assunto que a gente falou rapidamente e que eu acho que é importante a gente não pode deixar de fora que é essa questão que tá aqui no slide de ética e explicabilidade inteligência artificial explicabilidade a gente já falou um pouco né que é você conseguir explicar o comportamento de sistemas como é que se chegou em determinados resultados a gente acreditava que
as redes neurais não eram explicáveis É verdade elas não são explicáveis como a gente gostaria mas hoje estão surgindo que a gente consegue tentar inferir o que elas estão fazendo então alguns de vocês já devem ter ouvido falar do método lime do Chap essas coisas estão aparecendo e a gente tá conseguindo lidar um pouco melhor Falta muito ainda pra gente conseguir explicar as decisões todas da ia mas eu acho que a gente tem dado alguns passos nessa direção agora a questão ética é uma coisa que não depende só da gente vão nos chamar de tecnólogos
depende da sociedade também vou citar alguns exemplos mostrei para vocês um sistema que detecta fake News ele tem uma acurácia alta 90 e poucos por de acurácia Será que o erro dele é sério se um sistema que detecta fake News deixa uma fake News passar ele diz que é verdadeiro Qual é o custo disso se ele faz o contrário se ele pega uma notícia verdadeira sei lá que um de vocês produziu com muito empenho que investigou dados que um Jornalista foi atrás e ele disz que é falso que aquilo é fake Qual é o custo
disso fake News é uma coisa que muita gente se nega acredita nisso fake News pode matar tá se uma pessoa deixou de tomar uma vacina porque ela acreditou numa fake News ela pode morrer por causa disso há casos de pessoas que morreram Porque deixaram de tomar uma vacina por causa da fake News A covid tá aí para nos mostrar isso tá vamos além Vamos pensar no carro autônomo eu já citei esse exemplo né se o carro autônomo atropela alguém De quem é a culpa é do motorista que tava do lado e num assumi o controle
é do programador pobre programador é do estagiário a chama culpa né culpa é do estagiário é da montadora é da pessoa que fez o radar que o carro usa percebem que difícil que são essas questões e vejam não são questões puramente tecnológicas passam pela legislação passam pela educação nessa semana Ah uma grande empresa de disse que tem um modelo de língua que consegue reproduzir a voz de qualquer pessoa e que ela está pré disponibilizar mas ela segurou um pouco porque ela ainda quer medir os impactos que ess tecnologia Pode ter na sociedade Alguém tem dúvida
de que isso vai ser usado de maneira errada eu não tenho dúvida nenhuma a Open quando lanou o chat GPT muita gente usou pro bem muita gente usou pro mal houve uma an de críticas ao chat GPT muita gente acha que a Microsoft e a Open eram as primeiras a ter sistemas desse tipo não é verdade já contei para vocês a tecnologia dele vem na década de 50 Google e companhia já trabalhavam com modelo de língua havia muitos anos que eles não tinham liberado com medo do impacto que isso poderia ter a Open lançou pro
bem e pro mal né mudou a nossa vida aí a produtividade de muita gente trouxe muitas questões eu já falei isso concretizou dilemas éticos que a gente tinha que até então a gente discutia na teoria e de repente existe um sistema que pode causar muito mal se for mal usado e agora existe essa proposta de trazer um sistema que reproduza fala de qualquer pessoa com alguns segundos de amostra E aí o que que a sociedade pensa disso O que que a legislação pensa disso vejam que perguntas difíceis eu não tenho as respostas também não eu
só acho que são questões que estão além da tecnologia que envolvem os nossos costumes as nossas culturas que a gente precisa pensar um pouco tá eh onde é que isso vai parar não faço ideia lanço esse desafio PR os meus colegas aqui o que que a gente faz numa hora dessa eu achei bom que essa empresa ainda não lançou essa ferramenta que simula voz de qualquer um porque ainda com acesso limitado e e restritos e a gente tem visto gente usando isso de parafins inapropriados né Principalmente para essas Deep fakes todas que estão surgindo no
mercado pronto queria mudar de assunto e falar isso que eu acho que é bem importante eh as humanidades digitais vão ter que nos ajudar o direito vai ter que nos ajudar a ciência política vai ter que nos ajudar Ciências Sociais vão ter que nos ajudar a resolver essas questões v p minha voz aqui eh acho que de novo fiquei bem contente aí com com tudo que aconteceu hoje se tem alguma coisa que eu gostaria eh de deixar para vocês é que acho que a gente nunca teve tantas oportunidades de de aprender eh quer dizer os
o aquilo que eu falei né software livre eh livros eh online que a que a Nina mostrou e tudo mais acho que a gente tem tá no momento eh muito bacana né da sociedade eh eu vou ficar muito M contente se daqui um ou dois anos eu encontrar um de vocês vocês falaram Poxa comecei a a introduzir e aprendizado de máquina uso do chat GPT na minha profissão e e tô eh eu fazendo coisas legais aqui então isso que se se tem alguma coisa que eu queria eh deixar aqui para vocês é não fiquem só
eh ouvindo alguma coisa tentem fazer também tá bom obrigado Vamos pro encerramento então Agradeço aos meus colegas por estarem aqui foi muito bom est aqui com vocês quero deixar alguns lembretes finais para vocês tá op computador errado bom Ah esse é um curso que precisa de presença então por isso que a gente tava lá marcando presença de vocês de manhã de tarde e e tem uma prova precisa de uma avaliação Para quem quer o certificado emitido pela USP tá o link pra prova vai est disponível a partir de segunda-feira na página do curso então peço
aí para vocês tirarem uma foto vocês receberam esse link por e-mail também segunda-feira cedo vocês podem entrar lá vocês vão ter uma semana para fazer essa prova uma prova de multiple escolha para ter o certificado da USP precisa tirar pelo menos sete nessa prova é uma única t façam com carinho essa prova tá então quem não tirou a foto tirem aí no e-mail que vocês receberam esse site tá lá tem uma sessãozinha de avaliação Então faça com bastante atenção se não quiser o certificado não precisa fazer a prova tá mas se quiser precisa precisa ir
bem então vamos lá esses slides estão na página do curso vocês também conseguem recuperar esse link de lá tá semana que vem de 8 a 12 de Abril todo dia às 14 horas temos bate-papos de Inteligência Artificial que estamos promovendo Então hoje a gente foi um desafio grande né como falar de tantos assuntos uma plateia tão Ampla a gente escolheu algumas coisas para falar para vocês mas vocês viram que aá tem muita coisa então na semana que vem como eu já contei a gente convidou grandes especialistas de da USP colegas de empresas então todo dia
14 horas estaremos online numa sala virtual do Google Meet Ah só cabem 300 pessoas na sala então os primeiros 300 que chegarem vão conseguir entrar os outros tem que esperar a gravação a gente vai gravar em seguida vai colocar na página do curso para vocês assistirem tá A ideia é que seja um bate-papo que vocês possam perguntar possam opinar fazer uma coisa leve divertida em que a gente mostre coisas diferentes para vocês tem uns assuntos muito interessantes não vou dar spoiler aqui vale a pena tá então lemb aend dis basta clicar nesse link do Google
Meet aí e que vocês conseguem entrar lá tá E acho que vou parar por aqui meus colegas Tem mais algum recado para dar para eles pessoal foi muito bom muito obrigado pela presença de vocês a gente espera que tenha sido um dia informativo que vocês saibam melhor o que que é a inteligência artificial o que que ela pode fazer espero a gente que tenha criado aí o bichinho da curiosidade que vocês vão estudar vão pegar os livros os materiais tem muito material online tem muito curso online Vale bastante a pena Tá bom então a gente
encerra aqui nosso dia de a espero encontrá-los na semana que vem no bate-papo Muito obrigado bom restinho de semana para vocês