EP.147: Governar ou Quebrar: O Guia de Risco em IA para Empresas, c/ André Cilurzo da Protiviti

75 views6658 WordsCopy TextShare
IA Todo Dia
Se você aprendeu algo com nosso programa, nos apoie: APOIA-SE: ⁠⁠https://apoia.se/iatododia⁠⁠ Pix: c...
Video Transcript:
Neste episódio, Diego Somer e André Silurzo discutem a interseção entre gestão de riscos e inteligência artificial, abordando os principais riscos que a sociedade enfrenta com a expansão da IA, o impacto no mercado de trabalho, os desafios da computação quântica e as estratégias que as organizações podem adotar para gerenciar esses riscos. Silurzo destaca a importância de controles e políticas para mitigar os riscos associados à IA, incluindo questões de privacidade de dados e compliance com a LGPD. Faça bom proveito.
Tá todo mundo falando dessa nova inteligência artificial de inteligência ou falar nesse bicho de inteligência [Música] artificial. Você já parou para pensar no impacto que um atendimento ao cliente realmente eficiente pode ter no crescimento da sua empresa? Na Starmind, a gente acredita que o atendimento é muito mais do que resolver dúvidas.
É sobre criar conexões, gerar confiança e impulsionar vendas. Tudo isso com tecnologia de ponta. Nosso sistema de customer service com inteligência artificial oferece atendimento 24 horas por dia, 7 dias por semana, em mais de 30 idiomas, com uma comunicação natural, fluida e precisa, seja por voz ou chatbot.
Ele aprende com cada interação, se adapta ao seu negócio e ainda entrega insightes em tempo real para decisões mais inteligentes. Quer transformar o relacionamento com seus clientes e ainda otimizar recursos? Conheça a solução da Starmind, atendimento inteligente, contínuo e humano, do jeito que o seu cliente espera.
Acesse starminda pontoai. [Música] André, tudo bem, cara? Como é que você vai?
É um prazer te receber aqui no programa. Obrigado, eh, por tá aqui representando a Proivity. Fala um pouquinho pra gente quem é você, por gentileza.
E o que que a exatamente a Proivity faz e como que a gestão de riscos tá conectada com a inteligência artificial? Ah, perfeito. Bom, primeiramente, obrigado pelo convite, Diego.
É um prazer aqui tá com com os ouvintes, os telespectadores do YouTube, né, e eventualmente outros canais que o o canal é é veiculado. Bom, eu basicamente já tô na nesse mercado de gestão de riscos há mais de 20 anos, né? o eh tenho já trabalhado com diversos tipos de riscos ah nesse nesse mercado, desde riscos operacionais e trabalhando basicamente com riscos de tecnologia, riscos cibernéticos, privacidade de dados e agora principalmente relacionados a e a inteligência artificial, né, nesse nesses últimos anos, em virtude, né, do crescimento dessa tecnologia, né, e o quanto e essa tecnologia ela tem impactado nos mercados.
Na Proivity a gente lida diretamente com riscos, riscos não só cibernéticos de privacidade de dados, mas também riscos de negócios. Então, desde eh prevenção de perdas, gestão de riscos operacionais, temos lidado diretamente com prevenção a fraudes, eh investigação, a forense technology e também recuperação de ativos e também auditoria interna e compliance ISG. Então, todos esses essas soluções que a gente acaba abarcando dentro de uma única hã, né, dentro da da empresa, ela tem ajudado os clientes nessa jornada de gestão de riscos e, principalmente, a controlar eh eventuais impactos que uma vez materializados esses riscos eles acabam causando paraas organizações.
E aí, falando um pouco de inteligência artificial, eh, eu vou só rapidinho. Você tá dando umas congeladas, Diego. Não sei se é o problema com o meu, com a minha conexão ou com a sua.
Posso continuar? Pode continuar. Se congelar, não tem problema, André, porque ele salva o teu áudio, o teu vídeo no teu computador e depois ele joga e o meu também.
A não ser que um de nós caia, daí aí realmente tem que parar, tá? Eh, ou se às vezes eu tiver falando e tu não me escutar, pode pedir que eu repito, não tem problema, tá? Mas em princípio não vai ter problema.
Eu já botei o marcador aqui para depois tirar essa parte, pode ficar tranquilo. Combinado. Bom, então, OK.
Bom, então falando sobre as eh o quanto, né, agora de inteligência artificial nós e ajudamos a as organizações nessa jornada, basicamente é trazer controles, processos, procedimentos, políticas no uso dessa ferramenta e também na a em ajudar a conscientização das organizações sobre o os riscos, impactos e responsabilidades em relação a essa tecnologia. trazendo um exemplo bem simples de como que a gente eventualmente aplica esse tipo de, né, esses tipos de controles, é, por exemplo, ó, desenvolver aqui um algoritmo de inteligência artificial para me ajudar no processo de seleção. Então esse algoritmo ele tem que ser estruturado com o objetivo de selecionar o melhor candidato ou candidata com base nos nos seus skills técnicos, com base nas suas habilidades para entregar aquele entregar aquelas atividades no qual ela, ele ou ela está sendo contratado.
Então o algoritmo ele não pode eventualmente ser construído para direcionar para um determinado perfil, né? é um perfil que eventualmente possa trazer aí algum tipo de discriminação para para esse candidato. Então, viéses como raça, religião, posição política, cor, isso eventualmente tem que ser não deve ser considerado.
se eventualmente for considerado, né, eh, ele a gente monitorar, né, por meio de controles para evitar que esse tipo de de problema aconteça e venha trazer impactos aí que ah podem trazer danos, principalmente danos reputacionais à organização. Perfeito, cara. Entendi.
Então, a ProTivity é basicamente uma empresa business to business que atende outras empresas, correto? Exatamente. A gente tem eh esse esse objetivo de atender outras empresas que e aí em termos de gestão de riscos como um todo, né, entre as questões de riscos de inteligência artificial pra gente poder conseguir assegurar que elas consigam ter o seu sono tranquilo, digamos assim.
Perfeito, cara. Perfeito. E de maneira geral, André, quais que são os principais riscos que a sociedade enfrenta com a rápida expansão do uso da inteligência artificial?
Bom, dentro desse dentro desse contexto existem alguns riscos, tá? O que eu chamo aqui de alguns riscos sistêmicos desde um consumo muito maior de de energia, né? Então isso vai ser muito demandado, principalmente dos data centers.
Eu entendo que até a gente ter de fato, né, a computação quântica, que provavelmente deve ajudar nessa, tem alguns outros problemas, tá? Que são computação quântica, mas enquanto a gente não tiver eh algo muito mais eficiente, a exigência de data centers eh vai ser cada vez maior para processar esses algoritmos que tá sendo eh escalado cada vez mais pelas empresas. Uma outra questão é a questão do do uso de água para resfriamento desses data centers.
Quanto maior o número de data centers, isso esse essa necessidade de resfriamento vai se tornar uma necessidade eminente. Mas um dos pontos que mais me preocupa aqui em termos de de riscos paraa sociedade é a questão da segurança do trabalho, né? Então, o quanto isso essa tecnologia ela vai eventualmente substituir alguns empregos.
Eu tenho aqui diversos exemplos. A gente faz uma semana eh aqui na empresa, a gente veio uma situação que eu precisava eh desenvolver um avatar que falava para subir para fazer uma o papel de uma função, né, do que a gente chama aqui de siso virtual, né, que é o TIF Information Security Officer. E e se bom, se basicamente a gente eh passasse por um processo tradicional, né, o o uso da das tecnologias tradicionais para desenvolver esse avatar que fala, a gente ia depender, por exemplo, né, de um design, né, a contratação de um design que ia trazer um modelo pra gente, eu ia ter que aprovar esse modelo, provavelmente não ia gostar de um ou outro detalhe.
Isso aí ia voltar pro design, o design ia fazer esses ajustes. Uma vez aprovado, ele ia ter que construir os frames para que esse avatar falasse. Eh, depois de construir esses frames, colocar um narrador para que ele pudesse falar o que esse avatar ele vai falar.
E provavelmente é um processo que custasse aí alguns milhares de reais e tomasse aí algumas semanas pra gente poder de fato colocar isso em prática. com os da de da inteligência artificial, esse processo ele ficou muito mais simplificado. Então, basicamente aí você pode usar o Chatpt, você pode usar o Copartil ou no caso usei o Copart da Microsoft, você tem o manos, que é uma nova tecnologia que de fato tá aí também trazendo e bastante sofisticação pro processo de a generativa, mas o copilot basicamente alguns minutos, né, e aí toca uns comandos no prompt, ele me trouxe o avatar, basicamente baixei ali um um aplicativo que fazia o movimento da boca junto com com narração.
Então, um processo que eventualmente poderia demorar algumas semanas e tivesse um custo para mim, custou para mim meia hora aqui do meu tempo para eu conseguir de fato gerar essa informação e colocar esse avatar, né, na posição de um de um siso virtual aqui dentro da organização. Então isso isso você vê que isso traz aí algumas mudanças, principalmente no que tange, né, o o mercado de design. Outras questões que eu vi recentemente agora, né?
Você tem, eu vi um vídeo no na no Instagram de um eh de uma pessoa que usou a planta de casa, né? E pediu para que a que o chat GPT decorasse a sua a o seu apartamento. E não só isso, ele também fez isso em de maneira tridimensional.
Então isso também impacta, por exemplo, né, nas questões, né, de profissionais de de arquitetura. Então, todos esses eles todos esses profissionais eles vão ter que se reinventar. Eu tô falando aqui só de duas indústrias especificamente.
Isso impacta na na como um todo, né, dentro da da nossa sociedade. Além disso, você vai ter também situações aí, situações talvez um pouco até mais críticas também, questões de informações imprecisas ou informações falsas que podem levar a manipulação da sociedade por um determinado caminho. A, eu acho que assim, a questão da desigualdade econômica também, isso eventualmente pode ah ser um dos dos problemas que a gente vai ter que enfrentar, né, com o uso da inteligência artificial dentro do nosso eh ambiente, né, dentro da nossa sociedade.
Mas eu entendo que assim, o ser humano ele é bastante resiliente e adaptável, então ele muito muito provavelmente vai transformar, né, desse limão uma limonada. E é esses riscos e esses esses essas necessidades de se reinventar, provavelmente ele vai achar caminhos aí alternativos que vão evoluir muito o nosso a nossa sociedade como um todo. Perfeito, cara.
Semana passada a gente até fez um episódio aqui sobre esse impacto nos empregos. Na verdade foi a parte dois. nós já tínhamos feito um, né, que era realmente para falar sobre os empregos e daí na semana passada a gente fez um como as pessoas podem se preparar para isso, né, na questão da resiliência, de estudar, se atualizar, enfim, pô, foi um programa bem bacana assim, cara, e eu vejo mesmo que esse é um risco, não é só um risco, cara, já está acontecendo, né?
aconteendo na nossa sociedade. E quem não tiver preparado, cara, realmente eh vai perder o emprego. Como sua empresa trata quem sai diz tanto sobre ela quanto a forma de contratar.
Num mercado em que reputação vale ouro, o desligamento mal conduzido pode custar caro em processos, clima e marca empregadora. A Career Group, eleita a melhor consultoria de outplacement de 2024, guia organizações em momentos críticos, de grandes reestruturações a desligamentos pontuais. Nosso programa de transição de carreira humaniza o processo demissional, reduz litígios e ainda fortalece o employer branding.
Inteligência artificial identifica vagas, aperfeiçoa perfis e treina entrevistas, enquanto consultores seniores cuidam do diálogo estratégico, da preparação emocional e da recolocação. Mas não paramos aí. Avaliamos talentos, desenvolvemos lideranças e redesenhamos a área de RH para que seu negócio avance com segurança, da sucessão ao assessment, do coaching executivo ao desenho de competências.
Chegou a hora de transformar seus desafios de gente em vantagem competitiva. Acesse careergarroup. com.
br e solicite um diagnóstico gratuito. Career Group, tecnologia que impulsiona, pessoas que transformam. Acesse o link na descrição do episódio.
[Música] Eh, eu acho que ainda a gente, a, a tecno, a IA ela tá engatinhando, então as as tanto as pessoas como as próprias empresas ainda estão entendendo como utilizar essa essa essa tecnologia dentro da sua dos seus processos, né, dentro dos seus eh das suas atividades empresariais. Entretanto, eh, o Brasil acho que ele ainda tá um pouco atrasado nesse aspecto, mas uma vez que esse, esse processo ele pegar de fato, aí você vai ter de fato uma um impacto bastante considerável. E aí eu vejo que assim, não é desde a base até o nível de CEO, tá?
Tem um caso, tem o caso que você deve conhecer e os ouvintes também, mas da N D Drgon Websoft, que foi a uma empresa chinesa, né, que nomeou o seu CEO como o algoritmo de inteligência artificial não foi nomeado como CEO. Há dois anos eu achei isso ridículo. Falei: "Cara, um CEO ele tem responsabilidades e estatutárias, responsabilidades financiárias, né?
Como você vai responder por uma eventual fraude cometida por um próprio algoritmo, né? " né? Então você tem essas questões.
Hoje eu já não sei se isso é tão ridículo assim, porque basicamente, né, quando as questões, as responsabilidades, elas permanecem uma incógnita de como você eh resolver isso. Mas basicamente as decisões, né, de como você entendeu o contexto e a partir desse contexto desenhar estratégias para perenização da empresa. Eh, isso o algoritmo talvez ele já consiga fazer de maneira bastante precisa, né?
Talvez até melhor que que presidente de empresa, que CEO de maneira muito mais rápida. Ou seja, no final das contas, o o CEO ele tem que entender qual música tá o saber qual música tá tocando agora e saber qual que vai ser a música que vai tocar no futuro para poder saber dançar, né? O algoritmo ele talvez faça isso de maneira muito mais rápida.
Então isso isso é algo que que de fato é um ponto que que eu acho que a que que as empresas ainda não sabem como lidar com isso. Legal. Ô André, eu quero aproveitar, cara, tu é um cara altamente técnico, tem 20 anos de experiência.
Aí você falou de computação quântica e esse é um assunto que eu eu acho sensacional. Vou dar uma fugidinha da nossa pauta aqui para te perguntar. Você falou dos riscos, né, eh, que pode ter com isso.
Eh, mas eu duas perguntas que eu tenho para ti, é, claro, é uma opinião, você não não precisa dar exatamente, mas assim, quanto tempo você acha que de fato vai tá essa tecnologia vai tá funcionando, vai ser funcional? já existe. A gente, ah, tem o chip quântico da Microsoft, beleza, mas não tá no mercado, não tá quando que vai ser funcional, né?
Eh, e quais são os riscos associados a essa tecnologia que eu não faço ideia. Uhum. Não, perfeito.
Eu eu acho que assim, eh, eu posso falar das questões relacionadas à cybersegurança que eu tenho acompanhado mais, né? A gente tá falando do QD, que a gente tá falando de um horizonte mais ou menos 5 anos, que é quando a computação quântica ela de fato conseguirá quebrar a criptografia. Então, é os mecanismos hoje de de criptografia.
Então, eu olhando assim, pensando nessa nessa questão, acho que uns c anos falando em termos de segurança de informações, acho que é o tempo. E é o que basicamente a IBM, Microsoft, entre outras eh bigtechs que estão trabalhando no desenvolvimento dessa dessa tecnologia, eh, elas elas estão fazendo. Eu assim, cara, pode ser antes, pode ser depois.
Claro, eu acho que isso depende muito do [Música] do quanto você consegue escalar uma tecnologia como essa. Hoje a gente sabe que a computação quântica tem uma série de restrições, né? a própria questão da da temperatura, então você ela tem que atuar no zero absoluto, toda a questão de oscilação, então qualquer vibração, ela pode ter um impacto na performance do do, né, do do dos algoritmos na performance do chip propriamente dito.
Então, e essa, esses problemas eles vão ter que ser solucionados para de fato tornar isso num um, num, né, como uma solução que seja possível das empresas adquirirem, as empresas comuns, né, as BigTechs, muito provavelmente elas conseguem eh já endereçar esse tipo de solução. Legal, cara. Legal.
Agora vamos falar um pouco sobre você falou dos riscos pra sociedade, né? Agora vamos trabalhar os riscos que a ProTivity pode, eh, vamos dizer assim, gerenciar junto nas organizações. Quais são esses riscos, né, eh, que que vai ter para as organizações?
E existem estratégias claras para gerenciar esses riscos? Sim, vamos, vamos lá. Eu acho que sim, existem alguns riscos para para as organizações, principalmente eu acho que mais comum é a questão do vazamento de dados.
E aí a gente tá falando de ransower, a gente não tá falando de hackers invadindo o ambiente, a tá falando de algo muito mais tangível, que é, por exemplo, pegar algumas informações da empresa, jogar aqui no chat T GPT, né, como esses motores eles se apropriam dessas informações para gerar conteúdo, gerar novas informações, gerar, né, ã, subsídios para tomada de decisão. Essas informações elas possam ser públicas. Então, muitas vezes, se você não tomar o cuidado na hora de compartilhar essas informações com esses algoritmos, muitas vezes você tá compartilhando informações que são de de cunho estratégico pra empresa, são de cunhos contábeis, né, financeiros.
E também a gente tem que pensar, né, no caso de compartilhamento, principalmente de dados pessoais. E aí você já começa a entrar um pouco na questão da privacidade de dados e que vai, né, bater diretamente na Lei Geral de Produção de Dados, né, que é LGPD. E esse e esse é um outro ponto que também a gente ajuda, né, a a endereçar nas organizações, porque de acordo com a LGPD, existem ali alguns princípios, mas a ao meu ver o princípio da finalidade, que é o mais importante, que é olha, eu preciso coletar um dado.
Se eu for coletar um dado e usar aquele dado, eu tenho que definir muito claramente quais são os objetivos, quais são as final a finalidade específica para aquele dado, eh, para que ele possa ser tratado adequadamente, aquele dado pessoal. Entretanto, o que eu já tenho visto aqui alguns algoritmos fazer é falar assim: "Olha, eu pego aquela informação, eu coloco dentro do algoritmo e esse algoritmo ele desvirtua aquela finalidade. Uma vez que eu desvirtuo aquela finalidade e eventualmente aquela aquela outra finalidade que eu coletei, eu não ou comuniquei o o meu titular do dado, né, seja o cliente, seja o profissional, seja um terceiro, eu tô tecnicamente violando a lei porque ocorreu esse desvirtuamento da finalidade.
Então, vou pegar aqui um exemplo bastante comum. falou: "Ó, pô, constituir um algoritmo aqui para fazer uma um processo de seleção mais adequado para meu pro meu departamento financeiro. né?
Então, coleto aqui diversos currículos e se eventualmente esse algoritmo ele desvirtuar e começar a a realizar outras finalidades, como por exemplo, prospecção de novos clientes, eventualmente, ah, vou lá, pego o cliente, pego o os dados de telefone, pego os dados de e-mail e começo a disparar, né, propaganda para esses candidatos, eu tô tecnicamente virtuando essa finalidade. Então, controes, né? Então, principalmente na parte do desenvolvimento e na parte do treinamento, isso aí tem que ser bastante eh eh ajustado, digo, azeitado, né, para assegurar que esse desvirtuamento não aconteça.
Eh, um outro ponto, eu acho que assim, as questões de de imprecisão dos resultados, né, que que são gerados. Então, muitas vezes a gente pô, na correria, joga lá o a informação e não se atenta ao que o algoritmo gerou. Então isso eventualmente pode trazer uma um um pode resultar numa eventual uma decisão imprecisa ou uma indecisão eh eh errônea, né, com base naquelas informações.
Então, esse cuidado também é fundamental que as organizações elas tenham. E eu acho que um ponto até que isso apareceu numa das pesquisas que a gente fez recentemente, o a Top risks e de 2025, que é a questão da mudança das habilidades, né? Então hoje as organizações elas têm um gap grande em relação ao ao uso dessas tecnologias, né?
Então, principalmente de a e outras tecnologias aí derivadas, eh, principalmente de LLM, né? Que é uma das da dos modelos de a que que são utilizados. O, e eu acho que assim, né, dentro desse, desse gap de skills, a gente não tá falando nem de questões técnicas, mas é a questão mesmo da mudança de mindset dos profissionais dentro da organização, de como usar a a inteligência artificial para melhorar os processos do do dos seus dia do seu dia a dia, né?
Então, eh, eu tenho aqui eventualmente, por exemplo, peguei aqui o próprio exemplo do do design, então, como que eu usei essa inteligência artificial para, por exemplo, acelerar uma uma um processo que eu tinha uma necessidade e basicamente fazer isso a custo zero dentro da organização. Então, esse mindset ele é fundamental eh para que eh essas essas habilidades, esse gap de habilidades, ele seja minimamente el fechado, ele não vai ser, mas ele seja reduzido, tá? outras questões de alucinações que muitas vezes que eu já fui discutido aqui no canal.
Ah, questão da inexplicabilidade. Então, quando você fala em termos de compliance, hoje a gente não tem ainda uma regulamentação, né, como AICT, mas você tem ali o marco legal de inteligência artificial, que ainda é um projeto de lei. Mas, ah, isso vai exigir que as organizações elas tenham meios, né, elas implementem meios para conseguir demonstrar conformidade à regulamentação.
E hoje é não existem aí, pelo menos aí mecanismos que sejam facilmente escaláveis dentro da organização que para que ela consiga demonstrar eventualmente aquilo que o que o marco legal ele tá tá exigindo, né? Então, por exemplo, a questão da inexplicabilidade, muitas vezes fal, mas por que que ele deu esse resultado? Não sei explicar, né?
E muitas vezes não vai saber explicar mesmo, né? Nunca vai saber, né, cara? Porque talvez tá além do nosso alcance, né?
Do algoritmo que vai fazer determinada decisão, né? Isso, isso realmente é é um negócio que é difícil você pensar numa solução, né, cara, a longo prazo. Eu digo assim, porque eh como cada vez quanto mais evoluídas essas inteligências artificiais estiverem, mais as decisões delas serão eh menos explicáveis, né?
Menos explicáveis, mais difíceis pra gente entender, né? Então, pô, é igual aquele o famoso movimento 37 do do gol, né, do Alfa Gol lá que jogou contra aquele campeão. Pô, ninguém, todo mundo pensou, meu, que decisão horrível da desta aí.
E no final se provou que a longo prazo, né, do jogo era uma decisão altamente assertiva, né, cara. E como é, como é que você diria, André, hoje para minimizar pelo menos eh o impacto desses eh riscos assim, o que seria possível para os gerentes eh CEOs das empresas eh como eles podem fazer isso? Perfeito.
Eu acho que assim, primeira questão é a questão da governança, né? Então, eu não tô falando nem ainda da governança de a, mas você tem que uma eh principalmente estruturar uma governança de dados. Eu ainda vejo hoje nas nas empresas um déficit da governança de dados.
Você não, então muitas empresas elas assim não sabem nem o que tem dentro de casa em termos de dados. Muito mais pegar esses dados e utilizar para tomadas de decisão. Então uma uma curadoria em cima dos dados, né?
Então você fazer um processo de descoberta de dados, uma classificação adequada, depois você inclusive estruturar prazo de retenção, entender quais são os dados essenciais, o que que não é essencial e o que que é totalmente descartável. é o primeiro passo para as organizações de fato eh pensarem numa governança de aí sim que entra, né, a questão, né, de você identificar, né, ter de uma maneira centralizada o controle de todos os algoritmos que são estruturados na empresa. Então hoje, né, com a facilidade de você criar prontas, você tem uma, né, os o as empresas elas têm dificuldade de controlar essa questão.
Então, é fundamental se estruturar um processo para que você tenha não só um inventário, mas um controle dos algoritmos que são criados. Eh, e aí a partir disso sim começar a controlar o que que é colocado para dentro. E aí sim você tem que estruturar políticas adequadas para isso, procedimentos de uso da inteligência artificial, trazer eh transparência dentro da da organização e por meio disso, claro, você com diretrizes e políticas você consegue resolver.
Uhum. E eu diria que a questão, né, acho que a questão técnica, a gente não precisa nem entrar no no nos detalhes, mas a questão da conscientização, de novo, ela é fundamental para que a gente não tenha, né, o que eu falo daqui do do sono tranquilo. Então, um profissional ele consciente das informações que ele insere dentro de um algoritmo para poder eh ter um processo mais executado mais rapidamente, ajudar numa decisão de negócios ou eventualmente fazer, né, de maneira muito mais simples, né, fazer uma seleção de um de um currículo.
Isso é fundamental para o sucesso da organização. Então diria que assim, conscientização, né, treinamento, eh, mudança de mindset, ele é fundamental pro sucesso da da organização nessa jornada para, né, de de a absorver, né, essa tecnologia nova que de fato veio aqui para ficar. Perfeito, cara.
E e regular a inteligência artificial, você acha que esse é realmente um caminho mais eficaz para mitigar esses riscos? Como garantir que a regulação não vai limitar a inovação tecnológica? Que eu acho que existe esse paradigma, né?
Exato. Isso é um balanço difícil de fazer, tá? Eu entendo que a regulação, sim, ela é importantíssimo para pelo menos dar os guidelines de como se como lidar com essa tecnologia dentro das empresas e na sociedade como um todo.
Mas ao mesmo tempo eu acho que e a a questão da inovação, ela não pode ser perdida. Então, por isso que a questão da responsabilização, então mais acho que do de você regular, mais do que você eh eh trazer aí eh regras para pra inteligência artificial, acho que mais importante é entender quais são os impactos que essa tecnologia ela pode trazer e responsabilizar mais pelos impactos que ela traz. Então, porque senão de fato assim, olha, poxa, eu vou, eu tô desenvolvendo aqui um um algoritmo, tá?
e eventualmente eu coloco aqui vieses dentro desse algoritmo ou eventualmente aqui, né, no no no extremo, né, coloca esse algoritmo para de fato prejudicar, né, um cidadão, um ser humano. Eh, eu acho que não é a regulação que vai evitar isso, mas é assim a responsabilização de quem desenvolveu e de quem usou e de maneira inadequada essa essa tecnologia e que trouxe prejuízos paraa sociedade. Então, acho que esse é o caminho, ao meu ver, mais adequado para você poder eh gerenciar essa tecnologia, né, daqui para frente.
Você você já teve acesso ou já chegou a dar uma olhada, André, naquele marco regulatório paraa inteligência artificial que que tava acho que tá no Senado ainda para para para ser votado? Sim, eu já dei uma olhada assim, tá? é uma é uma regulamentação assim, ela traz bastante ela traz algumas diretrizes bastante interessantes pro desenvolvimento e principalmente paraa graduação dos riscos de de ah, então, por exemplo, olha, se um algoritmo ele traz um prejuízo muito grande, né, para para pro cidadão, ele deve ser ele não deve ser colocado aqui em play, né, em produção, né?
outros eventualmente falou assim: "Ele tem aqui um determinado risco, mas eh ele pode eventualmente trazer algum tipo de prejuízo, mas assim, não é um dano eh eh grave, ele aí sim tem que ter controles específicos, né? E se for um algoritmo que eventualmente nem impacta o o ser humano, o titular do dado, né? Usando aqui os próprios da LGPD, então ele pode seguir sem a necessidade de um de um controle.
O grande ponto é saber se esse algoritmo de fato ele não dá, ele não vai causar nenhum impacto. Então, por isso que de mesmo depois desse desse desse algoritmo ele ter ter sido utilizado, né, ter colocado aqui em produção, né, colocado em prática, ele tem sim que ser monitorado os resultados que eles são gerados, o que que ele de fato tem eh gerado, né, em termos de de resultado para evitar situações como, né, situações de prejuízo a ao próprio ser humano. Perfeito.
Quais os setores da economia que você enxerga como mais vulneráveis a esses riscos aí que você falou? Eu acho que assim, eu acho que todos os os o os setores eles estão eles estão expostos, tá? Mas eu acho que o setor de serviços, principalmente ele vai ser impactado fortemente, né?
né? Até porque hoje o que eu vejo assim, né, o setor de serviço é ele é muito baseado, né, num esforço de e um esforço, na verdade, em relação ao ao que você gera. Então, você faz um você tem um determinado esforço e você é remunerado por esse esforço.
Uhum. Entretanto, eh, o que a inteligência artificial ela vai fazer, ela vai reduzir esse esforço e esse esforço ele vai ser menos remunerado por isso. Então, acho que assim, as empresas que conseguirem fazer isso rapidamente, elas vão conseguir captar essa esse valor que que, né, essa diferença de valor entre o esforço que um ser humano faz e o esforço que que o algoritmo faz até o momento que todas vão chegar no mesmo nível.
Então, por exemplo, né, os as empresas de serviços financeiros, né, principalmente bancos, eles já estão eh bastante adiantados, mas ainda devem muito devem muito melhorar os seus o os seus serviços, né? Eu pego aqui um exemplo, né, um exemplo básico que você deve ter também, mas quando você vai lá analisar o seu perfil de investimento, né, você tem, pô, sempre aquele perfil de investimento, ele é baseado num questionário, só que o meu perfil de investimento, que eu sempre preencho lá, ele tá como agressivo, só que a minha carteira, ela nunca tá parecida com o meu perfil de investimento. Mas é claro, assim, não faz sentido nenhum.
seria estupidez da do meu lado fazer investimentos agressivos com uma taxa de juros a quase 15% eh ao ano, entendeu? Então, eh, o uso, né, dessa tecnologia, né, então, aliada a essas questões para poder oferecer serviços mais precisos ao cliente, trazer mais eficiência, ela é fundamental para que essas empresas elas consigam atingir a sua vantagem competitiva, que ao longo do tempo, né, a partir do momento que todo mundo começa a usar essa vantagem competitiva, ela vai eh reduzindo, né, até o momento que todos eles ficam ficam equiparados no mesmo patamar. Perfeito, cara.
Você acha que as empresas brasileiras já tão conscientes e preparadas para lidar com esses desafios? Olha, eu diria que ainda tem muito a evoluir, tá falando, fazendo uma, dando uma resposta aqui relativamente política, mas eu acho que as empresas elas ainda tão bastante carentes no uso adequado dessa dessa tecnologia, tá? Eh, claro, alguns alguns segmentos da indústria já estão mais evoluídos, outros menos.
Mas eu diria que eu acho que a gente ainda tem um longo caminho a percorrer até conseguir aproveitar eh ao máximo o que essa tecnologia tem a oferecer para as organizações. Perfeito. E você que passou tempo lá fora, né, fora do país, André, quais boas práticas internacionais aí poderiam servir de exemplo pro Brasil em termos de segurança e gestão de riscos da inteligência artificial?
É, aí a gente volta de novo na questão da conscientização, né? Então, a concentração assim, você não tá falando de nada fora do do comum. Então, assim, você conscientizar o profissional sobre o o uso adequado, ele é o primeiro passo.
Mas ao mesmo tempo que a gente tem visto aí, principalmente olhando de segurança de informações, né, você tem, você vê a IA ajudando segurança de informações e segurança de informações ajudando IA. Então isso é um caminho que eu acho que que hoje, principalmente, né, quando a gente fala do ramo de cybersegurança e privacidade de dados, é algo que vem quando a gente fala de exteriores, ele já essas soluções já estão muito mais avançadas no sentido de usar a a IA e vice-versa. Perfeito, cara.
E para já estamos finalizando aqui, André, eh, como que a gente pode equilibrar o uso estratégico da IA nas empresas, ao mesmo tempo gerando retorno financeiro, sem comprometer segurança e privacidade? Perfeito. Então, eu acho que assim, é, são são questões que você consegue andar de eh de maneira paralela, né?
Você consegue seguir isso eh de maneira conjunta. Eu acho que a análise financeira ela é fundamental para assegurar que você não saia desenvolvendo algoritmos que eventualmente não vão ser utilizados para processos que são escaláveis. Então eu já vi aqui, né, algumas empresas desenvolveram um algoritmo para eventualmente atender três situações.
Então o desenvolvimento desse algoritmo ele não se paga. Então, muitas vezes que eu quero dizer aqui, então, termos financeiros, né, o famoso payback, eh, você pegar, olha, eu depo, obviamente, de um volume de horas, né, que sejam 100 horas para desenvolver um algoritmo para me ajudar num determinado processo. Então, esse processo, eventualmente ele tem que me trazer um payback, né, me trazer aqui um um retorno de de economia maior que 100 horas.
Então, se por mês eu gasto 30 horas nesse processo, em três meses e pouquinho, aí eu já consigo ter um retorno desse investimento. Agora, se eu tenho 100 horas e eventualmente ele vai me economizar ali alguns minutos, provavelmente eu vou ter um retorno eh muito longo, tá? Então, às vezes essa questão ela acaba não se justificando, não acaba justificando o investimento nesse algoritmo.
Então, muitas vezes aqu que acontece que as empresas e os gestores vão muito nessa vibe de querer desenvolver algoritmo. Ah, pô, vamos desenvolver aqui um algoritmo de inteligência artificial para atender esse processo. Calma, eu acho que assim, é uma avaliação técnica, ela é fundamental, mas avaliação financeira também, porque os os recursos das empresas são escassos.
Então, se eu não tiver, se eu não fizer essa análise, ela de fato não vai a conta não vai fechar. E acho que, e aí olhando, né, do lado de de segurança, é sempre na no momento do desenvolvimento. Então eu tenho ali um um curador sobre quais são os, né, de avaliação dos riscos e impactos, né, do que o algoritmo, né, uma vez vai ser desenvolvido, ele pode gerar, né, dentro da organização e eventualmente pra própria sociedade, é fundamental para que eh ao colocar esse algoritmo, né, para funcionar, ele não gere eh impactos com risco reputacional, como mencionei anteriormente.
Legal. A a Proivity ela faz isso, ela faz essa avaliação junto com as empresas. Sim, a gente já tem feito eh avaliações eh nesse, né, o que a gente chama de avaliações de de qualificação do do algoritmo para assegurar essa essa essa jornada, né, de mitigação.
Mas o que eu eu reforço aqui é acho que para todo mundo, né, acho que mesmo antes da inteligência artificial nunca existiu o controle perfeito. Então assim, são colocados mecanismos para que mecanismos e principalmente mecanismos, não, eu digo mais procedimentos mesmo de avaliação durante todo o processo de desenvolvimento, né, principalmente ali no no treinamento, a questão da do da supervisão do durante um processo de treinamento desse algoritmo, ele é fundamental para mitigar esses riscos no futuro. Mas assim, que eu que eu posso segurar assim, problemas vão acontecer, tá?
Tá? Então assim, é o que você precisa, o que que a empresa tá, claro, né? Uma vez que isso acontecer, a empresa, ela vai ter que ter também eh mecanismos de gestão de crise, como gerenciar situações aí que que eventualmente podem trazer algum tipo de prejuízo.
E claro, né, então uma vez você tendo esses esses mecanismos, né, então encurtar esse processo de crise e minimizar os impactos relacionados a uma situação de um eventual um incidente que venha se materializar no futuro. Perfeito, André. E antes de eu fazer a última pergunta aqui, cara, eu só quero lembrar a nossa audiência que é muito importante pra gente você avaliar esse programa das cinco estrelinhas.
E se tá assistindo no YouTube aqui, se inscreve no canal, dá um joinha que isso faz toda a diferença pra gente. Obrigado para todo mundo que já apoia esse programa, que compartilha, que recomenda. Vocês são sensacionais, mas a gente ainda precisa das cinco estrelinhas no Spotify e da inscrição de você aqui no YouTube, que isso faz a diferença pra gente aqui.
Para ter gente de qualidade, como o André aqui da Proativity, a gente precisa do apoio dos nossos ouvintes. E obrigado para vocês que já fizeram isso, continuo fazendo. E agora sim, eu vou pra última pergunta, André, para te liberar aqui, cara.
E é isso aí. Dê seu like, hein? Você quer, aliás, André, você quer divulgar redes sociais ou o site da Proimit, cara?
Sim. Eh, a gente na Proivit Brasil é o protivit. com.
br, né? Proivityti no final. Eh, e eu tô no LinkedIn, fiquem à vontade para me me conectar, me seguir.
A gente faz algumas postagens não só relacionadas à inteligência artificial, riscos inteligência artificial, mas riscos como um todo. Então, isso de fato ajuda nessa jornada de de prevenção a problemas, né, que as organizações elas tendem a a gerenciar. Eu vou botar o teu link, se tu me permitir, o link do teu LinkedIn aqui na descrição do episódio, então, André, para quem quiser te seguir lá, tá?
OK. Fica à vontade, eu agradeço. Eh, e pensando no futuro próximo, cara, quais tendências você acredita que vão surgir aí na área de gestão de risco de tecnologia e inteligência artificial e como que as empresas podem se preparar desde já?
Eu acho que a gente tem a questão da computação quântica, que a gente já falou, tá? Eh, eu acho que ainda tem eh muita água para para rolar nessa jornada de de inteligência artificial. Então tem muita coisa que assim hoje a gente tem tá na vibe do chat GPT, né, do copilot do manus, mas eu acho que a inteligência artificial, né, unida, por exemplo, a a neurociência, eh unida, por exemplo, a robótica, logística, isso tende a mudar completamente a forma como a gente faz negócio, tá?
Então esse eu acho que eh eh são questões aí que que hoje a gente tá tá nessa vibe, mas eu acho que ainda muita coisa a gente tem tende a a a avaliar aí ao longo do tempo, né, para ver o que que de fato para para qual caminho a humanidade vai para qual caminho que a humanidade vá. Então acho que esse essa mensagem final que a gente tem que ter, né? Ficar atento e ser flexível em relação ao seu mindset, né?
Eu acho que assim, não não ter medo da da tecnologia, a tecnologia tá aqui para ajudar e e acho que isso é o que vai fazer a imunidade ser resiliente para os desafios que vem pela frente. Isso aí. Perfeito, André.
Valeu, cara. Obrigado pela tua participação aqui. Tô um prazer te receber.
O programa tá sempre de portas abertas. Como eu já falei, galera, o o LinkedIn do André tá aqui na descrição do episódio, tá ali o nosso apoio se também você que quiser apoiar. Valeu, fiquem com Deus e até a próxima.
Obrigado.
Related Videos
EP.148: Aprenda a Criar seu Clone Digital + IA e Medicina, e Homem volta dos mortos c/ IA  pra Depor
1:01:59
EP.148: Aprenda a Criar seu Clone Digital ...
IA Todo Dia
217 views
Como lidar com os desafios da gestão de cibersegurança?
44:19
Como lidar com os desafios da gestão de ci...
Protiviti
676 views
EUA x China: a história da rivalidade entre as duas potências
14:05
EUA x China: a história da rivalidade entr...
BBC News Brasil
108,320 views
Jon Stewart Slams CNN’s “Bombshell” Biden Book Promo Amidst Cancer Diagnosis | The Daily Show
22:02
Jon Stewart Slams CNN’s “Bombshell” Biden ...
The Daily Show
4,962,326 views
Gestão de Riscos na Saúde: como se preparar para o futuro?
52:50
Gestão de Riscos na Saúde: como se prepara...
Protiviti
173 views
NOVAS REGRAS DO IOF E O VAI E VEM DO GOVERNO: O BRASIL QUEBROU? | QUAL O IMPACTO NO SEU DINHEIRO?
37:41
NOVAS REGRAS DO IOF E O VAI E VEM DO GOVER...
Economista Sincero
98,075 views
3 formas de usar IA na sua Gestão de Pessoas!
10:04
3 formas de usar IA na sua Gestão de Pessoas!
Frons Educação
764 views
Think Fast, Talk Smart: Communication Techniques
58:20
Think Fast, Talk Smart: Communication Tech...
Stanford Graduate School of Business
47,046,209 views
‘Random rants about trophy wives?’: Former George Bush aide slams Trump West Point remarks
12:57
‘Random rants about trophy wives?’: Former...
MSNBC
69,742 views
Qual é o papel do compliance dentro da empresa?
9:38
Qual é o papel do compliance dentro da emp...
Cris Amaral - Compliance Raiz
24,678 views
Desenvolva habilidades de liderança: 6 dicas essenciais para líderes iniciantes - VÍDEO COMPLETO
40:36
Desenvolva habilidades de liderança: 6 dic...
Flávio Lettieri
516,157 views
AI AGENTS EMERGENCY DEBATE: These Jobs Won't Exist In 24 Months! We Must Prepare For What's Coming!
2:32:10
AI AGENTS EMERGENCY DEBATE: These Jobs Won...
The Diary Of A CEO
1,891,932 views
EP.154: Entenda Todas as Novidades do Google, Aprenda a usar NotebookLM, e NÃO faça isso no Tribunal
1:15:22
EP.154: Entenda Todas as Novidades do Goog...
IA Todo Dia
338 views
How Stanford Teaches AI-Powered Creativity in Just 13 MinutesㅣJeremy Utley
13:20
How Stanford Teaches AI-Powered Creativity...
EO
1,336,904 views
EP.140: Medicina + IA: A Combinação que Vai Mudar Tudo (Mas Não Como Você Pensa), c/ Dr. Ayda
57:51
EP.140: Medicina + IA: A Combinação que Va...
IA Todo Dia
171 views
O que é gestão de pessoas nas empresas?
9:47
O que é gestão de pessoas nas empresas?
Gilberto de Souza
382,330 views
5 ferramentas para a gestão de risco | QMS Brasil
10:40
5 ferramentas para a gestão de risco | QMS...
QMS Brasil
8,079 views
Upbeat Lofi - Deep Focus & Energy for Work [R&B, Neo Soul, Lofi Hiphop]
3:22:29
Upbeat Lofi - Deep Focus & Energy for Work...
A Lofi Soul
1,085,865 views
La semana más loca de AI del 2025
21:20
La semana más loca de AI del 2025
Platzi
198,256 views
Planejamento e Gestão de Projetos com IA -  @CursoemVideo Inteligência Artificial
11:51
Planejamento e Gestão de Projetos com IA -...
Curso em Vídeo
11,853 views
Copyright © 2025. Made with ♥ in London by YTScribe.com