[Música] he [Música] oh [Música] e [Música] C [Música] h [Música] he [Música] he [Música] h [Música] k [Música] [Música] [Música] bom dia a todos e todas sejam muito bem-vindos a mais um momento especial na semana dados BR Meu nome é Marcos Moreira Eu trabalho na Secretaria de governo digital e faço parte da organização da semana hoje eu vou auxiliar na condução da palestra que vai ser ministrada pelo Senor Aluísio dourado do TCU o tema da palestra é Jornada Para transformação da Cultura em data driven as semanas dados BR tá sendo organizada pela Controladoria Geral da
União pelo Ministério da gestão e inovação e serviços públicos e pelo núcleo de informação e coordenação do.br e tem como objetivo principal um compartilhamento de conhecimento e experiências de especialistas nacionais e internacionais em diversas áreas ligadas a dados visando o fomento de uma cultura orientada a dados no Brasil a semana dados BR também conta com apoio e Patrocínio da data pré do cpro e do Instituto sedelo Correia e sem eles não seria possível realizar um evento desse porte em tão pouco tempo desse modo passemos a apresentação do Senor Aluísio Dourado O Aluísio Dourado tem graduação
em engenharia elétrica pela Universidade Federal da Bahia mestrado em computação aplicada à análise de dados e doutorado em Ciência da Computação com foco em Inteligência Artificial e visão computacional pela UnB é servidor do TCU desde 2010 atua com análise de dados voltada para auditoria desde 2014 atualmente é auditor chefe adjunto para análise de dados e inovação na Secretaria de informações estratégicas para o controle onde é responsável pela governança de deira e Analytics do tribunal Aluísio a gente vai explicar aqui rapidamente a dinâmica da apresentação O Aluísio vai ter uma fala de até 55 minutos e
a gente vai ter um tempo de 20 minutos para perguntas e respostas quem quiser Relembrando pode fazer as perguntas direto no YouTube e a gente vai passar pro Aluísio ao final da sessão dele alí de novo Muito obrigado pela sua disponibilidade por est aqui na semana dados BR compartilhando do seu con e agora eu passo a palavra para você Marcos eh um prazer estar aqui né Quero Agradecer o convite para mim é muito importante estar falando sobre um tema como esse né uso de dados Cultura em dados eh é muito importante para mim isso e
agradeço mais uma vez a oportunidade de est aqui falando sobre isso tá então vamos lá né Eh você devem estar já recebendo aí minha apresentação eh já estamos bem muito bem então vamos lá vamos falar sobre cultura transformação de Cultura transformação em cultura para uma organização em data driven data driven né E isso no meu entender É de fato uma jornada e e como toda jornada a gente precisa eh começar de algum ponto né o o TCU já vem nessa jornada né H há muito tempo e ele começou a sua jornada com a consciência de
que que tomar decisões com base dados é importante né Foi assim que a gente começou e aí eu levanto essa questão acho que como a gente tá aqui na semana dados BR né Eu acho que eh eh a maioria das pessoas que estão acompanhando a gente deve ter alguma noção da importância mas vamos ver aqui o que é que Dizem os especialistas né os institutos de pesquisa né Eh por exemplo com essa pesquisa aí realizada pelo Instituto Cap gem eh chegou-se né a constatação de que empresas organiza que trabalham com dados confiáveis e tomam decisões
baseadas neles lucram Até 22% mais então obtém 70% a mais de receita quando comparado com as outras que não fazem isso então dá para ter uma noção aí eh no mundo privado né que isso é muito importante e a gente pode fazer um paralelo pro serviço público também né então Eh o que que isso tem a ver com Cultura né O que é que data driven tem a ver com cultura tem tudo a ver com cultura tá eh nesse nessa pirâmide aí de que apresenta os níveis de maturidade eh do uso de dados pelas organizações
né Eh feita pelo Cesar proposta pelo César que é um instituto de inovação eh muito importante no Brasil concede no em Recife né ele classifica Então os níveis de maturidade em cinco né o primeiro seria o cético segundo curioso guiado experto e leira driven né no cético O que que a gente tem né tem a grande maioria das empresas n Por incrível que pareça ainda tão nesse nessa situação né as empresas podem até ter uma noção de que usar dados é importante Ou nem isso mas não de fato não internalizaram que isso é possível de
ser aplicado na sua realidade então a gente a primeira eh dificuldade a vencer é essa é possível usar dados né e a gente precisa trabalhar para isso o segundo momento né o segundo nível de maturidade quando a empresa atinge o nível de curioso começa a se interessar mais pelo tema a disseminar um pouco mais essa Essa visão mas ainda de fato não existe uma orientação institucional nesse sentido a empresa guiada né já tem aquela já internalizou isso a autogestão já comprou essa ideia e já coloca nos seus objetivos eh internos e externos usar dados para
tomar decisões né Depois a gente naturalmente atinge o nível de expertise né quando você tem essa Cultura disseminada a maior parte da organização e quando a gente consegue de fato tomar todas as decisões com base de D a gente atinge o nível de né Tá então quer dizer basta então tomar consciência da importância do uso de dados que tá resolvido o problema na verdade não né então para isso um estudo de 2022 mostrou né que 75% dos entrevistados n conheceram a importância de que os dados são importantes então a consciência da importância do existe e
que eles podem também Mud radic ente os seus modelos de negócio né então ele já tem essa consciência mas apenas 11% priorizam o uso desses insights e os aproveitam de forma eh significativo Então apesar da consciência Eles não estão fazendo muito eh no sentido de de fato usar os dados para tomar eh decisões e e é aí que que a coisa Começa a complicar né você até conhece mas você não faz nada para para mudar a realidade a gente precisa a gente vai ver que a gente precisa fazer alguma coisa então a gente volta aqui
paraa realidade do TCU tá eh o TCU hoje a gente pode pensar assim ah o TCU tá num nível avançado talvez alguns de vocês podem pensar isso mas não foi sempre assim não tá eh a gente Tomou consciência consciência ainda no nível eh de poucas pessoas ainda né em 2006 quando houve uma abertura paraa criação de um serviço um pequeno serviço poucas pessoas eh de inteligência para no TCU que era o serviço sgi né Eh a missão do sgi era gerar informações de inteligência Para apoiar as outras ações do TCU olha só a curiosidade né
Eh naquela época em 2006 né Toda a infraestrutura de dados eram armazenado nos desktops dos auditores né que era mais ou menos esse que era essa esse eh eh eh esse desenho desse computador que tá aí tá naquela época que se usava era ferramental CL né uma ferramenta que hoje em dia já não já a gente já já dá como obsoleta né e o I2 uma ferramenta de identificação de de vínculos da IBM e com base nessa infa e com base nesse ferramental eh a sgi o sgi o serviço na época disponibilizava informações para as
auditorias né Eh em 2009 foi dado um grande passo eh na com a centralização dos dados usados pelos auditores da do sgi num único servidor né antigamente era só nos nos micros a gente centralizou num servidor e esse servidor de de dados eh foi foi o embrião do Lab contas eu vou falar sobre o Lab contas em mais detalhes depois muitos dos Senhores devem conhecer né mas eu vou entrar em detalhes que é uma hoje uma grande base de dados de políticas públicas né grandes bases de dados públicas eh do do Brasil um dos maiores
repositórios de dados públicos eh do mundo tá para uso em controle é o Lab e contas mas começou pequeno com um servidor eh um super micro gerenciado pelo próprio serviço lá pelo próprio pela própria as pessoas do serviço faziam esse gerenciamento né em 2010 aí a gente começa a reconhecer o o a gente começa a perceber o reconhecimento institucional né Eh o sgi que era um serviço vira uma diretoria né e em 2010 é lançado o dgi consultas a primeira solução feita para uso direto por auditores que não Ten o conhecimento do ferramental de análise
é era um repositório de consultas pré-formatadas que o auditor poderia escolher passar algum parâmetro e receber o resultado alguma pesquisa relativa a uma CPF um CNPJ eh O que é que nós temos sobre o CNPJ tal o CPF tal e o dgi consultas respondia até então toda a análise teria que ser feita diretamente pela equipe especializada em eh uso de dados né então isso aqui o dgi foi um um importante passo e aí em 2011 nós temos as primeiras auditorias na época fava auditorias com elementos de dados né Eh eram auditorias realizadas com apoio da
dgi né que nessa nessa época aí já eram uma diretoria os as bases né paraa realização dessa dessas auditorias com base em dados eram solicitadas a de rock meio de HD externo na sua na sua maioria a ia para o órgão lá de preciso desse dado o pessoal copiava pro HD criptografa muitas vezes a gente usava isso nas auditorias né Essas primeiras auditorias nesse natureza foram foram realizadas na csex Previ E para isso além do Servidor que que a dgi mantinha lá dentro foi criado um servidor foi montado um servidor próprio para para csex Previ
eh era na oportunidade a unidade de auditoria especializada em previdência né eles mantinham esse servidorzinho aí eh na própria sala né e os próprios servidores administravam tá eh foi a primeira auditoria de fato eh que que usou dados mais intensivamente no tribunal né Eh foram foi uma auditoria nos controles internos do NS E trabalhou o pagamento de benefícios a pessoas falecidas né eu tem uma tem uma notazione de folha de pagamento dos benefício do INSS então foi possível analisar com essa infraestrutura apenas 2,5% da maciça e os dados foram cruzados com com ACL na época
confirmados eh eh com Excel mas essa primeira leitura já gerou um bom eh Impacto né Eh mesmo ainda Com todas essas limitações aí em 2011 nós temos eh um um grande mais um grande passo eh no sentido da nossa jornada que nós estamos passando né que foi a internalização da infraestrutura do Lab contas pela ti até então essa essa infraestrutura tava na sgi né na direita no dgi agora eh ou então na na própria Secretaria de controle externo administrada pelos próprios auditores eh precariamente né com com risco de perda de dados risco de de quebra
de de de segurança Então essa internalização foi muito importante e ela sim viabilizou a gente chegar o ponto que nós estamos hoje com Lab contas né eh e aí outros Passos foram acontecendo né primeiro a a a ti assumiu apenas em 2011 apenas a infraestrutura em 2013 a ti assume a operação das cargas de dados pelab contas né Eh o que que é isso né os o processo de de obtenção de dados Eh que que antes era de rooc né passa a ser gerenciado pela ti eh existe um reconhecimento muito grande da gestão pela da
importância do uso de dados no controle nesse momento aí né as cargas eram realizadas sistematicamente ou seja automatizada pela ti e a dgi passa a ter um outro foco em vez de cuidar de carga de dados a a dgi passa a se concentrar em produzir soluções ou produzir informações para serem que úteis para o controle tá apenas uma curiosidade eu entrei no TCU em 2010 né E quando eu entrei no TCU fui direto paraa ti e a gente observava um distanciamento muito grande entre o que era feito na de forma analítica o trabalho analítico feito
pela D Gi e o trabalho vamos dizer assim convencional corporativo feito com soluções de ti convencionais pelas equipes de auditoria né a comunicação se dava por troca de informações entre a a dgi e a equipe de auditoria exceto talvez a Pri que fazia algum trabalho específico né mas existia um grande distanciamento em 2013 tá com a com no momento em que a ti assume operação de cargas para pro pro Lab contas eu percebi claramente eu notei a importância e eu fui fui assumir essa responsabilidade Eu fui o primeiro chefe do serviço que era responsável pela
carga dos dados pro conta né que era o cepim E aí né Com esse reconhecimento na organização crescendo sempre eh já assim algum já a nível de de secretarias de controle externo né talvez não na alta cúpula mas a a consciência crescendo de cima para baixo surge na csex Previ o primeiro núcleo de dado né O que que é um núcleo de dados a gente tem ess usa essa nomenclatura um grupo de pessoas dedicadas com conhecimento e análise de dados focada para geração de informações ou trabalhos de controle externo com base em dados então no
caso da prev Eram quatro pessoas essas pessoas trocavam metodologias e e tecnologias entre si né e realizavam trabalhos simultâneos na na área de previdência assistência trabalho em parceria com os auditores que não tinham esse conhecimento de análise de dados né Eh esse trabalho gerou frutos né e em 2015 tem um outro marco super importante que foi a criação e a dentro da da dentro da da csex Previ da metodologia de fiscalização contínua né eles a CeC prev fez uma proposta de metodologia de auditoria baseada em dados de usos com uso sistemático de dados e continuamente
eh e o TCU comprou essa metodologia tá e com base nessa metodologia a gente teve vários e vários casos emblemáticos vários casos importantíssimos então eu trago aqui por exemplo o evento da fiscalização contínua na Previdência né esse número é de 2018 mas esse processo de fiscalização contínua começou em 2015 tá eh trouxe o dado 2018 só porque é o número que eu tinha mais fácil aqui para mostrar para vocês então na no caso da fiscalização contin da Previdência eh foram em 2018 foram fiscalizados 499 bilhões de reais tá e foram identificadas ir regularidades da ordem
de 954 milhões tá eh Observe o nome tá irregularidades identificadas o que acontece né uma irregularidade identificada a posterior que é o caso né Depois que ela já aconteceu é muito difícil de você reaver né Eh porque você tem que ir atrás você tem que validar requer muito esforço do órgão do INSS no caso e é muito difícil de reaver uma uma uma irregularidade que já aconteceu mas o fato de identificar a irregularidade permite melhoria nos controles internos de forma que esse problema não volte ou reduza a incidência eh no ciclo seguinte de fiscalização tá
outro caso eh emblemático é o caso de fiscalização da bolsa do bolsa família né fiscalização conta do bolsa família também de números de 2019 29,25 bilhões deais fiscalizados com irregularidades na ordem de 531 eh milhões de reais né Eh com as mesmas características do do da fiscalização contínua da Previdência também são irregularidades identificadas é um trabalho feito a priori mas eh a gente já viu al os resultados expressivos que a discão contínua trouxe a partir de 2015 né e outros benefícios além daqueles financeiros diretos lá é a questão da melhoria constante nos controles das políticas
com a internalização das tipologias que o TCU fez dentro do seu sistemas dentro dos seus controles internos né Eh eh nessa linha que a data prévia eh apresentou pra gente que era executora a a empresa de governo responsável pela execução do sistema de benefícios né o sistema da Previdência então a data pré apresentou não me lembro exatamente o ano acho que foi por volta de 2018 um relatório onde ela destacava a a melhoria dos sistemas internos eh e com com a a a identificação de irregularidades antes do pagamento do benefício a partir da incorporação das
tipologias do TCU eh nos seus procedimentos né então fica claro que o benefício não só não é maior não é identificação e sim a correção futura para evitar que os problemas aconteçam voltem a acontecer coisa eh trabalho similar eh motivado pela fiscalização contínua em 2018 eh no ministério de desenvolvimento eh foi feito um pente fino no no Car de único e bola família a partir das informações passadas eh pela fiscalização contínua da do bolsa família né em eh em 2016 continuando a nossa jornada aqui né a gente tem a chegada dos Robôs a gente fala
eh o lançamento de alguns robôs importantes como robô Alice n um boou que é conhecido aí na na eh no meio de controle né é um foi foi um é um produto feito eh desenvolvido inicialmente pela pela CGU que o TCU incorporou e depois fez algumas evoluções do ponto de vista do TCU tem o seu hoje o TCU tem o seu próprio Alice né que é a análise automática de licitações já gerou um benefício enorme identificando irregularidades e licitações a partir de de de de dados do ComprasNet ou dados do eh eh do dos dos
editais lançados né nos no nos jornais oficiais né Eh em 2017 a gente teve o primeiro tentativa de uso de de de um o algoritmo supervisionado para identificação de de risco em fraudes no risco de fraudes no seguro desemprego né Esse foi uma iniciativa que fez rodou uma vez não foi adiante mas em 2019 a gente lançou o robô Agata né para identificação de licitações eh por análise textual em em em no no Diário Oficial tá eh em 2019 né a gente chega um momento de consolidação dessa dessa questão da as fiscalizações contínuas dos núcleos
de dados né Eh com com espalhamento disso para todo praticamente todo ou pelo boa parte e das secretarias de controle externo né tinha núcleo de dados na Previdência na no trabalho na área de pessoal na área agroambiental na área de educação e na área de saúde com fiscalizações contínuas de benefícios previdenciários benefícios assistenciais benefícios trabalhistas e folha de folha de pessoal e no sistema ess quer dizer a metodologia já tava se disseminando ela foi comprada realmente eh e e está se disseminando no entre todas a secadeira do tribunal né E aí mais um Marco super
importante eh em 2020 que foi o lançamento da portaria do modelo de governança do Lab contas né Eh nessa oportunidade né o Lab contas já tava com 90 base de dados com 748 usuários maioria desses usuários extern ao tribunal eh no dos dos tribunais de contas parceiros de estados e municípios outros órgãos parceiros a própria CGU eh um volume de dados de 80 tb né e espalhamento no Brasil inteiro né com dados de tcs e e tcms 27 tcs e tcms parceiros ou seja de fato uma das maiores bases de dados públicas né concentração de
dados públicos eh abertos colocados em comunidade do mundo né o eu já tive a oportunidade de conhecer algumas iniciativas de uso de dados em países desenvolvidos E são poucos os que conseguem ter algo eh dessa grandeza tá a a portaria de governança que foi lançado em 2020 trouxe algumas questões importantes primeiro definiu né formalmente o que que é de fato Lab contas que a definição que eles têm é eh que que elas que ela traz é uma plataforma de base de dados internalizadas em qualquer de uma de suas plataformas computacionais qualquer um dos seus meios
de armazenamento catálogo de informações ferramentas e soluções para tratamento e análise de dados destinados a das atividades de controle então a gente caracterizou o que que é hoje o Lab contona a gente não diz mais que apenas a base de dados é a base de dados mas o catálogo de informações e todas as ferramentas associadas Ah que estão disponíveis para os nossos parceiros para nós o TCU e os parceiros também estabeleceu princípios importantes né Ou seja é a concretização um documento formal né uma portaria né da importância do valor da informação para organização então estabelecer
o princípio do valor estratégico da informação princípio de qualidade de dados e informações padronização e racionalização de de de informações e processos amplo uso a ideia do La contas é ser uma ferramenta de amplo uso colaboração colaborativa também disponibilidade integridade e confidencialidade os parâmetros de segurança e os seus objetivos né principal garantir em quantidade e qualidade tempestividade suficientes os insumos de informação necessários ao cumprimento da missão institucional TCU então [Música] Eh com isso a gente tá vinculando diretamente o uso do dado a missão institucional né então a gente tem um reconhecimento aqui de que isso
é é fundamental pro atingimento da missão institucional do TCU fomentar o intercâmbio de informações com instituições públicas privadas e com sociedade observad as regras de classificação informação disposição ou seja os cuidados eh normais né e proporcionar também um ambiente de exploração de dados para uso intensivo de tecnologia ativos de informação por todos os parceiros inclusive e nós também né TCU também e na linha da governança alguns conceitos fundamentais para assegurar a qualidade do dado que é o conceito de unidade gestora no caso é a eu faço parte hoje dessa unidade que faz a gestão do
Lab e contas né Eh o conceito de unidade custodiante e provedora que no caso hoje claramente a ti Faz esse papel de custodiar e PR os dados PR a infraestrutura para os dados e o conceito fundamental de unidade curadora o que que é isso é aquela unidade dentro do da organização que conhece o dado conhece as regras de negócios negócios associad aos dados e tem a responsabilidade de acompanhar a carga eh a qualidade desse dado e a a continuidade da utilidade desse dado quando o dado não for mais útil por exemplo ela tem essa responsabilidade
de mandar eh eliminar aquele dado da da base porque ele não não tem mais utilidade né pode acontecer então o conceito de unidade curadora é fundamental toda a base do tribunal tem uma unidade curadora que é responsável por esses princípios aí qualidade eh disponibilidade se o dado tá eh correto se a carga foi feita corretamente se tá tempestivo né Eh e a portaria estabeleceu as responsabilidades de cada uma dessas unidades aí mas aí vem né em 2020 também mas o questão do coronavírus né vem a questão da calamidade pública e as pessoas começam a ter
que trabalhar remotamente né e o que poderia ser assim um desastre né foi um desastre de fato mas eh foi uma tragédia mas essa tragédia como outras tragédias aconteceram na humanidade motivaram a principalmente digo nosso no caso do TCU né a se organizar para trabalhar de forma mais efetiva até porque a gente não podia parar né numa situação de calamidade como essa do do do coronavírus a gente tinha que continuar atuando junto com os gestores para garantir que os recursos estão sendo bem aplicados e que e que de forma eficiente efetiva né para combater a
pandemia então a gente não podia parar isso motivou a gente a trabalhar ainda mais e em 2020 nós tivemos eh um um GT um grupo de trabalho que chamamos de procedimentos remotos em auditoria o que que foi isso a gente reuniu as pessoas que conheciam aí o tema né Eh e estabelecer temos boas práticas de trabalho remoto a cultura remote first né para poder viabilizar a o trabalho remoto propriamente dito nas reuniões reuniões remotas a comunicação remota né H uma estratégia de automação processo de aitoria com foco no trabalho colaborativo remoto então para que a
gente não perdesse [Música] ess uma interrupção no nosso trabalho a teve que investir nisso e muito importante intensificação das localizações contínuas e uso de a também uso de dados nas nas auditorias então impulsionados né Por esse esses resultados do grupo de trabalho eh uma das consequências eu diria o talvez eh um um movimento paralelo que aconteceu também foi esse que foi o programa copera que que rodou aí entre 2020 2021 que era uma mudança de pouco de paradigma né Eh do da ação do do TCU o TCU passa a atuar aí mais como menos como
polícia né menos policialesca né Mais colaborativamente com a gestão tentando eh identificar dados eh bem tempestivamente para que a ação pudesse colaborar com a efetividade das políticas públicas de forma mais intensa né tudo isso comando a maximizar O Retorno paraa sociedade naquele momento tão difícil a gente tem nesse programa duas fiscalizações eh relevantes que chamaram bastante atenção a primeira foi a a do benefício emergencial né aquele benefício que foi eh concedido aos empres aos empregados eh formais né que tiveram a a carga horária reduzida ou que eventualmente até eh precisaram ficar sem trabalhar né durante
um período eh e diferente do que é era o comum né a gente eh conseguiu por meio de parceria com auditado no caso aqui o ministério da da economia né Eh acesso muito tempestivo ao dado né podemos rodar nosso nossas tipologias muito cedo e passar o resultado pro gestor o que que analisou os resultados e incorporou essas eh tipologias no seu sistema que estava nascendo um sistema novo era um programa novo então ele já foi incorporando essas tipologias no seu sistema E aí a gente passa a ter irregularidades evitadas desses 300 47 milhões de reais
de resultado muitas dessas irregularidades foram evitadas porque a gente teve acesso à informação antes do pagamento e pode evitar o pagamento eh assim que o benefício era concedido quando não acontecia isso no próximo ciclo já existia uma uma recuperação do valor o mesmo aconteceu no auxílio emergencial aquele auxílio que foi dado paraas populações paraa população sem eh sem atividade formal né o orçamento nesse caso fiscalizado foi de 288 bilhões com irregularidades evitadas ou identificadas a sua maioria evitadas na ordem de 100 milhões eh de reais tá depois ainda nesse impulso dado aí pelo pelo GT
do trabalho remoto né Eh nós tivemos o primeiro caso de uso sistemático de Inteligência Artificial não ação de controle externo que foi análise de atos de pessoal né uma uma obrigação constitucional do tribunal muitos tribunais eh também de contas estaduais todos os tribunais de contas Estaduais na verdade tem essa obrigação também que é fazer a a a a verificação dos atos de de de admissão de pensão né de de aposentadoria para verificar a regularidade né então eh eh Passamos a partir daí analisar os atos mas com maior risco de irregularidade por meio de Inteligência Artificial
aí eu trago esse quadro aqui que que mostra como que que evoluiu a nossa atuação em cima de de atto de pessoal né até o segundo eh quáter né o segundo trimestre de 2020 a seleção do que atos a gente iria analisar que são muitos atos que são gerados e não há condição eh humana de analisar todos né Ah esses atos eram selecionados para análise de forma aleatória então a a taxa de irregularidade Dentro os atos variava entre 1 e 2% o que que quer dizer de 100 Atos que o auditor analisava no máximo dois
atos de pessoal tinha algum tipo de ir regularidade ou seja precisavam de ser feito alguma coisa os outros 98 eram regulares e não tinha nenhum problema então o auditor gastou seu esforço para constatar que não havia problema noá né Eh quando a gente sabia que existiam muitos Atos com problema que estav acab acabavam passando Sem Análise né e depois dess desse período aí iniciou-se um período que a gente começou a fazer análise eh manual seleção de risco manual né manualmente a gente selecionava alguns atos olhava fazer uma análise de risco Ah vou analisar esse aqui
porque tem mais risco do que esse mas de forma manual eh em no primeiro quarto no primeiro trimestre de 2021 a gente chegou com a um pico coma abordade de 30% de irregularidade o que é que isso por que isso né porque esse pico porque foi identificado nesse momento aí uma situação específica muito fácil de ser percebida a a olho nu que gerava uma irregularidade e a gente já começou a atuar nesses casos aí depois esses casos sumiram e voltamos Voltamos com uma média de 6% então entre 6 a 12% seria o máximo que a
gente conseguiria de efetividade eh escolhendo os datos mesmo que fossem os atos mesmos que fossem por risco né de forma manual eh quando a gente adotou o modelo de a treinado com base no histórico de apreciação de Atos para fazer essa seleção nós passamos para uma taxa de regularidade variando entre 64 61 até 72 por. algo nunca atingido antes então foi realmente um uma revolução quando nós começamos a usar a inteligência artificial eh para tomar decisão né no caso a decisão do que de que ato analisar eh muito bem né E então chegamos em 2023
O que é que o TCU tá fazendo ou pensa em fazer para continuar sua jornada né a gente sabe que a gente ainda não tá não é uma organização dat driven né mas a gente precisa fazer alguma coisa para chegar lá né antes de analisar a situação o que que o TCU tá fazendo eu queria chamar atenção Para uma coisa talvez já tenho visto uma figura parecida com essa que fala de processo e de dados de pessoas eh para melhoria de processos otimização de processos né a tem que pensar nessas três dimensões sim de fato
e vocês observaram que para caminhar no sentido e da cultura data driven né a gente teve que investir em processo de trabalho exemplo clássico a metodologia de fiscalização contínua né que a gente adotou investir em dados investir em tecnologia né trazer as técnicas trer as ferramentas para na mão das pessoas para elas poderem usar principalmente os dados Lab contas tem um papel fundamental aí e isso foi crescendo ao longo do tempo a cada passo que a gente ia dando a gente tin investir em uma dessas dimensões aí não adiantava a gente investir em uma uma
dimensão específica que a gente não conseguiria nosso resultado a gente precisaria investir nas três e outro eh fator importantíssimo que são as pessoas de organização organização de respeito a como essas pessoas estão organizadas para gerar os resultados e outras outras questões diz respe as pessoas em si né questão de capacitação formação questão da cultura das pessoas abertura uso do dado né então tud todas essas dimensões e nós percebemos que havia uma outra dimensão comum a tudo que era importantíssimo que é a questão da comunicação se você pretende fazer uma mudança de Cultura você precisa comunicar
muito bem você precisa passar a mensagem você precisa jogar Os Casos de sucesso né na mão das pessoas precisam ver esses casos você precisa comunicar as iniciativas de capacitação que existem as novidades no processo de trabalho novidades na tecnologia então comunicação é uma dimensão importantíssima pro avanço da Cultura a gente eh tomou mais consciência disso mais recentemente e estamos fazendo no tribunal é um investimento muito grande na comunicação eh para avançar mais e mais e aí voltamos aqui pra nossa pra nossa jornada né O que é que o TCU eh como que o TCU está
se se estruturando né como que a gente eh vai se organizar como que a gente vai trabalhar primeira questão na dimensão pessoas eh pessoas e organização tá eh recentemente a CG que é a unidade do tribunal da área fim né que é aquela de fato que realiza as atividades de controle externo passou por um processo de reestruturação e se organizou em em seis grandes Vertentes de atuação né E isso possibilitou um investimento também na formação de núcleos de dados temáticos em todas a as áreas de atuação do tribunal né antes os núcleos existiam em um
tema específico eh nem nem todos nem todos os temas aí tinham eh núcleo de dados com essa organização a gente conseguiu criar núcleo de dados eh em todas as as unidades né mas é mais do que isso a gente criou um estratégia de coordenação entre os núcleos que nunca houve né a gente nunca eh teve uma uma rede de troca de informações entre os núcleos de dados essa essa rede de de troca de informações acontecem sobre gestão sobre coordenação sobre eh eh acompanhamento eh da questão da da troca de informação da governança eh a sobre
a liderança da ceinc né que hoje eu estou faço parte daidade faz parte da da ceinc né A ceinc além de coordenar essa rede dos núcleos de de definir as linhas mestras da da política de governança das da ação dos núcleos de dados Ela também tem um papel de fazer a interface com a ti né facilitando o diálogo de todas as nossas Áreas Aí de todos os núcleos de dados com a ti a ti também atenta a a evolução né do da do da tecnologia criou né também nesse ano um núcleo específico para trabalhar com
o ia né especificamente com EA generativa né então a gente tem hoje um grupo de pessoas especializadas a generativa que tá analisando as opções disponíveis o chat GPT outros outros modelos de linguagem e outras questões generativas também eh Para apoiar e nós fazemos essa Interface para levar esses conhecimentos essas técnicas Essas tecnologias para as pessoas eh nos núcleos de dados que t a missão de disseminar eh esse conhecimento e esse essa cultura de uso de dados né entre as diversas as diversas unidade do tribunal né são pessoas nos núcleos já experientes com uso de dados
né e o papel principal dela é disseminar essa cultura aí tá outra coisa outro investimento eh muito importante que a gente tá fazendo agora eu havia comentado com vocês né que havia uma certa separação entre os processos de trabalho do controle externo e os processos analíticos né os trabalhos de análise de dados e tudo mais como é que funcionava essa interação existia uma interação o pessoal que trabalhava com dados passava informação pro pessoal eh que fazzi os processos de trabalho básicos de controle externo e eles eram usados sim mas não é exatamente isso o que
a gente quer o que a gente quer é uma aproximação completa desses dois processos a gente quer que o processo de trabalho externo Contemple os processos analíticos na sua essência n então precisa ver de fato essa aproximação o núcleo de trabalho o núcleo de de dados tem um papel importante nessa aproximação por isso que ele tá distribuído daquela forma né sobre a nossa coordenação e É nesse ponto que a gente quer fazer que a gente quer trabalhar na linha de de de dados e tecnologia aquele núcleo de de ia que foi recém criado no tribunal
já entregou alguns produtos tá por exemplo a gente entregou eh esse produto aí que é o chat TCU a gente chama de chat TCU o que que é o chat TCU o chat TCU é uma Interface para um modelo de linguagem do do do tipo chat GPT é é uma versão do chat GPT só que esse essa versão do chat GPT roda na nossa infraestrutura que nós temos contratado com a Microsoft isso endereça algumas questões importantes de de proteção de de de de do uso do dado que a gente tá colocando eh no no modelo
né não é um não é um modelo público assim como por exemplo o chat GPT da openi é um chat GPT próprio eh da rede do tribunal então com essa ferramenta aqui que tá incorporada no nosso teams né você vê que esse aqui é o teams da gente né ela já tá incorporada aqui no teams é possível fazer perguntas eh montar prompts eh sobre trechos de documentos né E e ter respostas sobre documentos e a gente tá usando essa ferramenta para primeiro experimentar as opções identificar a oportunidade de uso eh de ia no nosso trabalho
né Eh e também de desmistificar tá então quando a gente abre para todo mundo usar essa ferramenta aberta para todo mundo no tribunal usar a gente desmistifica um pouquinho a questão do uso da ia eh e aproxima também eh as pessoas dessa nova realidade tá eh um outro investimento em tecnologia que a gente tá fazendo é uma eh encomenda tecnológica que nós temos com o grupo neuromind eh neuromind eh que ganhou essa esse essa encomenda tecnológica esse processo de de de contratação do estilo encomenda tecnológica e o objetivo desse trabalho desse projeto é usar a
llms e a genet rativa eh na geração de semiautomatizada de instruções então eles estão investindo em em entender as bases de dados do tribunal como que a gente pode usar modelos eh grandes modelos de linguagem né para entender os os dados do tribunal e gerar instruções sem automatizadas é um trabalho grande é um grande desafio por isso que foi feito no modelo de encomenda tecnológica e também na linha de dados e tecnologia é um grande investimento que a gente tá fazendo na linha de aproximar a os processos analíticos dos processos de controle externo é essa
estrutura de plataforma que a gente tá vendo aqui primeiro aqui embaixo não sei se vocês estão vendo aqui o meu mouse eh nessa parte de baixo aqui nós temos uma plataforma única de tipologias e alertas né e eh tá trabalhando fortemente nisso aqui antes os núcleos de dados geravam suas tipologias e alertas nas suas bases próprias e eles usavam essas tipologias e alertas para uso próprio né na no seu tema né então tipologias de previdência era usad na Previdência tipologia da Saúde eram usadas para a saúde no momento que a gente eh junta todas as
tipologias numa base única a gente pode criar modelos de risco em cima dessas tipologias e criar riscos a visão um pouco mais holística de diversas funções de governo de diversos órgãos né alimentar isso a partir de modelos eh de a ou modelos especialistas ou qualquer tipo de ou algoritmos específicos montar uma base de riscos e nós estamos investindo também na criação dessa base Central eh de riscos que seria a base da nossa nova plataforma de controle muitos de vocês devem saber o nosso sistema que é o nosso sistema de processualística que é o etc a
gente tá investindo agora num sistema que não é mais apenas eh processualística é um sistema de fato de apoio ao auditor que vai usar Ter como base todas as informações geradas eh por as plataformas de tipologias alertas os sistemas que geram riscos todos os riscos históricos de risco gerados para alimentar toda essa informação na mão do editor fornecer essa informação na mão do editor na hora que ele mais precisa integrando os processos analíticos os processos de controle externo de forma definitiva Então não vai haver mais uma sep ação os auditores vão ter acesso online a
todas as informações que todos os núcleos produzem Esse é talvez o grande investimento que a gente tá fazendo agora nesse momento em termos de tecnologia e um Novo Movimento que a gente tá fazendo também que é uma questão até de uma mudança de paradigma da atuação do TCU eh vem por meio de uma parceria que a gente tá estabelecendo com o ministério gestão e informação por meio do conecta Golf BR né Qual é a ideia aqui Aquela nossa plataforma única de tipologias elétricas que eu falei no slide anterior vai alimentar né uma API que vai
prover aos órgãos aqui são os órgãos da administração né informações sobre tipologias que eles só seriam alimentados a posterior né são eles iriam executar política e depois a gente iria eh rodar a tipologia o TCU né e a gente iria passar olha isso tá errado isso tá errado no máximo ele poderia eh eh corrigir lá sem fosse muito tempestivo né como aconteceu na época do do copera corrigir lá um lançamento errado e evitar um pagamento né mas aqui a proposta é no ato da concessão do benefício ou no ato do no ato da execução do
ato de admissão ou do ato de pensão por exemplo né o o o órgão acessa a nossa o meio da pi tem acesso à nossa tipologia recebe informação sobre a um um potencial problema recebe um alerta sobre aquele potencial potencial problema naquele benefício ele tem ah na sua mão e na sua gestão também eh a opção de fazer um trabalho de investigação um pouco maior ou um trabalho de análise um pouco maior quando ele tiver um alerta vindo do tribunal né então isso aqui não quer dizer que existe um erro a gente tá só sinalizando
olha tem potencialmente um alerta sobre esse benefício o recomendado é que você olhe um pouco mais atentamente para esse dado Isso vai trazer muita ade pra gestão isso vai eh trazer muito benefício porque a gente vai estar identificando situações regulares antes da concessão de qualquer política e é uma mudança de paradigma na forma né uma evolução naquele processo que a gente saiu da fiscalização contínua convencional que era totalmente a posteriore quando a gente vai para o Coopera com uma fiscalização contínua mais ou menos concomitante ali né Eh ainda um pouco a posterior né mas já
melhor porque já consegue evitar os pagamentos para esse modelo aqui que é totalmente a priori né e a gente dá uma uma evoluída muito grande na nossa interação com as com com os gestores muda o nosso paradigma muda a forma que a gente enxerga o dado muda a forma como a gente usa o dado e tem muito potencial de benefício aqui é claro que a gente vai fornecer informações para aqueles dados que a a gestão não tem por exemplo os dados dos Estados são importantes para algumas políticas e a gestão o Executivo não tem essa
informação né Eh Então é isso né Eh aqui em 2023 eu diria que essa estratégia de governança associada essa questão dos processos de trabalho Seria um grande Marco de 2023 né vocês observam aqui pela figurinha que a gente não tá ainda aqui na bandeirinha né E talvez a gente não esteja nunca nunca chegue né Mas vamos lá sugestões que eu daria para quem quer iniciar uma jornada data driven como essa do tribunal primeiro importante ter consciência sobre a necessidade de tomar decisão com base em datos é necessário saber dos benefícios eh e ter consciência sobre
isso depois é muito importante ter o comprometimento da autoadministração o reconhecimento disso pela autoadministração e uma boa estratégia de comunicação Eh esses dois elementos são fundamentais e você precisa investir nas pessoas na capacitação das pessoas na cultura das pessoas nos processos e nas tecnologias tá e E aí uma mensagem e final aqui a gente eu até comecei a adiantar essa mensagem a gente entende que o TCU não é ainda uma organização data driven isso pode ser uma coisa boa porque se a gente entendesse que já é uma organização data driving a gente ia parar de
fazer as melhorias no nossos processos na na nosso investimento nas pessoas a gente ia parar eh de evoluir Nossa tecnologia parar de investir então a gente entender que sempre existem novos passos para serem dados também é muito importante e eu vou já tô caminhando aqui pro pro término tá da minha apresentação e eh eu vou trazer uma curiosidade aqui tá eu não sei se vocês repararam nessa figurinha aqui que apareceu nesse slide da pista aqui do nosso da nossa trajetória da nossa jornada né Eh esse essa figurinha aí tá eu vou usar essa figurinha como
exemplo pra gente ficar atento às mudanças que estão por vir eu gerei essa figura daí eu não desenhei essa figura eu pedi para um modelo generativo de né usar como como inspiração o icon TCU e adicionar braços e pernas para dar uma impressão de que ele estaria correndo né já que a tá falando de jornada né e eu pedi isso para I generativa ela me deu uma série de opções eu gastei 5 minutos entre fazer o upload do a gente ia baixar o ícone TCU fazer o upload do ícone TCU e e fazer o o
comando né Fazer o prompt que que é o comando que gente passa para iagem narativa 5 minutos eu gastei ela me deu esse resultado aí eu podia ter um resultado melhor você vê que o dedinho aqui não tá muito bonitinho tem uma falaz inha aqui e tal eu podia ter feito investimento maior aqui ter tido uma imagem quase perfeita eu não quis quis me deter aqui nos 5 minutos e aí eu lanço a provocação observa o impacto que essa tecnologia tem por exemplo na área dos designs né o que que vai acontecer com os profissionais
de design que não se adaptarem a essa nova realidade né e e a gente faz agora a transposição disso para os nossos gestores públicos pros auditores do TCU da tgu o que que vai acontecer com os auditores que não se adaptarem às novas realidades que são possíveis com os grandes modelos de linguagem generativas né então é uma provocação eu deixo aqui o meu Obrigado a todos os estão assistindo a palestra deixo meu Obrigado aqui a organização pelo convite deixa o meu e-mail aqui e então é isso gente muito obrigado luí nós aqui agradecemos pela por
você compartilhar sua experiência uma palestra fantástica extremamente rica e extremamente provocativa também eu diria luízo eh vou lembrar a aos que estão nos assistindo pelo YouTube que vocês podem fazer perguntas pelo chat aproveitem para questionar trazer trazer dúvidas aqui pro Aluísio e a gente já tem uma pergunta do Anderson Ribeiro que é a seguinte o chat TCU usa o serviço da azure Open ai se sim como foi tratado o fato de esse serviço ainda não estar hospedado em data center localizado no Brasil essa é a primeira pergunta do Anderson tá ótima pergunta né Eu acho
que eu cheguei a comentar alguma coisa nesse sentido mas o chat TCU não usa a a biblioteca Open ai aberta pública Eh que que que tem uma série de questões relativas a sigilo que a gente tem que estar atentos o xat TCU usa uma versão do modelo na nossa nuvem aure que a gente tem contratada com a Microsoft então o que que a Microsoft faz quando a gente contrata esse serviço ela faz uma espécie de de cópia do modelo da versão lá do TCU joga na nossa área específica que é só tem acesso só nós
do TCU temos acesso Então esse modelo ele ele continua aprendendo Med que a gente vai fazendo as perguntas mas ele é só disponível para o TCU então ele não está aberto ao público com isso a gente evita uma série de questões de de sigilo de de preocupações com com com vasamento de informações e tudo mais tá então é nessa linha que a gente tá atuando Obrigado alísio eh eu tenho uma pergunta minha aqui que é um pouco mais geral você abordou um pouco mas eu queria que você que você entrasse um pouquinho mais na seguinte
questão quais na sua opinião Quais são os erros que devem ser evitados pelos órgãos que estão iniciando essa jornada porque você começou teu slide fala de 2006 é gente tá em 2023 e é muito interessante que você fala nós ainda não somos uma organização totalmente data driven eu acho que essa é uma visão inclusive muito madura do seu vamos pensar em quem tá ali em 2006 2007 2008 Quais são os erros que às vezes vocês cometeram que eles Você pode falar olha evite esse e esse erro eu diria o seguinte o principal erro eh a
gente cometeu esse erro tá eh foi acreditar que tecnologia era suficiente então determinado momento da nossa trajetória a gente investiu numa ferramenta pesado investiu pesado numa ferramenta o sas né Eh acreditando que ah a ferramenta tem lá uma interface use você vai colocando as as caixinhas vai fazendo modelos e tal a gente acreditou que com isso a gente ia conseguir eh disseminar o uso colocando a a tecnologia A gente ia dar um grande salto com com no uso de dados lá lá atrás e a gente observou que não aconteceu esse grande salto eh a ferramenta
foi usada mas foi usada por um grupo pequeno de especialistas eh aquela aquela premissa que a gente tinha de queo disseminar não aconteceu a gente não não Preparou a casa para isso a gente não não segui um caminho de de de preparação das pessoas de convencimento então a gente saava tinha um momento de certo ceticismo ainda sobre o uso da tecnologia naquele momento que a gente trouxe tecnologia então não era o momento Então olha o momento que vocês estão e temam certeza tecnologia apenas eh não é não é o mais importante você tem que investir
em todas as dimensões você tem que estar preparado você tem que eh gerenciar muito bem a sua comunicação para que ao você colocar uma ferramenta disponibilizar a ferramenta essa ferramenta seja de fato utilizada por sua organização luí aproveitando esse teu comentário eu acho que Inclusive a gente tá E aí já vou fazer uma segunda pergunta mas eu acho que a gente tá num momento eu diria um pouco perigoso nesse para esse viés com a inteligência artificial que ela pode nos tornar preguiçosos ela pode nos tornar cara a tecnologia já vai fazer tudo para mim eu
acho que é um ponto que que a gente precisa tá muito atento porque muito do que você falou eh você conseguiu você conseguiu criar o o mal logo muito rápido eh então assim a a ia vai ajudar muito a gente mas ela não vai fazer tudo e a gente precisa eh se preocupar com isso eh uma outra pergunta bem mais geral a luí eu queria que você falasse um pouquinho dos principais desafios Que Vocês encontraram nessa jornada o um dos principais desafios a questão relacionado com a formação preparação das pessoas né Eh e a gente
conseguiu a gente foi andando a Passos eh pequenos né pequenos Passos ao longo do tempo por causa principalmente por causa disso a gente precisa precisava criar uma massa crítica primeiro de profissionais com lamento e análise de dados é preciso ter uma certa massa crítica de profissionais com capacidade de trabalhar os dados de fazer SQL de analisar de cruzar eh de interpretar né É preciso ter se você não tiver você não consegue naquele momento lá atrás em 2006 a gente só tinha um pequeno grupo foi o que a gente conseguiu fazer então a medida que a
gente vai investindo nisso E como que o TCU vem investindo nessa formação dessa massa crítica de pessoas com expertiz eem análise de dados primeiro formação por meio do nosso Instituto Ciro Correia né que é patrocinador também aqui do evento né que que é apoiador do evento desculpe eh a gente vem promovendo cursos voltados para análise de dados mais recentemente aí a gente criou uma trajetória de análise de dados né um sequência de passos que a profissional vai seguindo com diversos níveis ele pode parar ele pode escolher parar em um determinado nível não precisa atingir o
nível de experto mas ele pode espar eh parar em algum momento ess Essa trajetória é bem divulgada dentro do tribunal Inclusive a trajetória de análise de dados no tribunal hoje a trajetória com mais pessoas que aderiram a ela né Eh isso vem é fruto também do processo de comunicação da importância disso aí então essa é uma linha formação que o órgão pode trabalhar tá certo a outra linha eu eu diria é na atração de profissionais o o tribunal ele de uns tempos para cá nos seus concursos vem a cada cada vez mais introduzindo nos concursos
de seleção questões referentes eh temas referentes a análise de dados é cada vez mais com um pouco mais de de intensidade né então isso vem atraindo profissionais no a turma nova que tá chegando ao tribunal aí esses últimos concursos a grande parte deles vem chegando com conhecimento e análise de dados né O que é tem sido muito bom para renovar né o nosso o nosso time renovar o nosso espírito mas não é só o esse corpo crítico de analistas aí com experiência em análise de dados que é importante não é importante que H os demais
todos os demais servidores do órgão no caso do TCU tenham consciência e entendam minimamente como apretar um dado como analisar um dado Como ler um painel né então esses essa outra linha de Treinamento capacitação e conscientização muitas vezes é mais conscientização do que qualquer coisa é também muito importante e a gente vem tá vendo fazendo um trabalho nesse sentido né É claro que não é perfeito A gente ainda não tem 100% de aderência né não a gente não não tá nesse ponto a gente não tem 100% de pessoas trabalhando em dados não tem e estamos
longe disso né mas a gente já tem um bom contingente tá então acredito que são dois dois pontos aí eh importantes na formação das pessoas tá não sei se eu respondi a sua pergunta se tem mais aluma questão que você quer trazer respondeu sim Aluísio E aí conectado com isso o Fábio quares perguntou aqui essa trilha capacitação e análise de dados é aberta a servidores de outros órgãos a trilha especificamente não porque a trilha ela avisa classificar o servidor do tribunal em diversos níveis mas os treinamentos específicos que os que estão contemplados nos materiais da
trilha né Eh sim são abertos eh é claro que os profissionais do TCU que estão na trilha quando a gente lança um a gente vai vai lançando os treinamentos à medida que a gente vai evoluindo na tr TR depois a gente retoma ao nível para trás um pouquinho e tal é claro que as pessoas do tribunal T preferência né Eh para Principalmente as pessoas do tribunal eh que estão na trilha e precisam de um determinado treinamento para subir na trilha né Eh Elas têm preferência Mas normalmente is não esgota as vagas então eventualmente sobra vagas
eh seria bom de vez em quando dar uma olhada na na na lista de cursos disponíveis do do Instituto para ver se tem alguma coisa né então nós temos treinamentos na hora de SQL treinamentos de básicos de análise de dados temos treinamentos avançados ainda por vi a gente não não fez ainda nenhum treinamento mas tem um treinamento avançado de de de análise preditiva tá então tem muita coisa interessante lá no instituto ótimo alí uma outra pergunta que eu tenho para você eu acho que você abordou um pouco isso na na sua palestra mas a gente
você menciona assim de de lógico as áreas dentro do do tribunal Elas têm diferentes níveis de maturidade eu queria que você falasse um pouquinho sobre esse avanço na sua avaliação esse Avanço No seu das diferentes áreas do tipo área de TI área de negócio gestão e também se você acha que é possível que uma organização consiga evoluir significativamente para ser mais data driven Se houver uma maturidade alta e disposição de adotar análise de dados só em uma dessas áreas só na ti ou só na gestão ou só no negócio não não se se se a
coisa ficar eh restrita a ti a coisa não vai avançar né E também e eh como aconteceu se ficar restrita a área de negócio ela também não vai avançar a gente começou na área de negócio a gente não começou na ti a gente começou na área de negócio Talvez seja a melhor forma de começar mas em determinado momento a gente teve que trazer a para junto né teve que que que convencer de certa forma convencer porque naquela época Ainda não era tão Óbvio assim que tomar decisão poro que pareça né tomar a decisão com base
de dados é importante mas houve sim um processo de convencimento e a ti aderiu e também a aut gestão aderiu Então eu acho que todos têm que aderir s a questão de diferentes níveis de maturidade tem um tem tem uma situação que acontece no tribunal de fato a gente ao criar aqueles diversos núcleos né Eh a gente apesar de já ter profissionais com conhecimento de análise de dados técnica de análise de dados eh a cultura do uso nas diversas áreas ainda não tava disseminado igual a gente viu por exemplo eh na csex Previdência cuido da
Previdência a coisa já avançou um pouco mais né então o núcleo da área lá eh que que tem a Previdência incluída tá um pouco mais avançado vamos dizer assim né e outros Nem tanto mas foi o que a gente fez ao criar essa rede sobre a nossa gestão e sobre a nossa governança né a gente estimula a troca de informação entre eles então já percebe Ah um núcleo faz uma coisa interessante a gente capta essa essa essa essa iniciativa importante e a gente cria tem for a chama de BBT bate bola técnico né bate bola
técnico é uma oportunidade de um cara que fez uma coisa interessante e mostrar paraos demais eh aquela coisa interessante e isso disseminar eh dentro do dos núcleos com diferente nível de maturidade né E a gente tem feito isso isso tem sido muito interessante isso é uma coisa também que dá motivação para profissional porque ele se sente nesse profissional que que é assim vamos dizer fera né ele ele está muito menos preocupado em uma remuneração ou uma um reconhecimento que vem na forma de um sei lá o qu do que um oportunidade dele falar né então
quando ele tem a oportunidade de falar e demonstrar aquele conhecimento para ele muitas vezes a remunera essa essa esse reconhecimento é importante a gente dá o reconhecimento pra pessoa e compartilha o conhecimento Então essa é uma maneira bem interessante que nós temos visto lá para atacar Nessas questões Tá bom Tá certo al luí temos mais uma pergunta aqui que mais uma colocação para você se se posicionar em relação a ela do Robson Aguiar ele elogia sua palestra como várias outras pessoas estão elogiando acho que você não tá conseguindo acompanhar o canal mas tivemos vários elogios
aqui e a gente eh repete aqui os mesmos elogios tá isso e o Robson ele menciona que ele ele questiona uma área que esteja entre a ti e área de negócio vinculada à autoadministração não seria ideal para cuidar desse tema contando com pontos focais nas áreas de negócio e de ti é assim que ele coloca é pontos focar eu acho que pode ser uma abordagem interessante né um fazer um vínculo aí entre as duas né entre as duas né Eh a gente não foi por esse caminho a gente aproximou as duas né de fato a
gente não criou uma terceira a gente aproximou a área ti aproximou a área do negócio eh eu francamente eu não eu não não sei também veja bem a questão de como fazer depende da realidade de cada órgão né Eu acho que não há uma fórmula única para que vai servir para qualquer órgão depende da da situação depende da circunstância e eu acho que o colega teria que pensar né se há espaço para uma aproximação se não há se ele precisa de fato da intervenção do terceiro para promover essa integração o que eu acho que é
fundamental Tem que haver integração a forma como ele vai viabilizar vai depender eh da da cultura do órgão dele da da prática do órgão dele Aluísio acho que é isso não tô vendo mais perguntas no chat e as que eu tinha para fazer também acho que vocês já respondeu super bem então com isso eu vou encerrar a palestra E mais uma vez te agradecer em nome do Ministério da gestão e da Inovação em nome da semana dados BR agradecer muito o TCU e na sua pessoa lísio pelos insights que você trouxe pelas provocações que você
coloca e e por nos mostrar que realmente esse não é não é um caminho fácil é realmente uma jornada longa a gente tá em diferentes níveis de maturidade e e sabemos que podemos contar com TCU para nos ajudar nessa visão porque vocês já estão realmente num nível muito avançado obrigado obrigado a todos que nos acompanharam aqui pelo Canal um bom almoço a todos e daqui a pouco a gente volta para as próximas palestras da dado dado B obrigado muito obrigado também tá grande abraço a [Música] todos n