Eu levei quase um mês preparando o conteúdo que eu vou trazer para vocês aqui nesse vídeo. Nele eu fiz uma grande compilação e montei três diferentes planos de estudo para que você consiga sair do zero na inteligência artificial, caso se sintam perdido no assunto. Mas muito além disso, eu vou fazer uma recapitulação completa do mercado para que vocês entendam quem são os principais players e através disso você não conseguir compreender quais são as melhores oportunidades que existem aqui no meio e qual que é o caminho que eu mesmo tô seguindo por conta própria de estudos
aqui, aonde eu julgo que existem as melhores oportunidades, pelo menos nos próximos 5 anos. Seja você um desenvolvedor, trabalhe com finanças, um profissional liberal, funcionário público, um deve analista de dados, empreendedor, não interessa. Existe um caminho de estudo na inteligência artificial adequado para cada um de vocês. Eu vou apresentar eles aqui. Então, antes de te apresentar o plano de estudo e os diferentes perfis, eu preciso fazer uma recapitulação sobre o que que eu vejo como a economia da inteligência artificial. Quem já assistiu esse outro vídeo aqui do canal já deve estar familiarizado com essa estrutura,
mas mesmo assim eu decidi trazer de novo porque eu vou falar sobre um elemento que eu não tinha trazido no último vídeo, que seria esse bloquinho aqui do canto sobre as não generativas. A gente já vai chegar lá. Então como que eu gosto de enxergar a economia da inteligência artificial? Quem são os principais players? O que que cada um tá fazendo? Primeiro lugar aqui embaixo, eu gosto de ver isso aqui em quatro níveis, tá? aonde existem empresas e algumas entidades aqui que cada uma estão desempenhando papéis e fazendo coisas diferentes. Então, aqui embaixo, na primeira
camada, a gente teria os provedores de hardware, seriam as empresas que estão desenvolvendo semicondutores, os processadores, as placas de vídeos que permitam que as inteligências artificiais ã existam, vamos dizer assim, elas precisam rodar em algum lugar. E da forma mais básica possível, a gente tem aqui empresas como, por exemplo, a Nvidia, que seria a empresa principal aí provedora de GPU pro mundo inteiro. Todo mundo já sabe que ela tá aí valendo mais de, sei lá, a última cotação, 2 trilhões, 1 trilhão. Tô até por fora de do valor de mercado atual do Nvidia, mas ela
é o player central hoje, tomou bastante proporção nos últimos tempos. Mas também a gente tem outras empresas aqui, como por exemplo a Intel, fornecedora de processadores, a Grock, que seria uma concorrente bem como no começo, vamos dizer assim, bem pequena da Nvidia, eh, desenvolvendo alguns, algumas placas que permitem que a gente também rodeos de linguagem nela mais rapidamente. Teria MD, então seriam essas empresas que estão aqui embaixo fornecendo esse hardware para que a gente consiga desenvolver os nossos modelos de linguagem, os nossos modelos de inteligência artificial e rodar coisas aqui, tá? H, vocês, pelo menos
a recomendação que eu vou passar nesse vídeo, não precisam se preocupar com isso, tá? Todas as oportunidades e o plano de estudo, ele vai acontecer daqui para cima, mas é importante que a gente entenda essa primeira camada. A segunda camada, a gente tem os provedores de infraestrutura, ou sejam as nuvens, aonde a gente consegue alugar infraestrutura, a gente consegue alugar e rodar nossos modelos, rodar nossa nossas inferências, as nossas estruturas todas lá. A gente teria três grandes players aqui, que seria Google Cloud, Microsoft Eure ou AWS. Seriam os três grandes. E a imensa maioria da
infra do mundo está rodando aqui. Existem agora algumas iniciativas que estão que estão acontecendo de empresas que estão nas níveis acima também desenvolverem a sua a sua própria infra. Mas essas essas três aqui são são principais também. Não se preocupem com isso. A gente utiliza elas o nosso no desenvolvimento das nossas aplicações, porém o nosso conhecimento está aqui para cima, tá? E aqui eu tenho uma camada que seria a camada de quem desenvolve os modelos de inteligência artificial. Então essa aqui, por exemplo, é a grande conhecida do do momento, a grande falada, Open AI, dona
do chat E GPT. Mas a gente tem outros concorrentes aqui, como por exemplo Antropic, o Google aqui com Gemini, algumas outras menos faladas como Midjourne, Stability. Existem empresas que estão desenvolvendo os modelos em si e a gente também consegue consumir esses modelos de maneira aberta no Huging Face. Então, todos os modelos de inteligência artificial que vocês vem por aí são desenvolvidos nessa camada aqui. É quem projeta eles, é quem treina, é quem contrata os serviços aqui de baixo para poder alugar a infraestrutura deles por um certo tempo enquanto o modelo está sendo treinado para depois
comercializar com as etapas de cima, tá? E aqui no canto eu também coloquei outras entidades que também aparecem, que são, vamos dizer assim, universidades, são eh organizações às vezes não governamentais, são grupos de pesquisa, seria mais a parte de pesquisa em si, que também estaria nessa terceira camada, tá? E quem me acompanhou naquele último vídeo viu que eu parava por aqui. Eu não fazia essa distinção da direita. Eu simplesmente seguia aqui pra esquerda e falava sobre e as generativas. Ficava falava especificamente sobre isso, que seriam modelos de linguagem que a gente tem hoje em dia,
modelos de geração de imagem, modelos de geração de vídeo, modelos de geração de áudio, de transcrição de áudio. São todos modelos que são baseados em redes neurais e que tem essa característica que marca. vamos dizer assim, o hype da IA que começou lá em 2022, que seriam as suas capacidades generativas de gerar coisas. Então, toda vez que tu tá interagindo com algum modelo de inteligência artificial que fala contigo, que gera uma imagem, que tem essa capacidade de criar, aparentemente, ele é uma IA generativa, tá? E ele faz parte desse grupo aqui. Todo hype do mundo,
toda atenção, todo o dinheiro está majoritariamente indo para cá, tá? Então esse elemento aqui eu acredito que seja o mais importante. A gente ouve muito mais falar de Open AI, de Antropic, Gemini, notícias em relação a isso do que esta parte aqui da direita. Porém, eu coloquei ela aqui, eu acho importante a gente falar sobre isso, que existe uma outra divisão sobre inteligência artificial, que seriam os modelos não generativos, são os modelos de inteligência artificiais mais clássicos. Então eu, por exemplo, não sei se vocês sabem a minha história, já contei algumas vezes aqui no YouTube,
mas para quem tá chegando recentemente, eu sou de formação engenheiro químico e trabalhei como analista de dados no mercado financeiro por quase 10 anos. E toda a minha minha carreira foi feita utilizando modelos de inteligência artificial e programação aqui na direita. Eu não, eu não tinha tanto contato com inteligência artificial generativa. Eu tenho me tentado me especializar mais isso nos últimos 2, tr anos, mas toda a minha bagagem está aqui e ainda existe muito mercado aqui. Então eu já vou explicar melhor para vocês essa diferença. Então isso aqui seria a terceira camada. Que que seria
a nossa quarta camada? É são camadas empresas ou entidades ou organizações que estão usando as tecnologias que foram desenvolvidas aqui embaixo, tá? para poder construírem produtos que chegarão ao usuário final. Então a gente pode pensar, por exemplo, aqui, sei lá, no Photoshop, onde eles estão colocando ferramentas de a generativa para ajudar editores a editar imagens mais rapidamente, a corrigir pele, a gerar fundo. Então, o Photoshop está utilizando tecnologias aqui de stable diffusion ou dessas empresas aqui que geram elementos de imagem, entregam isso aqui pro usuário. Às vezes o YouTube pode ter um algoritmo de tradução,
o Instagram pode ter um algoritmo de geração de imagem, de criativos, o TikTok é a mesma coisa. E existem uma infinidade de empresas aqui que eu nem citei, como por exemplo a Perplex, como por exemplo todas as outras ferramentas de a que vocês ouvem falar por aí, o Hey Jen, que consegue gerar, vamos dizer assim, cópias virtuais minha, fazer traduções simultâneas. Existem muitas e muitas e muitas empresas aqui estão recebendo grande parte do dinheiro do mundo, porque o mundo tem interesse em poder saber o que que pode ser feito com inteligência artificial, como é que
a gente pode obter mais resultado com isso, tá? E aqui no canto das IA não generativas, eu até coloquei uma um pequeno desenho, porque essas Iás aqui, elas são de natureza diferente. Elas são IAS que são muito focadas e muito úteis para quem trabalha com dados, tá? Então eu, por exemplo, durante muitos anos, utilizei modelos de inteligência artificial que não tinham nada a ver com isso. Eram modelos de classificação, modelos de regressão que me ajudavam a fazer previsões de séries temporais, identificar alguns padrões em séries de dados. Toda essa gama de inteligência artificial aqui, que
é muito distinta entre si, ela é muito, muito, muito útil para qualquer tipo de profissional que trabalha com dados. E isso aqui, por mais que não esteja tão no hype quanto isto daqui, ainda tem muito valor e é muito útil. Então, é justamente aqui que eu vou começar o primeiro perfil. Quem é esse primeiro perfil? Ele é um usuário da camada 4, ou seja, ele está nesta camada aqui em cima. Ele trabalha com IAS não generativas. Isso aqui é muito, muito, muito útil se você trabalha no seu dia a dia com dados. Se você seja
uma, um analista de BI, um analista de dados tradicional, cientista de dados, trabalha no mercado financeiro, fazendo previsões financeiras dentro de alguma empresa, trabalha com marketing. O marketing hoje em dia ele é muito, muito, muito baseado em dados. Então, pensou em dados, em análise de dados, esse roadmap aqui, ele vai ser muito útil para ti. E antes de entrar no roadmap em si, só uma última pergunta: o que caracteriza um profissional ser da quarta camada e não da terceira? Eu optei em colocar desta forma por fins didáticos, porque eu acho que um profissional da terceira
camada, ele tem que estar preocupado em criar os modelos. Então é alguém que tá preocupado lá em como é que vai montar o chat GPT novo, vai mudar lá os blocos de atenção dentro de uma rede neural gigantesca, é a parte de uma de uma engenharia das redes em si, mas ele não tá muito preocupado com as aplicações práticas reais do mundo real, que empresas vão utilizar aquilo daquela forma, tá? A quarta camada, ela é uma camada de aplicação. Ele tá pegando o que já existe tecnologia do mercado e tentando trazer pro seu negócio, tá?
Então, justamente era o meu caso. Eu era lá um analista de dados do mercado financeiro. Eu pegava modelos prontos que já existia, tunava um pouquinho e tentava melhorar resultados do que eu já fazia, que no caso era trading, estratégias de trading. Então, se tu tá começando nesse mundo agora, qual o primeiro passo que tu tem que dar na minha opinião? Como vocês sabem, a gente aqui é um canal de Python, tá? A gente é uma escola de Python, na verdade. E eu acho que Python é a principal linguagem pra inteligência artificial. Não é só porque
a gente é, a gente monta a escola, é porque de fato é pesquisa em qualquer outro lugar, inclusive até comunidades que não t relação essa relação direta que nós temos com Python, porque Python ela é uma linguagem extremamente versátil, uma linguagem que tem acesso a principais bases, principais bibliotecas, os principais modelos para vocês fazerem qualquer coisa nessas camadas. Então, Python é ponto de partida para qualquer um desses três perfis, tá? Então, o que que vocês têm que fazer? Eu indico aqui que vocês estudem as bases da linguagem de programação. Então, a gente vai ter aí
lógica de programação, entender as bases do Python, os tipos de dados. Vocês tem que aprender aí números, controle de variáveis, listas, dicionários, if, else, for, while, funções, talvez programação orientada a objetos. Isso seriam as bases da linguagem de programação. A gente não tá entrando em nenhuma especificidade ainda, tá? E aqui embaixo eu também coloquei estudar pandas num pai e mat plot libas muito muito úteis para poder trabalhar com análise de dados. Então pandas ele é o Excel dentro do Python num Pai é uma biblioteca que te permite fazer operações matemáticas com mais eficiência e MPL
lib é uma biblioteca excelente para poder visualizar dados. E aqui vem a parte polêmica, tá galera? Porque eu tentei fazer um uma sugestão aqui, um roadmap com tempo estimado, mas assim, ó, é muito muito muito muito difícil conseguir fazer uma estimativa precisa. É algo muito individual, tá? Vão ter pessoas que vão pegar aqui Python vão conseguir saindo do zero, pegar essas bases aqui em um mês. Tem gente conseguir em duas semanas, tem gente que vai precisar de seis meses, tá? Então aqui é só um valor médio, supondo que vocês estudem aí por volta de 10
a 20 horas por semana, tá? Eu, por exemplo, quando eu comecei a estudar Python, eu já tinha boas lógicas de programação, mas eu consegui aprender o Python e consegui desenvolver os primeiros scripts, os primeiras coisas em uma semana de estudo. Mas assim, como que eu fui capaz de fazer isso? Eu estudei só o necessário para poder desempenhar uma pequena tarefa, tá? E é isso que eu tô dizendo para vocês aqui agora. Senão vão ficar craque no Python. Python é um estudo da vida inteira. Existem bibliotecas infinitas, dá para ir fundo em muitas e muitas coisas.
Vocês vão ver que vão ter bibliotecas daqui a pouco. Eu vou apresentar que só isso da biblioteca é mais do que tudo isso aqui de Python, mas essa base aqui, pelo menos a parte estrutural, eu acredito que cerca de 2 meses vocês já já conseguem, tá? E tudo isso aqui vai ser muito focado em dados. Próximo passo, vocês vão ter que estudar matemática. Existem quatro áreas da matemática aqui que eu acho que são essenciais para quem tá trabalhando com inteligência artificial, que seria probabilidade, estatística, álgebra linear e cálculo. E agora com certeza eu vou ser
xingado aí porque vai ter uma galera que vai dizer assim, é impossível estudar isso aqui em um, dois meses. E assim, galera, vou ser bem sincero com vocês, tá? Eu fiz faculdade de engenharia e durante a faculdade a gente tinha muitas cadeiras que que englobavam esses conceitos aqui. Então, probabilidade estatística era uma cadeira que durava 6 meses de estudo, álgebra linear 6 meses, cálculo, existiam dois cálculos, então era um ano de estudo. Então, em tese, isso aqui tudo deveria levar 2 anos de estudo. Só que assim, ó, 90% do conteúdo que vocês estudam na faculdade
sobre isto, probabilidade estatística, álgebra, cálculo, é 5%, vamos dizer assim, sobre a intuição matemática da coisa e 95% do tempo praticando a como resolver questões específicas com equações específicas que, sendo bem bem bem sincero, na prática não vão ajudar vocês em nada no resto da etapa. Por exemplo, na cadeira de cálculo, a intuição de cálculo. Lá na Zimov Academy, a gente tem um curso de matemática sobre cálculo, também tem um curso de áudio linear e probabilidade estatística. E todo esse curso aqui, ele dura 5 horas, se eu não me engano. E eu foco em passar
pros alunos apenas a intuição da coisa, a intuição que eu acho que é necessário para que vocês consigam compreender o resto. Na faculdade a gente passava seis meses resolvendo diferentes tipos de equações. Então, pô, aprendeu o conceito de uma derivada, aprendeu, aprendeu o conceito de uma integral. Agora vocês vão fazer exercício sobre derivar cada microequação. Qual a derivada de n x? Qual a derivada de nx sobre x? na x + 2y. Tinham regrinhas específicas que tu tinha que aprender para um conjunto gigantesco de variações que na prática no mundo real, desculpa matemáticos, mas era relativamente
inútil, porque o mundo real ele não é analítico, ele é numérico. Então a intuição ela é muito mais importante que vocês dominem ela aqui do que a parte exata da coisa, tá? Então eu acredito que de fato pegar a intuição da matemática aqui dá para pegar em um a dois meses focando nesses elementos aqui. Próximo bloco de estudos, machine learning clássico. Aqui a gente vai entrar em estudar o que que são modelos de regressão, alguns modelos de árvores. Então aqui vocês vão estar aprendendo a como fazer com que o computador trabalhe com conjuntos de dados
e extraia padrões desses conjuntos de dados sem ser previamente programado para isso. Essa é a ideia de modelo de machine. learning. Então, entram aqui, existem muitos modelos de regressão, muitos modelos de árvores para para poder estudar aqui. P kit learn, métricas de otimização, a como otimizar tudo isso. É uma área relativamente pesada de estudo, tá? Eu coloquei aqui de dois a 4 meses, tem muita coisa aqui dentro que eu não abordei nesse roadmap, tá? Mas estudem o machine learning clássico. E por fim, a parte de prática. E aqui eu não faço ideia de quanto tempo
leva, porque assim, ó, isso aqui vai ser muito individual de cada pessoa. Eu, por exemplo, quando tava estudando isso para desenvolver estratégias de trading, eu fiz esse caminho aqui, mas eu já estava empregado e eu já tinha objetivos em mente. Eu sabia que estratégias eu queria avaliar, sabia que modelo eu queria colocar para que fim, tá? Então ele foi um processo que eu consegui trabalhar com dados reais muito bem. E o mais legal é que dependendo do objetivo que vocês vão ter, vocês vão perceber que, pô, eu quero fazer uma uma análise de regressão de
preços ou de previsão de vendas, quanto minha empresa vai faturar no ano que vem. Aí eu vou lá e pego um modelo de regressão. Aí de repente eu estudei um modelo de regressão, só que esse modelo de regressão não tá sendo muito bom. Então de repente eu preciso estudar um outro modelo de regressão. Então essa última etapa aqui ela vai ditar que bagagens e que furos ficaram nesse aprendizado de vocês. E tudo isso aqui vai acontecer de maneira muito mais orgânica, tá? É sempre, sempre, sempre recomendado vocês irem pelo caminho de dados reais, tá? vocês
terem algum problema de fato que querem resolver, porque isso aqui vai dar muito mais motivação para vocês quererem de fato aprender as coisas e serem reconhecidos do que se forem para um estudo mais teórico, tá? E o Kegle aqui é uma plataforma de de análise de dados que seria mais linkado para quem tá com esse estudo mais teórico, tá? Então, se de repente você ainda não é um analista de dados, não tem um emprego e quer entrar nessa vaga, infelizmente vai ter que ficar nessa estudando essa parte teórica. que na vida real vocês vão ver
que as coisas são bem diferentes, mas pelo menos para para poder, vamos dizer assim, aprender os conceitos aqui. Então, ficar no Keg é algo bem relevante. E quanto tempo eu imagino que dê para levar isso tudo? É bem difícil de falar, tá? Porque essa parte final aqui, ela o que ela que vai determinar o quanto de fato vocês sabem. E esse primeiro perfil aqui, ele é um pouco complicado, porque assim, galera, cada área que vocês forem focar, se forem focar no mercado financeiro, na verdade o caminho vai ser um. Se forem focar em análise e
previsão de vendas, talvez o caminho seja outro com outro modelo que eu não abordei aqui. Se vocês forem focar em, de repente análise para dados de marketing, aí a análise vai ser outra com modelos que eu nem abordei aqui. Então, cada caminho vai ter uma especificidade que eu não consigo abordar tão bem. Eles são muito diferentes entre si. E é justamente por isso que eu também nem vou abordar como é que seria um plano de estudo, caso vocês queiram ser um desenvolvedor do terceiro nível para as não generativas, porque cada problema vai pedir uma abordagem
diferente. Então, lá no mercado financeiro, eu tinha que trabalhar com dados de séries temporais. Se você vai trabalhar com dados da indústria, a matemática por trás da indústria é outra completamente diferente e talvez necessite que você saiba de coisas diferentes. Aqui eu coloquei esse caminho aqui. Eu eu acho que ainda existe um apelo comercial para ele, sim, nas vagas de análise de dados, porém ele não tá tão na mídia quanto a IA generativa. Segundo perfil, alguém que queira trabalhar como desenvolvedor de modelos de inteligência artificial na terceira camada. Então eu botei aqui perfil dois, camada
três generativa, tá? Esse seria um engenheiro de modelos generativos. Vou ser um pouco sincero quanto a isso, tá? Eu acho que é uma é uma linha um pouco mais complicada, porque eu coloquei uma um plano de estudos aqui relativamente simples, mas a complexidade real é só para vocês começarem, porque conseguir emprego nisso é mais complicado. O tamanho do mercado ele é mais restrito. Os contratantes dão preferência a profissionais que tm uma bagagem PhD, doutorado, uma bagagem bem sólida. Então vai ser bem difícil para vocês seguindo um plano de estudos que eu passar aqui conseguirem ser
contratados nessa área. E mesmo que vocês aprendam tudo isso e consigam desenvolver alguns modelos, ainda assim vão ser modelos que não vão ter muito valor comercial, porque eles vão ser muito específicos e provavelmente piores do que existem por aí, tá? Então, este é um perfil que eu particularmente sei um pouco, não é a minha especialidade total, mas eu percebi que eu nunca consegui gerar muito valor pr pras empresas que eu já trabalhei ou mesmo na ASMIOV quando a gente desenvolvia estratégias pro nosso próprio capital na parte de trading, utilizando os conhecimentos daqui, porque ele é
bem complexo, é pesquisa, tá gente? E pesquisa tem um problema que vocês vão ter que investir muito tempo lendo papers, entendendo quais são os os conhecimentos, estado da arte, muitas vezes desenvolvendo os próprios testes, as próprias arquiteturas, vão ter que ter dinheiro, tá? Às vezes muito dinheiro para jogar fora, porque pesquisa é aquela coisa onde a cada 10 experimentos que vocês fazem, nove dão errado para talvez um ser algo promissor e muito provavelmente esse um que ficou também dá errado, tá? Essa é a realidade da pesquisa e esse caminho aqui é para isso. Mas se
mesmo com esse alerta quiserem seguir nele, que que vocês precisam aprender? Primeiro lugar, Python, tá? De novo, a mesma coisa que eu falei no perfil um. Vocês vão entender as bases. Eu coloquei aqui a mesma base de pandas num pie mat plot lib, tá? A gente vai voltar no Python daqui a pouco, mas tem que ter as bases do Python de lógica de programação, variáveis, estrutura de controle de fluxo, tudo aquilo que eu já falei. Segunda parte aqui, galera, matemática. Da mesma forma, como eu tinha colocado anteriormente no perfil um, a gente vai ter que
entender ali probabilidade estatística, álgebra linear, cálculo, vale o mesmo que eu falei anteriormente. E é agora que a coisa começa a ficar um pouquinho diferente, porque eu mudei o que que vocês precisam estudar em relação a fundamentos de machine e learning. Por quê? Porque aqui a gente tava indo mais no detalhe de fato de entender os modelos mais clássicos, entender modelos de árvores, modelos de regressão, regressão logística, saber treinar, saber otimizar, saber a matemática por trás deles. Aqui para esse segundo perfil não um julgo tão importante, eu coloquei apenas um entendimento mais em alto nível
da coisa. Então vocês vão entender, quero que vocês entendam ali o que que é um modelo supervisionado versus não supervisionado. Entender um pouco de regressão logística, mas eu não coloquei aqui modelos de classificação, não coloquei modelos de árvore, não coloquei feature importance, não coloquei várias coisas aqui que seriam mais úteis para um analista de dados mesmo saber, porque todo o nosso conhecimento de de machine learning vai vir depois. A parte de redes neurais que vai aparecer aqui, ela é mais relevante para um para um profissional do perfil dois, tá? Aqui eu coloquei também como importante
divisão de dados. Então tu teria que saber como que eu faço para, por exemplo, vou treinar um modelo de machine learning, que que é dados de treino, dados de teste, qual a proporção adequada para cada um deles, e como é que eu faço para medir métricas de acurácão dos modelos. E por se tratar de um estudo mais simplificado em relação ao que tava aqui, que antes eu tinha colocado de 2 a 4 meses, aqui eu coloquei um mês, na verdade seria de um a dois meses, tá? um pouco de estudo nessa parte, tá? Por quê?
Porque aqui agora a gente vai entrar na parte mais pesada mesmo, que seria redes neurais. Redes neurais. É tão importante um um modelo de rede neural que inclusive tem um livro, vou até pegar para vocês. Esse livro aqui é um dos primeiros que eu li sobre machine learning. Ele é bem antigo, sei se vai aparecer a câmera aí. Handson, machine learning com pych kit learning tensor flow. E metade do livro, eu curiosamente abri bem na parte, daqui para cá ele tá falando sobre modelos mais tradicionais, que é essa parte para para analistas de dados. Daqui
para cá, tudo isso aqui que vocês estão vendo aqui, ó, todas essas páginas são sobre redes neurais profundas e treinamento profundo, tá? Então é, ele divide perfeitamente aqui entre parte um e parte dois. e ele já tem esse entendimento na época, um livro, acho que deve ter mais de 10 anos, se eu não me engano, sobre a diferença entre os a machine learning mais clássico e o machine learning baseado em redes neurais. E se vocês querem trabalhar aqui nessa camada, na terceira camada, redes neurais vão ser a a habilidade mais importante, tá? porque ele é
um modelo especificamente que é um mundo à parte. Existe um universo de coisas aqui dentro e mesmo assim a gente vai explorar só um pouquinho do que as redes neurais têm a oferecer. Então, nesse momento, vocês vão ter que entender os fundamentos das redes neurais. É importante que entendam ali o que que são tensores, que seria a forma como os dados são representados dentro de uma rede neural. O que que é uma rede neural de fato, por que ela é tão importante? Por que que ela é tão poderosa? camadas aqui lineares. Como é que a
gente faz para de repente passar? A gente faz uma passagem na rede, como é que eu faço para executar uma rede, pedir uma inferência dela? back propagation, que é um conceito útil pra gente poder treinar a rede, funções de perda, que também são essenciais para entender quão ruim ou quão boa está a nossa rede. Otimizadores, que vão ser modelos matemáticos utilizados pra gente poder ajustar os parâmetros aqui dentro e permitir que ela ela acerte, que ela vá bem ou vá mal. E e modelos de redes, como eu já falei em outros vídeos, eles são super
úteis, são a base do que vocês vão ver lá quando forem trabalhar com Transformer, tentando replicar algum modelo de linguagem ou modelos de classificação de imagem, de vídeo, eles precisam lidar com dados não estruturados. É quase como se esse livro aqui tivesse dividindo pra gente entre dados estruturados, dados tabulares e dados não estruturados. O machin learning mais clássico, ele é ótimo para dados estruturados, enquanto que redes neurais são boas para esses dados com uma estrutura um pouco mais confusa, que como é a palavra, como é um GPT da vida, por exemplo. E aqui eu teria
no final um projetinho que eu coloquei para que é um bem básico, todo mundo sempre coloca isso quando está estudando redes neurais, que é treinar um classificador Eminist, que eminist ele é um conjunto de dados com cerca de 50.000 1000 fotos com caracteres escritos à mão. Então são várias imagenzinhas onde as pessoas escreveram um à mão, dois, três. E aí o teu objetivo é construir uma rede neural que pega essas imagens, vão receber ali vários pixels, tipo e 728 pixels, se eu não me engano. E tu tem que passar por uma rede neural, ela tem
que ser capaz de prever que caractere é aquele. É um, a gente considera isso aqui um hello world de quem tá estudando redes neurais, tá? Mas tudo isso aqui é a base da base da base da da rede neural, tá? É um conceito tudo bem básico pro que vai vir a seguir. E eu coloquei aqui cerca de dois ou três meses, tá? E por fim, e aqui vem um cara um grande chute meu. Na verdade, essa parte das das dos tempos aqui é é bem difícil, tá? Bem, eu acho que eu posso estar errando bem
nessas estimativas aqui, já peço desculpas. Mas Transformers, Transformer é um tipo de arquitetura de rede neural. Existem muitas arquiteturas diferentes, CNN, RN, LSTM, redes mais forward Pass. E o Transformer é uma arquitetura específica que foi, vamos dizer assim, proposta em 2017, um paper que eu já falei várias vezes aqui, sempre se fala, quando se fala de inteligência artificial, se fala sobre esse paper, que é o Attention is All You Need, da galera do Google, aonde eles propuseram uma arquitetura que futuramente viria virar, iria se transformar no BERT e alguns anos depois iria se transformar nas
primeiras versões do GPT, tá? Então ela é uma arquitetura muito, muito, muito, muito, muito importante, muito, muito assim, ó, responsável pelo hype que a gente tá vivendo, inteligência artificial hoje, por ser o centro das atenções do mundo, porque ela permitiu que a gente conseguisse melhorar, que nossas redes pudessem de fato absorver o conhecimento da nossa linguagem, que ela é uma algo bem complexo. Os modelos que existiam antes, as arquiteturas de antes, elas não tinham a capacidade de poder lidar bem com a com a língua, vamos dizer assim, porque eles perdiam relações de longo prazo entre
as frases. E o Transformer, ele tem uma arquitetura bem grande, tá? Isso aqui é bem mais complexo que isso. Vocês vão, quando começarem a estudar ele. Modelos modernos, por exemplo, os os menores modelos possíveis tem 1 bilhão de parâmetros. Isso é um modelo micro, 1 bilhão de parâmetros, tá? Existem aqui milhões de parâmetros em cada uma dessas etapas. Então o teu objetivo aqui vai ser entender um transformer. Simples assim, tá? Vai ter que entender o que que é tokenização, ou seja, o processo da gente transformar palavras em números, que é como uma rede neural vai
poder entender o vocabulário. Ela precisa ver números, tá? E isso se dá através do processo de transformar palavras em tokens, tokenização. Entender aqui três elementos que aparecem dentro das redes, porque a rede ela é uma grande reorganização de parâmetros, o número e algumas funções de ativação. Entendeu? O attention self attention positional encoding que está aqui, que está aqui. E a partir disso tentar pelo menos desenvolver uma arquitetura simples de GPT utilizando decoder only, né? Já é algo que vocês conseguem fazer. E aqui um chute total, tá? Eu acho que dá para fazer em dois tr
meses, porque a gente tá estudando só uma arquitetura. Então o estudo total aqui de redes neurais até o transforme partindo do zero em se meses, eu acho que é possível, mas posso estar bem errado, tá? Então já peço desculpa se eu errar, galera, não me xinguem. E aqui o tempo que eu botei, eu acho que é algo em torno de 9 meses, 9 a 12 meses, mas é muito estudo que tem que ter, tá? Porque é um estudo bem complexo, é matemática, são conceitos às vezes abstratos. Para quem nunca viu isso aqui, se vocês nunca
tiveram contato com matemática, pelo menos um pouquinho de de matemática de faculdade, talvez tenha um pouco de dificuldade aqui, um pouco de dificuldade aqui, então um pouco chato, tá? Mas se esforçando bem, aquelas 10 a 20 horas por semana, talvez dê para chegar nisso aqui dentro no intervalo de 9 a 12 meses, tá? Mas conhecendo vocês, sei que vocês ficam no TikTok aí o dia inteiro, vocês não vão conseguir fazer isso aqui, nem a pau. Então, beleza galera. Agora a gente já explorou esta camada aqui que é não generativa, que eu acredito de novo ser
super útil para quem tá trabalhando com dados, embora ela exige uma certa capacidade técnica relativamente alta. Esta segunda camada aqui que sinceramente eu acho bem difícil, bem difícil, eu acho ela super interessante, ela é bem legal, só que existem poucas empresas na qual vocês poderiam trabalhar com esse tipo de conhecimento. No Brasil, eu particularmente não conheço nenhuma, pelo menos nenhuma de grande relevância, porque é uma área muito específica, ela tá muito ligada à pesquisa e pesquisa é aquela coisa, é necessário colocar muito capital de investimento na frente para talvez colher alguns resultados depois. Então, são
poucas organizações que existem aqui que estão desenvolvendo tecnologia nesse sentido e é um mercado de altíssimo grau técnico. O que eu apresentei para vocês aqui nesse plano de estudo da segunda camada, cara, é um ano talvez para vocês estarem no ponto básico, poder começar a estudar mais profundamente a partir daqui. Vou começar a acompanhar os papers, vou começar a desenvolver as minhas próprias redes. Para treinar modelos próprios, vão ter que ter muito capital de investimento. E essas empresas aqui, elas têm muito dinheiro, mas elas estão dispostas a torrar grande parte desse dinheiro. E esse é
um caminho que eu particularmente acho difícil, tá? Então optem por essa via em estudar isso aqui, se estiverem bem claros quanto o que querem com o mercado e com inteligência artificial. tem um plano bem sólido. E agora eu vou apresentar para vocês a terceira opção, que é onde nós das Academy, eu particularmente tenho colocado grande parte dos meus esforços nos últimos tempos, que seria a quarta camada da AA generativa. Essa aqui eu acho é onde estão as maiores oportunidades do mercado agora. E do que que ela se trata? Seríamos de nós pegarmos modelos que existem
aqui, que já foram desenvolvidos na terceira camada, e adaptar para negócios específicos, tá? Então coloquei alguns exemplos aqui, como por exemplo YouTube, Photoshop, Instagram, que são algumas empresas que já estão desenvolvendo aplicações que usam esses modelos para, sei lá, no YouTube gerar vídeo ou analisar perfis, Photoshop, ferramentas de a generativa do Photoshop para fazer preenchimento de cenários ou edições automáticas. Só que existem infinitas outras aplicações em inúmeras outras áreas de negócio. Então, a grande vantagem aqui é nós pegarmos modelos genéricos que são desenvolvidos aqui. Então, por exemplo, chat GPT, sei lá, se forem lançada a
versão 5 do chat GPT, por mais inteligente que ele seja, a forma como esses modelos são treinados hoje em dia, baseados em arquitetura de Transformer, faz com que eles precisem treinar com todos os dados da internet, aprender com tudo que eles já já viram. para dar produto a um modelo genérico. É um modelo que, por mais inteligente que ele seja e tem a capacidade de ver grande parte da da internet, ter acesso a toda a toda a informação, ele só consegue desempenhar tarefas bem feito, de forma bem, vamos dizer assim, super útil, quando empresas aqui
de cima pegam esses modelos e desenvolvem ferramentas customizadas para eles, promptes específicos. Então o chatpt aqui, por exemplo, se ele fosse utilizado por um nutricionista, ã, dificilmente ele conseguiria superar uma aplicação feita por um nutricionista para, sei lá, dietas low carb para pessoas que têm diabetes. E esse nutricionista desenvolveu alguma aplicação que use o modelo de linguagem aqui do chat EPT, só que embutido com papers, com dados específicos, com promptos, com ferramentas que só aquele nutricionista sabe que são úteis. E isso aqui é válido para qualquer área. É válido para um médico, é válido, válido
para um advogado, é válido para um engenheiro, é válido para um analista de marketing. Então essa camada que tá aqui, ela é toda composta por aplicações que são desenvolvidas baseados nesses modelos anteriores. Então é isso que eu vou mostrar para vocês, porque isso aqui é a parte mais legal. Tem muita, muita, muita oportunidade agora. ainda é um grande oceano azul a ser explorado. E vocês vão perceber que o nível técnico, a quantidade de estudo que vocês vão ter que ter é muito, muito, muito menor do que aqui, tá? Então vamos lá. Diferente dos outros perfis,
aqui eu não recomendo que vocês comecem estudando por Python. E por quê? Porque vão existir duas recomendações que eu vou dar aqui, uma baseada em programação e uma baseada em ferramentas no code. Tá? Então, primeiro, primeira linha de estudo que eu sugeriria aqui é vocês entenderem se estão começando do zero, fundamentos de a generativas. Então vocês vão ter que entender aqui qual que é a intuição mais ou menos de uma rede neural, como é que funcionam esses modelos, porque redes neurais são os modelos que embas a generativa de hoje em dia. Então a gente tá
falando aqui de LLMs, que são large language models, stable diffusion, flux, tem inúmeras outras arquiteturas aqui para geração de vídeo, geração de áudio, transcrição de áudio. Mas aqui eu tô pedindo para vocês apenas entenderem a intuição desses modelos. Nada de entrar em detalhe, nada de aprender a treinar. nada disso, simplesmente entender a intuição, tá? Isso aqui é pouco tempo de estudo, vocês já conseguem, tá? Como esses modelos funcionam, ã, conceitos de prompts que eu acho que você já deve entender claramente porque é bem bem trivial, mas coisas específicas como fine tuning, o que que é
um fine tuning? Quando que a gente faz um fine tuning? O que que é hag? Para que que serve hag, qual que é a ideia por trás do hag? Qual que é a diferença entre hag e prompt, qual que é o conceito de agentes? Por que agentes são necessários? Tá? Ã, entender quais são os principais provedores de LLMs do mercado, se ater um pouquinho ao mercado que existe. Então, pô, existe Antropic, existe a Open AI, existe o Gemini, existe a Mixro. Quem são esses principais? Quais são as principais APIs públicas? Mas tudo isso aqui é
um estudo teórico, galera. Nada de entrar em muitos detalhes. Então eu coloquei aqui duas semanas. É bem possível, dado que estão estudando aí 2, 3 horas por dia, tá? Mas dá para pegar isso aqui em uma semana. Tem gente que vai demorar um pouquinho mais, vai apanhar um pouco com os conceitos, pode ser que leve um mês, mas não é nada muito muito complexo, tá? Segundo passo que eu dou, eu indico para vocês estudarem engenharia de prompt, tá? Então, engenharia de prompt seria uma técnica para nós conseguirmos passar instruções adequadamente para modelos e obter resultados
melhores do que do que instruções não bem estruturadas, né? Então, quais são as estruturas de prompts mais utilizadas? Tipo, pô, como é que eu passo a minha instrução? Como é que eu posso posso fazer para no prompt destacar alguns elementos e quero que o modelo preste mais atenção? Que ordem eu devo passar as minhas instruções para que aquilo esteja nas zonas quentes do prompt? Porque existe uma existe uma diferença entre zonas quentes e zonas frias, onde o modelo costuma prestar mais atenção e levar informações mais em consideração do que esse colocado de ordem aleatórias. Tem
muitos modelos que são sensíveis a isso. Eh, controles de parâmetros do meu modelo, então temperatura, top key, top pi, encadeamento de prontos, como é que eu posso fazer para de repente passar uma instrução e a partir dessa instrução colocar uma uma sequência de regras para ele estab desenvolve uma, depois uma segunda, depois uma terceira, técnicas específicas de prompt. Então, a gente tem chaft top, que é cadeia de pensamento, seria eu poder pegar um modelo tradicional como chatpt e por promptir ele mais ou menos apresentar um comportamento de raciocínio como o A3, como o DPSC R1,
tá? Eu teria também React, que seria uma técnica para permitir modelos pequenos a tomarem ações, que é reason, systems, o que que são systems, quando é que a gente utiliza elas, como é que os modelos fazem para executar funções, function calling, tudo isso aqui são técnicas de engenharia de prompt, que também é um estudo teórico, ele ele ele exige menos técnica, menos prática para vocês entenderem da coisa. Então, duas semanas aqui de verdade, tá mais do que bom, tá? Tem gente que vai dizer que não, que é muito pouco tempo, mas cara, dá. Dá? Porque
eu não tô exigindo de vocês um grande muita coisa, tá? E aqui vão existir dois caminhos. Eu vou apresentar para vocês os dois caminhos ao mesmo tempo. Então vocês podem ir numa linha que eu vou dizer que é a linha que envolve programação e a linha que não envolve programação, no code, tá? E eu apresento essas duas porque obviamente elas têm vantagens e desvantagens, uma em relação à outra, de maneira bem resumida, tá? Se vocês forem estudar tudo isso aqui, esse caminho que eu tô mostrando aqui de desenvolvedor de aplicações de inteligência artificial focado em
programação, vocês vão ter que estudar mais. As coisas em geral elas levam um pouco mais de tempo para serem desenvolvidas, tá? Então uma mesma aplicação aqui que tu for fazer na linha do Python, que é o que eu sempre recomendo, ela vai ser mais complexa de ser feito do que numa linha, por exemplo, do N8N, que é a a plataforma que eu vou indicar para vocês aqui hoje, tá? Mas qual que é qual que é a grande vantagem? Vocês têm acesso à customização infinita. Vocês conseguem fazer qualquer coisa com linguagem de programação mesmo, tá? Enquanto
que uma ferramenta de no code, como por exemplo N8N, vai depender se o que vocês querem fazer já pré-exista dentro da ferramenta, tá? Então vamos começar com Python. Aqui em cima eu coloquei um mês, tá? Um mês de estudo para pegar só a base, tá? Então estudar a lógica de programação, estudar as bases do Python. Então, seriam lá mesma coisa, mesma coisa que antes assim, né? Tipo tipos de dados, listas, ifs, for, while, funções, as coisas bem básicas. Entender um pouco ali de requests, que seria biblioteca pra gente poder mandar requisições paraa internet, que isso
aqui vai ser bem útil para quando tiver utilizando API aqui no canto, entender como é que a gente faz para usar algumas bibliotecas, instalar bibliotecas, open a pidente usando pip, nada demais, tá? A gente não vai entrar em nenhuma biblioteca específica, só ficar na base do Python. E se colocarem um tempo aqui para estudarem, praticarem um pouco de lógica de programação, também podem colocar porque é bem útil, tá? Tem gente que um mês vai ser muito pouco, tá? Isso eu posso deixar deixar bem claro, tem gente que vai apanhar para colocar todo esse conteúdo dentro
de um mês, beleza? Então esse aqui seria a linha da programação, tá? Se nós fôssemos pra linha de uma ferramenta no Code, que eu vou recomendar o N8N, e o que que é o N8N, né? Ela é uma plataforma, não sei se eu posso definir como plataforma, te permite programar e desenvolver automações utilizando fluxos de blocos. Então eles pegaram bases da programação, tá? Simplificaram bastante e colocaram numa estrutura toda visual. Então aqui do lado a gente colocou um exemplo para vocês verem mais ou menos do que que eu tô falando, porque toda a programação que
no Python é feito com código, no no N8N é feito encaixando blocos. Então vocês têm que entender aqui como é que seriam as estruturas de criação de fluxo, qual que seriam as lógicas de bloco, como é que vocês fazem para poder integrar com as principais integrações que já estão pré-desenvolvidas dentro da plataforma. Essa é a grande vantagem de uma ferramenta no code. Quanto que numa linguagem de programação tu teria que acessar essas bibliotecas que integram as coisas por ti. Nessas ferramentas aqui, elas muitas muitas das vezes já estão pré-integradas e existe uma gama bem grande
de integrações dentro do N8N. Consegue integrar com Gmail, com Notion, com Google Sheets, com API externos, com WhatsApp, com Telegram, com muita coisa e entender como é que a gente faz um agendamento de execuções lá dentro. como é que eu faço para ele executar aquele código ou aquela aquela aquela aplicação que eu tô desenvolvendo rapidamente, tá? E aqui eu coloquei que pelo menos para as bases do N8N, cara, uma semana tá de bom tamanho. É bem simples, tá bem simples mesmo. Tipo, eu fui estudar N8N comecei a estudar há poucos meses atrás e um, dois
dias já peguei tudo, principalmente se você já tem uma base sobre lógica de programação aqui em cima. qual que é o próximo passo dentro do Python e também qual que é o próximo passo dentro da linha do no code. Então, no Python vocês vão começar a entender como é que vocês fazem para montar fluxos de trabalho e utilizando LC Chain, que é uma biblioteca que eu considero que é a maior biblioteca do mundo hoje para isso. Acho que sei lá, diria que 90% das aplicações que vocês veem por aí de de inteligência artificial são feitas
com LCin, tá? Dos das aplicações em si, não dos modelos, porque ela é a mais popular. mesmo. Ela é bem grande e ela te permite fazer qualquer coisa com modelo de linguagem. Então aqui eu coloco, entendam como utilizar aqui a IPI da Open AI dentro do LCin. Existe um módulo para poder acessar lá o chat eptar prompts e coisas assim. Vamos entender como é que a gente faz o Lengchain para poder montar cadeias, tá? e vai envolver construir prompt, encaixar um modelo de linguagem, definir parâmetros do modelo de linguagem, eventualmente pegar essa resposta, parciar a
resposta, jogar em outro prompt, jogar em outro modelo de linguagem, fazer alguma estrutura um pouco mais complexa. Então, por exemplo, se eu quisesse desenvolver o roteiro desse vídeo do YouTube, eu poderia montar uma chain dentro do LC Chain dizendo: "Cara, primeiro vou te passar esse tópico. Eu quero que tu pense em 10 ideias de eh de introdução que eu poderia desenvolver. Escolha dessas 10, qual é a melhor? Desenvolva agora a introdução. A partir da introdução, desenvolva a continuação, desenvolva a conclusão, revise. Tudo isso poderia ser uma cadeia de pensamentos aqui feita de LC Chain, tá?
Como é que a gente faz para induzir memória, tá? Para fazer os modelos se lembrarem do que a gente tá conversando, porque os modelos em essência eles não têm memória, tá? Partes legais aqui. Como é que a gente faz para desenvolver ferramentas customizadas? Isso aqui, cara, isso aqui, ó, deixar bem marcado. Eu acho que é uma das grandes, grandes, grandes diferenças entre a gente ir pela linha de cima ou pela linha de baixo. Tools. Por que eu digo tools? Porque com programação a gente consegue desenvolver qualquer ferramenta, qualquer coisa mesmo, tá? Se eu quiser desenvolver,
sei lá, eu tenho um robô feito com Arduíno, tá? E eu quero fazer com que esse robô ande pela minha sala aqui, pegue, sei lá, a sujeira que tá no chão e volte para mim aqui e jogue no lixo, por exemplo. A lógica disso, da ferramenta de controle dele, eu poderia toda desenvolver com Python, caso não exista a priori, e dar essa opção de controlar o robô para um modelo de linguagem. Então eu poderia simplesmente dizer assim: "Cara, faço o seguinte, eh, chatt, pega o meu robô que eu te dei aí, eu quero que tu
faça ele limpar minha sala lá, enter e o chat GPT vai perceber que ele tem acesso a uma ferramenta que está aqui, vai começar a executar comandos no robô e vai levar ele pra sala. E dentro de uma linha, como por exemplo, o N8N, isso aqui só seria possível se alguém já tivesse desenvolvido a priori para mim uma ferramenta de controle de robô desse jeito, que é, eu diria que é quase impossível, porque só vocês sabem a necessidade do que vocês querem, tá? Então, usar uma linguagem de programação, a grande vantagem tá aqui, é vocês
conseguirem construir ferramentas customizadas para ir no detalhe especificamente do que vocês querem. Pô, eu quero analisar os dados das minhas campanhas de marketing desse jeito. Eu quero construir um relatório, montar um relatório pro meu pro meu chefe. E o PDF tem que ter estruturado desse jeito com essas cores. Quero que aqui vá uma imagem aqui, eu quero um link desse jeito, aqui eu quero uma uma outra coisinha, um detalhe específico. Todas esses detalhes, a customização na vírgula é o que vocês conseguem com programação que a linha de baixo não dá, tá? Essa é a principal
diferença para vocês, é, é capacidade de customização. Aqui embaixo vocês vão entender como é que a gente faz para colocar para usar hag dentro dos modelos de linguagem, como é que funcionam os vectors DBs aqui dentro e como é que a gente faz para construir agentes. Para esse processo aqui, eu coloquei dois meses, tá? Porque aqui vai envolver bastante prática, testar modelos diferentes, testar chain, entender esses conceitos dentro do Link Chain. E indo a linha agora pra linha do N8N, é a gente entender como é que a gente faz para utilizar modelos de linguagem para
agentes dentro do N8N, tá? Então aqui eu quero só a parte básica daqui para cá. Daqui para cá eu quero que vocês foquem no bloquinho de inteligência artificial do N8N. Entender como é que a gente faz para colocar variáveis dinâmicas dentro do prompt, como é que eu posso fazer para encaixar MCPs e ferramentas que já existem nos meus modelos de linguagem. E aqui até coloquei três exemplos de PDF. Desenvolvo um robozinho para atendimento no WhatsApp. É bem fácil de fazer isso aqui no 8N. Um Python é um pouco mais chato por conta da API do
WhatsApp, que é muito, muito, muito ruim. desenvolver aí um um agente de análise de PDFs. Então, sei lá, passa um PDF, coloca uma pasta no Google, Google Drive. Toda vez que eu colocar um PDF numa passa do Google Drive, ele vai baixar aquele PDF, fazer a leitura daquele texto, jogar num modelo de linguagem, pedir pro modelo resumir, gerar um uma mensagem que vai para mim no meu WhatsApp, por exemplo, ou salvo na tabela do Notion. Esse tipo de integração usando inteligência artificial é possível com N8N, bem fácil. agendamento de calendário, de sei lá, imagina que
vocês querem fazer um chatbot que alguma pessoa mande uma mensagem para vocês no WhatsApp, vocês são, sei lá, um advogado, um médico e eu quero agendar consultas, dá para fazer um robozinho de atendimento que ele, pô, pessoa diz: "Oi, tudo bom? Eu quero marcar uma consulta com o doutor tal, qual o horário?" E o próprio robô, ele já olha, ah, o calendário dele está assim, você pode fazer um apontamento aqui. Quer marcar? Sim. Legal. Te mandei a confirmação por e-mail. Tudo isso aqui pode ser feito dentro do N8N. também pode ser feito junto com Python,
mas esse tipo de de coisinhas aqui é bem fácil dentro do in tem vários projetos já que já são bem úteis, tá? E aqui pro final coloquei mais uma opçãozinha, mais um um caminho a mais aqui. Talvez ele seja opcional, tá? que é trabalhar com sistemas multiagentes, mas eu acho que faz sentido colocar também que é como é que eu faço para poder combinar múltiplas instâncias aqui de modelos do do Lengchain entre si e dar elas diferentes ferramentas, cada uma desempenha um papel diferente ou como é que eu faço para trabalhar com Lang Graph e
Crew Ai, que são duas bibliotecas bem boas aqui para para trabalhar com sistemas multiagentes. Dá para ir em uma ou em outra. Ã, como é que eu faço deploy desses meus sistemas com flash API? Como é que eu coloco isso aqui dentro de um back end? E isso aqui é legal porque assim, ó, quando vocês optam pela linha de cima e decidem, cara, eu vou começar primeiro pelo caminho mais difícil, que é estudar a programação, e vou fazer esse caminho aqui de baixo, fica muito mais fácil, ele é muito mais trivial, porque aqui quando vocês
percorrem esse para aprender isso aqui, tudo isso aqui vai ser muito muito muito muito mais fácil. O contrário nem sempre é verdade, tá? Vocês vão começar por aqui, vão entender algumas coisas do N8N quando forem pro Python, você perceber que tem bases que foram que que se perderam, porque algumas coisas aqui são elas são simplificadas. O essa abordagem aqui ela é derivada desta, né? tipo esta da da origem a esta, só que com simplificações. Uma outra outra outra visão que eu quero passar para vocês aqui em relação a a diferenças, né, entre usar uma linha
de programação e usar uma linha de no code. E isso aqui é válido, não só para, mas para qualquer coisa que vocês forem fazer. Eu gosto de ver programação útil em três áreas diferentes. Se uma dentro de três coisas estiver presente no que vocês querem fazer. Programação é útil para analisar dados. é útil para automatizar tarefas e é útil para construir sistemas personalizados. Três coisas. A linha do no code, especificamente quando eu falo de N8N, e aqui é muito eh, vamos dizer assim, é muito parecido, muito análogo eu falar, por exemplo, N8N ou Make ou
Zapper ou DeFi. São plataformas que t uma certa são muito parecidas com a proposta do N8N. A gente vai estar falando de automações apenas. Eu dificilmente vou estar conseguindo fazer análise de dados sólidas com N8N ou construindo sistemas personalizados, porque se vocês quiserem, de repente desenvolver um front end para tua aplicação, vocês não vão conseguir aqui dentro. É necessário ir para uma outra linha. N8N é automações. É, chega uma hora do dia, acontece tal coisa, quero que execute essa sequência de passos ou alguém manda uma mensagem e triga algo em algum sistema e novamente uma
sequência de passos é executada. Python, não, Python, a linha da programação, ela é mais complexa, ela te permite tudo isso, analisar dados, também te permite construir sistemas personalizados. Se tu quer criar uma interface e criar uma startup utilizando programação, aqui por cima, vocês podem aqui eu coloquei mais ou menos como uma diferença de cinco para se meses de estudo, enquanto que aqui a gente em dois meses fazendo todo esse caminho aqui, cara, tu já consegue estar desenvolvendo boas coisas, tá? O comentário que eu queria fazer é que portas cada um desses caminhos abre, tá? Então
vou começar com o caminho de baixo, que eu acho que já existe até um mercado que tá se consolidando bem bem bem no Brasil e é uma grande oportunidade para quem tá indo na linha do Code, que é criar agências de integração de inteligência artificial caso vocês queiram empreender, tá? Então, por exemplo, tem muita gente que já tá ganhando dinheiro de verdade, construindo agências aonde propõe e oferece alguns serviços para empresas do tipo, cara, eu vou automatizar o teu atendimento, vou substituir todo o teu time de vendas por robôs utilizando modelos de linguagem e tomada
de decisões. E, enfim, tu já consegue fazer isso perfeitamente por aqui. Não precisa mesmo tocar em uma linha de código. Lá no WhatsApp tu consegue fazer tudo isso. E cara, por mais que existam muitas pessoas já trabalhando nisso, oferecendo esse serviço, eu acho que eles não devem ter pego nenhum do tamanho do mercado ainda. Porque, cara, pensem vocês, quantos médicos, quantos nutricionistas, quantas empresas médias, pequenas, escritório de contabilidade, toda economia como um todo, tentem entrar em contato vocês aí com as empresas para vocês verem o qual percentual delas de fato já está automatizados com o
IA. é um percentual muito, muito baixo, então tem muita, muita, muita oportunidade para simplesmente oferecer um serviço aqui de automação com chatbot, por exemplo, e dá para ganhar bastante dinheiro já de verdade mesmo, de verdade, tá? Eu acho que é uma via muito, muito sólida. Eu acho inclusive mais fácil de percorrer essa via por aqui e é um serviço que agrega muito valor pras empresas porque corta custos, né? consegue cortar custos e e enfim, é óbvio que gerarão demissões, principalmente para quem tá trabalhando com atendimento, mas infelizmente a IA aqui ela é muito mais eficiente,
muito mais rápida, trabalha 24x7, comete menos erros, é uma via bem sólida, mas essa linha de baixo não para por aí porque vocês podem oferecer inúmeros outros serviços. podem fazer automações para as empresas, que nem eu comentei aqui, podem fazer serviços específicos de, pô, quero automatizar análise de relatórios, quero automatizar parte de atendimentos para médicos, para profissionais autônomos, né? Então, tem muita linha indo nessa parte aqui, envolve um conhecimento técnico mais baixo e o nível de resultados conseguem gerar é bem bom. Qual recomendação que eu dou, caso vocês queiram ir por essa linha, quero montar
a minha agência de inteligência artificial, escolha um nicho, tá? Então, cara, eu vou focar só em médicos. Aprende a construir prompts e agentes que são bons para trabalhar com médicos, que vocês vão perceber que cada tipo de nicho que vocês forem pegar vai necessitar uma certa um certo conhecimento técnico diferente, uma certa certas especificidades. E aprendam a ofertar e trabalhar com esse nicho. Vamos ver que as portas vão começar a se abrir muito mais. Então, pô, escolhi o nicho de medicina. Eu quero só ajudar médicos a agendarem consultas e e fazer o secretárias de médicos,
por exemplo, os médicos vão falar entre si, vão se recomendar e as portas vão se abrir. Então, escolham um nicho e escolham um produto, tá? E e vão nessa linha. Uma outra possibilidade é vocês utilizarem todo esse conhecimento aqui e automatizarem as coisas dentro da própria empresa de vocês ou dentro da própria do tanto do emprego de vocês, quanto caso sejam empreendedores da da do das rotinas, dos processos atuais. que vai dar visibilidade, caso vocês sejam CLT ou ou assalariados, não sei. E vai dar muita visibilidade porque é algo que vai gerar muito valor pra
empresa, vai economizar muito, muito, muito dinheiro, vai gerar tempo. Então é um combo de ferramentas aqui muito legal, tá? Muito legal mesmo. Qual que é o ponto negativo disso daqui? Por ser um caminho mais simples, existe muita competição. Então, se vocês colocarem, por exemplo, no YouTube, Agência de Inteligência Artificial, vocês vão ver que existem inúmeros canais, 50, 100 canais diferentes de pessoas dizendo como estão fazendo para faturar, sei lá, R$ 10.000 por mês, R$ 20.000 por mês. Existem muitas, muitas empresas agora com isso, porque é um pack de habilidades acessível a todos, tá? Então, invariavelmente
vai ter muita competição e pode ser que depois de um certo tempo as coisas se tornem mais difíceis. E o segundo ponto negativo que eu sempre falo, tá aqui, tá na parte das customizações. Vocês só vão conseguir desempenhar as tarefas na qual as ferramentas que vocês têm já possuem ferramentas pré-desenvolvidas, tá? Qualquer coisa além mais customizada vocês não vão conseguir. Agora falando um pouco do caminho de cima. O caminho de cima, ele vai ter todas as possibilidades que o caminho de baixo dá. Então, automatizar tarefas, fazer chatbots de WhatsApp, agendamento de tarefas, qualquer uma dessas,
com acesso à customização infinita. Então vocês conseguem fazer qualquer coisa, qualquer funcionalidade que a que a empresa de vocês queira pedir ou o cliente de vocês pedir, vocês conseguem. Mas também consegue englobar aquelas outras duas habilidades que eu falei, construção de sistemas e análise de dados. Então, vamos supor que vocês estejam oferecendo um serviço ou queiram desenvolver alguma alguma solução paraa empresa na qual já trabalham que envolva análise de dados. Pô, eu quero montar um agente de inteligência artificial para poder fazer todo o parceamento de dados, fazer toda a engenharia de dados ou análise em
si, analisar os dados por conta própria. Só é possível nessa linha aqui de cima. Existem algumas startups, por exemplo, que me chamam muita atenção. Dê análise de dados automatizada com agentes, aonde eles oferecem serviços, aonde você consegue plugar os seus dados lá e ela automaticamente já conversa com ele através de um chat e ter acesso à análise totalmente feita por por agentes de inteligência artificial. E esse tipo de funcionalidade vocês podem construir porque Python vai dar essa flexibilidade de poder ir por qualquer um desses caminhos. A segunda vantagem, vocês conseguem construir sistemas personalizados, o que
significa que vocês podem construir startups em empresas com, vamos dizer assim, valor agregado potencial além das automações que são feitas aqui, porque vocês vão conseguir desenvolver front ends, vão conseguir desenvolver aplicativos, vão conseguir desenvolver back ends robustos, tá? Então isso aqui dá essa, obviamente esse espectro de possibilidade muito, muito maior ao custo de ter que estudar mais, tá? de ter que passar mais tempo estudando e gastando um pouco mais de tempo codando. Que que eu indico? A resposta que eu vou dar, que obviamente vocês não querem ouvir. Ninguém nunca quer ouvir quando eu digo isso,
mas é depende. Depende do que tu quer, depende do teu objetivo, depende até onde tu quer ir, tá? E eu não sei se eu fui 100% claro em relação a cada um desses caminhos aqui, qual vocês deveriam seguir. Eu, por exemplo, estou indo nos dois, tá? Eu tô, comecei a estudar isso aqui, masterizei esse caminho aqui, porque agora quando eu vou por esse caminho aqui, quando decido que uma aplicação precisa de uma uma automação mais simples, eu já tenho todas as bases aqui. Se eu sentir que faltou alguma ferramenta aqui, eu posso vir no Python
desenvolver alguma ferramenta, desenvolver algum MCP e colocar dentro desse fluxo, tá? Então, fazer os dois caminhos, eu acredito que é a forma do profissional ser o mais complexo, completo possível. Então, tudo é uma questão de objetivos, tá? Onde que eu aprendo isso, Rodrigo? Como é que eu aprendo cada um desses perfis aqui? Todo esse conhecimento vocês sabem, existe na internet de maneira gratuita por aí, existe no próprio chatt, podem ir conversando com ele, existem livros, tudo que eu passei aqui dá para vocês fazerem por conta própria, tá? Mas é claro, na zim a gente tem
todos eles, não, quase todos eles, a gente tem o primeiro perfil, nós temos uma trilha chamada Python para Deira Science Machine e Learning, que a gente faz todo esse caminho aqui para vocês, tá? Todo passo a passo mastigadinho com cursos, projetos. Este perfil aqui nós optamos em não colocar na plataforma porque seria muito, muito, muito, muito tempo para poder desenvolver ele e a gente não percebeu que existiria tanto valor agregado de mercado, vamos dizer assim, infelizmente, por conta dessa dificuldade de empresas serem mais restritas, o conhecimento técnico ser muito avançado, o próprio nível de de
suporte que a gente teria que dar seria bem avançado, tá? E esse caminho aqui, nós já temos esse caminho aqui desenvolvido, se chama Trilha Aplicações E com Python. Ela é, na minha opinião, eu não encontrei até agora uma uma trilha ou um curso com mais horas e com mais projetos e mais completo do que o nosso na internet, tá? Minha pesquisa pode ter sido falha, eu admito, mas a gente já tem mais de 60 horas de conteúdo sobre isso espalhados em diversas aulas, diversos projetos, diversas aulas eletivas que vocês podem fazer para ir agregando o
conhecimento nesse caminho. E nós estamos desenvolvendo uma trilha aqui na linha de N8N que vai se chamar automatize qualquer coisa com N8N, tá? Então, a gente vai ensinar vocês tudo isso daqui. Vai estar disponível no plano total das imóve também vai ter vocês vão ter a possibilidade de adquirir esse plano a parte, caso se interessem. Ele vai ser por um valor bem mais acessível do que as trilhas que a gente tem aqui em cima, por conta dessa necessidade de aprendizado menos reduzido. Então, dependendo de quando vocês estiverem assistindo esse vídeo, pode ser que essa trilha
aqui já tenha sido lançada. Espero que possa ter ajudado vocês a entender um pouco desse mundo da inteligência artificial. Não é simples. Não é simples mesmo. Peço desculpa se eu esqueci algum conceito aqui, porque eu tentei agrupar da forma da da melhor forma que eu pudesse para condensar esse conteúdo e mesmo assim eu sei que eu esqueci muita coisa, não abordei aí CNN, RN, reenforcement learning, infelizmente não abordei por conta de não dar tempo para poder entrar em mais detalhes sobre essa terceira camada aqui, que é a que eu mais que eu mais gosto agora,
que eu mais indico para todo mundo que tá começando a estudar inteligência artificial. E espero que tenham gostado do vídeo. Qualquer coisa, deixem nos comentários.