contextualizando o machine learning ou aprendizado de máquina é um ramo da Inteligência Artificial e da Ciência da Computação que tem como base o uso de dados e o reconhecimento de padrões para imitar a maneira como os humanos aprendem melhorando gradualmente sua precisão Arthur Samuel o criador do termo Master lanem lá em 1959 definiu o termo da seguinte forma campo de estudo que dá os computadores a habilidades de aprender sem serem explicitamente programados é mais simples do que parece atualmente mais do que nunca tem aplicações importante para diversos Campos desde reconhecimento de imagens processamento de linguagem
natural análise de dados entre muitas outras coisas processamento de linguagem natural me lembra já gpt3 GPT 4 chat GPT tá na crista da onda então se você quer aprender mais e desmistificar esse termo Você tá no lugar certo fica com a gente que vamos te passar esse aprendizado [Música] e para nos ajudar nesse vídeo trouxemos a parceira perfeita a Nvidia que além de ser uma potência nos hardwares ela também disponibiliza diversas ferramentas para uso de Inteligência Artificial uma plataforma Para construir qualquer universo digital para você ter uma ideia uma ferramenta que acabou de ser incorporada
por lá é o nvid ou Universe a vátar Cloud end o ace da vida Avatar eles através de blocos de construção de Inteligência Artificial E aí está focado em criar cada vez mais ferramentas ligadas aí agenerativa que é capaz de criar textos imagens e vídeos novos baseados em seus modelos vamos deixar o link aqui na descrição para você acompanhar de perto as tecnologias da NVidia e um outro link do dli para você fazer os treinamentos alguns são gratuitos Aproveita você parou para pensar como machine learning está presente nas nossas vidas com o passar dos anos
ele vence popularizando e evoluindo bem rápido e consequentemente impactando cada vez mais o nosso dia a dia além das evoluções dos próprios estudos e dos algoritmos o avanço das tecnologias dos computadores principalmente do Hardware bem permitindo esse crescimento cada vez maior Além disso é de grande importância o alto volume didático para o funcionamento do machine learning e com a imensa quantidade de dados que são gerados e mantidos diariamente hoje temos Um cenário perfeito para usar esse tipo de aprendizado existem vários exemplos de aplicações práticas de machine learning assistente virtuais como a Siri da Apple Alexa
da Amazon e o Google assistente usam técnicas de Machine lane para reconhecer a voz dos usuários e fornecer informações ou realizar ações solicitadas já instituições financeiras utilizam algoritmo de Lane para detectar padrões de transações fraudulentas em tempo real protegendo os clientes e a empresa contra atividades ilícitas criar modelos capazes de solucionar problemas como classificação ou detecção de objetos ou rostos e imagens como por exemplo fazem o Google fotos e o Facebook análise de sentimentos e identificação de doenças de forma precisa através de resultados de exames um outro exemplo do uso presente em nosso dia a
dia é a recomendação de conteúdo quando você está navegando em alguma rede social pode ser aqui no YouTube também existem diversos algoritmos coletando interpretando seus dados de navegação e comportamento a partir disso esses algoritmos utilizam do machine learning para aprender com esses dados as quais são suas preferências quais os conteúdos que você gosta de ver qual é aquela postagem que com certeza você vai curtir Ou aquele vídeo que vai te prender E você vai ficar até o final como esse daqui se você ama ali por exemplo mais foto de cachorrinho e não deixa de curtir
ou comentar quando aparece uma logo a plataforma vai aprender isso e vai te mostrar diversas fotos de cachorrinhos de diversas maneiras Agora sim chegou a hora mas como tudo isso funciona é só todos esses dados por uma e ela vai entender tudo sozinha e passar a fazer predições como é que funciona esse tal de processo de aprendizagem calma viu que nós estamos aqui para te explicar justamente tudo isso para desenvolver uma aplicação de inteligência artificial é necessário treiná-lo para que ela possa realizar as predições ou ter o comportamento esperado para esse treinamento nós podemos utilizar
algoritmos para organizar os dados reconhecer padrões e fazer com que os computadores possam aprender com esse modelo e gerar em sites inteligentes sem a necessidade de programar todas as regras diretamente nós podemos citar aqui alguns exemplos desses algoritmos regressão linear usado para prever valores numéricos como o preço de uma casa com base em seus atributos como área total número de quatro banheiros localização etc ainda tem árvores de decisão usados para classificar dados Como determinar se uma transação é fraudulenta ou não com base em diversas variáveis como valor local e horário da transação tem também as
redes neurais reconhecimento de padrões e análise de imagens Como reconhecer rostos em uma foto ou identificar os objetos em uma imagem okmins usado para agrupar dados semelhantes como segmentar clientes em diferentes grupos com base em seus comportamentos de compra o Randon Forest utilizado para aumentar a precisão da previsão usando várias árvores de decisão por exemplo pode ser usado para prever ser um paciente tem ou não uma determinada doença com vaso com base ali em vários fatores como a idade histórico familiar e hábitos de vida Esses são apenas alguns exemplos dos principais algoritmos de Machine Lane
cada um com suas próprias características e aplicabilidade é importante destacar que a escolha do algoritmo Depende muito do problema em questão e dos dados disponíveis para treinamento a pergunta que fazemos agora é como os algoritmos de aprendizado de máquina aprendem eles fazem isso a partir de uma grande quantidade de dados que são submetidos a eles recebendo insumos suficiente para que o algoritmo consiga identificar os padrões desejados e permitindo que computador usar análise estatística para gerar valores de saída que se enquadram e um intervalo específico por causa disso o aprendizado de máquina facilita a construção de
modelos pelos computadores a partir dos dados de amostra automatizando os processos de tomada de decisão com base nas entradas de dados criando por conta própria as regras necessárias o resultado desse processo é um modelo contendo todo esse compilado de dados necessários para ir a realizar a análise existem alguns tipos de machine learning sendo os mais comuns o aprendizado supervisionado em que envolve o uso de dados rotulado para treinar o modelo que possa prever resultados futuros e o aprendizado não supervisionado que envolve o uso de dados não rotulados e o objetivo é descobrir padrões ocultos nos
dados quando a gente fala de rótulos estamos literalmente falando de dados que são classificados por exemplo um modelo que está aprendendo o que é um gato ou um cachorro vai receber diversas fortes que foram classificados por humanos como sendo fotos de gatos e cachorros e isso vai dando algoritmo a base do que é um gato e do que é um cachorro sabe quando você precisa identificar o que que é um farol uma faixa de pedestre nos cápsulas então isso daí é você classificando os dados ainda no exemplo com fotos de cachorrinhos basicamente entregamos para o
algoritmo diversas fotos de cachorrinhos de diversas raças em diversas posições e Fundos A partir disso o modelo passa a entender alguns padrões como por exemplo tem quatro patas tem um focinho tem uma cauda e assim por diante Claro que ele faz isso em um nível muito mais baixo interpretando tudo de forma matemática convertendo essas características em valores numéricos que poderão ser calculados por ele a partir daí o modelo está treinado e se você encaminhar outra foto de um cachorro que tem as características do que ele aprendeu ele vai te responder afirmando que se trata de
uma foto com um cachorrinho esse exemplo também é legal para explicar a importância dos dados e principalmente o volume deles imagina que você treinou esse modelo de Inteligência Artificial usando somente fotos de cachorros de uma única raça de um labrador usou fotos de filhotes de adultos e de várias cores fazendo diversos atividades em diversos posições nesse caso ao receber uma foto de um husky por exemplo Apesar de ele ter características de um labrador ele é diferente das imagens que o modelo aprendeu e isso com certeza vai atrapalhar na resposta Esse é um grande problema das
viagens que trabalham com massas muito grandes de dados se o modelo não for corretamente treinado ele pode se tornar genérico demais e começar a identificar coisas que são parecidas com que ele conhece como sendo verdadeiras um grande exemplo são mais imagens que pedem para identificar um cookie ou um shihuahua mas fala a verdade nessa classificação Até você teve que prestar mais atenção para não errar dessa forma no aprendizado supervisionado o ideal é ensinar utilizando tanto exemplos do que é aquilo que você deseja quanto exemplos do que não é Ok falamos sobre o aprendizado supervisionado mas
como funciona o não supervisionado como ele vai saber o que é aqui vamos continuar usando o exemplo das fotos dos cachorros mas vamos adicionar também um conjunto de fotos de gatos com aprendizado não supervisionado é possível passar todas as imagens sem rótulos e a partir disso o algoritmo vai buscar por conta das dos próprios padrões ao grupo de acordo com a similaridade das características de cada um fazendo isso ele terá dois grupos de imagens uma contendo os cachorros e outra os gatos quando receber uma nova foto irá Comparar as características com esses grupos para dizer
se a imagem tem mais características em comum com um grupo dos cachorros ou dos gatos claro que ao final do processo você terá que rotular esses grupos para que ele saiba que o que são gatos e outros que são cachorros não existe uma forma de aprendizado melhor ou pior ambas possuem seus prós e contras e para alguns casos a supervisão nada poderá ser mais interessante e para outros casos pode ser a não supervisionado Além disso essas classificações são só as principais além delas existem outros tipos como por exemplo aprendizado revisionados ou por reforço nesse último
Vamos dar um incentivo todas as vezes que o algoritmo acertar uma resposta dessa forma ele sabe quais são as imagens que ele tem que procurar correlações qual não programadores podemos aprender sobre Machine lane para criar aplicações inteligentes com base em dados ou até para utilizar algoritmos e ferramentas que utilizam machine learning ajudando na resolução de problemas complexos a demanda por aplicações inteligentes só cresce aprender imagine Lane pode ser uma habilidade altamente valorizada para profissionais da área onde existem diversas ferramentas disponíveis para realizar testes com inteligências artificiais ou para fazer seus próprios treinamentos utilizando uma estímulando
na WS por exemplo você encontra diversos serviços de machine learning em Cloud alguns deles são gratuitos para uso pessoal e para baixo de volumes de dados outra forma de utilizar o Machine e fazer seus próprios treinamentos é utilizando diretamente os algoritmos por exemplo grandes modelos que são treinados a quantidade massiva de idade como o GPT 3.5 no qual o chat GPT é baseado até o gpt4 também que foi lançado e modelos de imagens como dali são excelentes exemplos de algoritmos que são prontos para uso Mas podem ser retreinados e aprimorados de acordo com suas especificações
para isso recomendamos que você conheça um pouco das principais linguagens de programação utilizadas no mercado da Inteligência Artificial a maioria dos algoritmos foram criados utilizando o pai então a linguagem queridinha dos programadores de ia mas claro ela não é única é possível Acordar uma e a com virtualmente qualquer linguagem o que vai mudar é a dificuldade Já que as linguagens principais possuem modelos e bibliotecas pré-prontas que facilitam muito trabalho algumas das Ferramentas para criação de algoritmos e uso de machine learning são tenso ou flows todas elas possuem uma comunidade bem ativa e são bastante utilizadas
em diversos algoritmos vamos dar uma olhada em como seria um sniper de código no tear Esse é um código em Python que utiliza a biblioteca tensorflow para criar e treinar o modelo de rede neural para classificar dígitos manuscritos utilizando o conjunto de dados emite para quem não conhece o é nice é um conjunto de dados de imagens de dígitos mano escritos muito utilizados para treinar e testar modelos de redes neurais para reconhecimento de dígitos ele tem um conjunto de treinamento de 60 mil imagens e um conjunto de testes de 10 mil imagens onde cada uma
delas representa um dígito de 0 a 9 inscritos manualmente primeiro importamos a biblioteca tem o sua flor e em seguida carregamos o conjunto de dados do feminist depois carregamos os dados de treinamento e testes a partir do conjunto de dados e ministros e dividimos eles em duas variáveis cada um para as imagens e outras para os rótulos temos também que fazer uma normalização dos pixels das imagens depois vamos usar a classe sequestion do tensor para criar um modelo sequencial de rede neural e algumas camadas da epi-quedas do como a flatten que transforma uma matriz multidimensional
em uma matriz unidimensional nesse caso a imagem de entrada de 28 por 28 pixels em um vetor de 784 pixels o dance que a camada mais básica e comum e uma rede neural responsável por receber um vetor de entrada e produzir um vetor de saída aplicando uma operação linear seguida de uma função de ativação para cada neurônio na camada nesse exemplo significa que a camada terá 128 neurônios que usarão a função de ativação relu O que é unidade linear retificada Depois temos a camada que ajuda a evitar o overfite na rede neural que é quando
ao invés de aprender padrões Gerais o modelo acaba meio que decorando os dados de treinamento e tem dificuldade para aplicar em novos dados agora usamos mais uma vez o dance como uma camada de saída com 10 neurônios uma para cada dígito e função de ativação softmax que é muito utilizada como a última camada de um modelo de classificação justamente por produzir uma distribuição de probabilidade sobre as possíveis classes e por fim usamos o Model com pai o que configura o processo de treinamento do modelo especificando ao otimizador a função de perda e as métricas que
serão utilizadas para avaliar o desempenho do modelo durante o treinamento o modelo é treinado usando o modelo Fit uma função importante para treinar e ajustar os parâmetros do modelo com os dados de Treinamento sempre com o objetivo de minimizar a função de perda e melhorar o desempenho do modelo os dados de testes são usados como dados de validação e a precisão do modelo é avaliada no conjunto de teste entendemos que para quem nunca trabalhou com Machine lear nesse exemplo pode parecer um Bicho de Sete Cabeças é claro que para se especializar no assunto vai ser
preciso dedicação e muitas horas de prática mas a boa notícia que diversas empresas possuem Treinamentos e muito material gratuito onde você pode aprender no meu caso da NVidia que é parceiro desse vídeo através do institute e das próprias ferramentas como um tensor que tem uma excelente documentação Esperamos que esse vídeo tenha Iluminado o seu caminho para o aprendizado de máquina nos encontramos em um próximo vídeo até lá tchau tchau e para continuar nesse assunto eu recomendo fortemente que você Assista esse outro vídeo aqui sobre Zip Lane que é mais um ramo da Inteligência Artificial mas
se preferir acesso a Playlist completa do dicionário do programador lá você ainda vai encontrar os vídeos sobre inteligência artificial e tensor