Beleza, vocês estão vendo minha tela aí? Sim. Show de bola. Pessoal, boa noite. É um prazer estar aqui fazendo essa palestra para vocês, né? Na Full Cycle, no MBA, pessoal da turma de MBA. Eu já conheço o Wesley tem alguns anos já. Eu lembro dele desde a época do School of Net, né? Parecia lá ensinando PHP e tal. E mais recentemente no Full Cycle, né? Encontrei com ele em 2022, eu tava lá em Orlando, mandou uma mensagem pra ele, falei assim, ó, tô aqui, não sei o que, ah, vem aqui em casa e tal, cara, é muito gente boa, cara. E é uma curiosidade pra vocês, né? Naquela época lá, ele já tinha me falado, em off, claro, da intenção de criar a faculdade Full Cycle. Então, assim, eu fico muito feliz que deu certo e está dando certo. Então, parabéns para o Wesley. Mas vamos lá. Vamos bater um papo aqui sobre Machine Learning e AI no mundo real. Se vocês escanearem esse QR Code aí, vai dar direto para o meu LinkedIn. Então, quem quiser me adicionar lá no LinkedIn, só abre a câmera, escanearem esse QR Code aí, vai dar direto para o meu LinkedIn, então quem quiser me adicionar lá no LinkedIn, só abre a câmera, escaneia aí e vai levar lá para o meu LinkedIn, eu gosto de adicionar todo mundo, fazer boas conexões, eu estou postando alguns conteúdos sobre essa parte mais focada aí de Machine Learning, AI, Platform Engineering, etc, lá no meu LinkedIn, e eu pretendo postar cada vez mais. Então vamos lá, vamos começar. Primeiramente, como que eu cheguei até aqui? Eu já trabalho na área de TI há bastante tempo, e desde 2015 eu venho trabalhando com a parte de DevOps, Platform Engineering, Cloud Engineering, SRE, cada empresa chama de um nome diferente, mas acaba que no final das contas a gente acaba meio que fazendo a mesma coisa ali, ou coisas similares. Eu comecei uma pós-graduação em cibersegurança, e aí o meu trabalho de conclusão do curso, eu resolvi fazer um experimento aí de previsão de URLs maliciosos usando machine learning, de phishing. Então, você pegava um modelo, treinava ele, e ele conseguia detectar se a URL que você estava passando era um phishing, um site de phishing, ou não. E por conta disso, eu comecei a fazer as pesquisas para essa pós-graduação, eu comecei a, fazendo as pesquisas para essa pós-graduação, eu comecei a interessar mais por esse assunto de Machine Learning e AI de maneira geral. Tanto que eu mal terminei essa pós de Cybersegurança, eu comecei uma outra agora em dezembro de Machine Learning em si, determinado que vem. Então por isso que eu cheguei até aqui e me interessei nesse assunto. Então, por isso que eu cheguei até aqui e me interessei nesse assunto. Quando eu, por exemplo, ouvia falar de machine learning no passado, eram todas essas palavras aí que a maioria da gente não come falar, né? Comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos, comandos era uma penca de umas 50 palavras disso aí, né? A mesma coisa nesse assunto de Machine Learning. Eu lembro que antigamente eu entrei no Coursera e o Coursera sempre teve essa pegada de editar cursos de Machine Learning, AI e tal. Aí eu fiz um enroll lá, me matriculei num curso lá e comecei a fazer. A primeira matéria era Matemática aplicada ou não sei o que estatística avançada do XPTO eu falo, cara, eu não tenho nem base matemática pra seguir isso aqui, né, desistir se machine learning for isso é muito chato não quero mas conforme as coisas vão surgindo e vai surgindo uma abstração em cima da outra as coisas vão facilitando o entendimento da gente, por assim dizer. E no final, vocês vão ver que apesar de ter uma coisinha diferente aqui, uma palavra diferente ali, no final é a mesma coisa. Na área de TI, o que a gente acha que é invenção, que é coisa nova, que é rápido, na verdade, não é. Isso aconteceu com microserviços, com qualquer tecnologia que você pensar. Microserviços, para vocês terem uma ideia, tem um paper de 1970 e poucos, de um cientista chamado Parnas, falando sobre modalização de aplicações. É o que microserviços faz. Serviço, microserviços, SOA, etc. Então, o machine learning é a mesma coisa. Aí, o que eu aprendi depois disso? Que machine learning serve para resolver um problema de negócio. Então, a gente sempre tem que se perguntar, qual problema estamos resolvendo? Sempre. Não é qual modelo que eu vou usar, qual algoritmo X que eu vou usar, se eu vou usar, sei lá, o LLM da OpenAI, se eu vou usar o Lhama da Meta, se eu vou usar o Gemini do Google. Isso não importa no começo. O que a gente sempre tem que se perguntar é qual o problema de negócio que eu estou resolvendo. que eu estou resolvendo. Eu adoraria chegar aqui para vocês e falar sobre os problemas que eu estou resolvendo para um cliente que é de fora do país, trabalhando na TDAB. Mas, como vocês sabem, toda Big Tech tem NDA. Então, infelizmente, eu não posso chegar aqui e falar para vocês as coisas legais que eu ando trabalhando no dia a dia. Mas, isso não é nenhum problema. Por quê? Eu peguei um exemplo aqui de algo que qualquer um de nós aqui vai entender e como que a gente pode aplicar esse pensamento de pensar qual o problema que a gente está resolvendo para resolver um problema que todo mundo vai saber. Então, pensa que você trabalha para uma companhia de ride-sharing, o Uber, o Lyft, a gente não tem aqui no Brasil, só lá fora, 99, qualquer uma dessas. E o seu trabalho é manter a frota de carros do Uber, por exemplo, o mais ocupada possível. Por quê? Porque cada motorista que não está trabalhando, ou seja, levando passageiros de um lugar para o outro, o Uber está perdendo dinheiro. O motorista está perdendo de ganhar dinheiro. O passageiro está com raiva porque não acha o motorista e pode usar a concorrência e assim por diante. Então a pergunta é, será que você pode ajudar nessa tarefa usando machine learning, usando AI? É isso que a gente vai tentar resolver aqui. Então, seu trabalho é manter a frota de carros o mais ocupado possível. Lembre-se disso. É um problema claro de oferta versus demanda. Então, você quer igualar o número de motoristas com o número de passageiros. Esse é o problema. Como é que funciona, por exemplo, no Uber? Oferta e demanda, né? Isso aqui é retirado lá do site deles. A demanda por viagens vai aumentar, então, às vezes, tem tanta solicitação de viagem que não há carro suficiente para atender a demanda. Quando chove, acontece isso, hora do rush, principalmente quem mora em São Paulo vive muito isso, alguns eventos especiais, shows, por exemplo, né? Aumenta o número de pessoas que querem viajar com Uber, algumas datas, final de ano, algumas regiões, às vezes, perto de grandes centros e assim por diante. Então, a demanda por viagens vai aumentar, o preço, consequentemente, vai aumentar. Por quê? Porque isso vai criar um incentivo para que os motoristas parceiros vão para lá, para aquela região, e vão atender a viagem, para poder ganhar mais dinheiro. O sistema de preço dinâmico permite esse app da Uber fazer essas questões aí. Aí você como usuário, o que você faz? Ou você paga mais ou você resolve esperar. Eu já tive uma experiência bem ruim com preço dinâmico da Uber, porque começou a cair uma chuva muito grande, não era tão longe da minha casa. Um Uber naquele horário era seis e meia da tarde, mais ou menos, ia custar uns dezoito reais na época. Só que como estava chovendo muito, foi pra sessenta reais. Então, tipo, três, mais de três vezes mais. Resultado, eu fiquei duas horas esperando a chuva passar, a chuva não passou. E o preço também não baixou, eu tive que pagar sessenta reais pra ir pra casa na época, entendeu? E eu tô certo que a maioria de nós já teve uma experiência assim. Então, hoje é como funciona isso aí, esse preço dinâmico. É bom pro motorista? Talvez sim. Ele vai ganhar mais dinheiro. Mas ele vai ter que fazer a conta. Tá, o tempo que eu vou ficar parado no trânsito compensa o tanto de real que eu vou ganhar? Às vezes não. Às vezes ele nem vai, nem aceita, né? Então imagina que a gente tem uma série de dados, né, uma tabela onde eu tenho aqui, ó, a hora, seis da manhã, sete, oito, nove, dez, até as quinze horas. Número de motoristas disponíveis em determinada região, nessa outra coluna,, nessa outra coluna, e na outra coluna, passageiros procurando por corridas. Lembra que o nosso trabalho é igualar o número de motoristas com o número de passageiros, resolver esse problema de oferta e demanda, para que a gente não caia nessa questão do preço dinâmico aqui. Então, pegando essa tabela e plotando ela num gráfico em linhas, como que fica? A linha azul seria os motoristas disponíveis e a linha vermelha os passageiros procurando por corridas. Isso aí a gente pode inferir algumas coisas, né? Olhando a tabela e olhando o gráfico que a gente plotou. A gente viu ali que às 11 horas da manhã, a partir das 11, começa a ter um excesso de motoristas, né? De passageiros, aliás, procurando corridas. Só que vai ter muito passageiro procurando corrida ali entre 11 e 13 horas, mas poucos motoristas disponíveis em determinada área. Só que vai ter muito passageiro procurando corrida ali entre 11 e 13 horas, mas poucos motoristas disponíveis em determinada área. E a gente vai ver depois aqui que essa área que eu fiz essa brincadeira, ali no Parque Ibirapuera, na redor do Parque Ibirapuera em São Paulo. Então, de posse desses dados aqui, e desse gráfico, a situação que a gente deve evitar é excesso de motorista sem passageiro, posta desses dados aqui e desse gráfico, a situação que a gente deve evitar é excesso de motorista sem passageiro e excesso de passageiro sem motorista disponível. Porque se eu tiver excesso de motorista e não tiver passageiro, o motorista vai ficar não vai compensar para ele, né? Ficar rodando, gastando gasolina sem encontrar passageiro. E se eu tiver um excesso de passageiro, às vezes é pior ainda, sem motorista disponível, não vai ter carro suficiente para demanda de passageiro para o caminho da corrida. Aí o passageiro vai reclamar, vai postar na internet, vai xingar no Twitter e assim por diante. Podendo causar até um prejuízo de imagem para a marca da empresa, para o UB nesse caso. Beleza, então a região é essa, o parque do Irapuera, e os dados que a gente tem históricos são esses aqui. Tá. Como que... E se eu pudesse enviar uma notificação para os motoristas dizendo, ó, vem para aqui para essas regiões que estão esses retângulos em vermelho, vem para aqui para essas regiões que tem mais passageiros então se você se afastar um pouquinho do parque de Birapuera você vai encontrar mais passageiros pra você fazer as suas corridas você vai ganhar dinheiro se eu pudesse mandar uma uma push notification pra ele falando isso. E se eu pudesse enviar uma notificação para os passageiros, aqui é nos motoristas, né? Aqui é os passageiros. Se eu pudesse enviar uma notificação para os passageiros dizendo assim, vem para cá, para essas quadras aqui em azul, que está circulado aqui, esses quadradinhos em azul, que nessas quadras aqui você vai conseguir pegar o seu Uber mais rápido e você ainda vai ganhar R$5 de crédito para a sua próxima corrida. E se eu esperar aqui na República do Líbano, na 23 de maio, na Quarta Centenária ou nessa outra rua aqui, acho que é a Brasil, aqui está muito trânsito, são vias mais expressas, complexos viários, etc. Você não vai conseguir pegar seu Uber aqui. E tem passageiro que pede o Uber ali, quer que você pegue ali naquele local exato, não quer nem atravessar a rua. Mas e se eu mandar uma notificação para eles falando assim, anda mais duas quadras, anda mais três quadras, anda mais quatro quadras, que você vai pegar do seu Uber e você ainda vai ganhar cinco reais pra próxima corrida. Então, nesse caso, o passageiro vai fazer a conta, né? Pô, será que eu vou pegar meu Uber mais rápido e vou ganhar mais cinco reais? Ah, vale a pena andar duas quadras pra isso. É pertinho, ó. Sai daqui, ó. Ando duas quadras pra ele. Você aperte, sai daqui, manda duas quadras, eu tô nessa. Conselheiro Torres, homem, Antônio Bento, General Fonseca Tello. Duas quadras, eu tô aqui, eu pego o Uber aqui e vou embora pra casa. Chego em casa mais rápido hoje. Então, a gente fugiu aqui um pouco. A gente pegou aquela questão de preços dinâm e fugiu. Tratou o problema com uma outra ótica, por assim dizer. Então, resumindo aqui o problema de negócio, que é oferta e demanda, igual ao número de motoristas e passageiros. Aqui a gente pode dizer que a oferta encontra a demanda. Então, você pode controlar o número de motoristas disponíveis? Não. Você pode controlar o número de motores disponíveis? Não. Você pode controlar o número de passageiros requisitando corridas em determinado horário? Não. Você não pode travar o celular do Leonan ou o celular do Wesley de segunda-feira de 6 a 7 lá na região X do Parque Ibiraparela. Ele não pode pedir corrida. Não existe isso. Mas você pode prever. E como que você pode prever isso? Para poder resolver esse problema de oferta de demanda, de igualar o número de motoristas e passageiros. Será que você pode prever isso com a ajuda da mãe de NAR? Não, né? Mas com a ajuda do Machine Learning você pode. Então imagina que você pode construir um modelo de Machine Learning que você pode prever quantos usuários irão pedir uma corrida dentro de uma certa área de São Paulo. Nesse caso aqui, o Parque de Ibirapuera. Em um determinado horário. Então, se você tiver um modelo de previsão, você pode se planejar previamente e aí você rearranja a distribuição dos seus motoristas para suprir a demanda naquele determinado local, naquele determinado horário. Aí o que a gente tem que pensar? Quais os dados que eu preciso para fazer esse modelo? Bem, eu posso pensar aqui rapidamente, pessoas procurando por corridas, eu estou falando de dados históricos, corridas realizadas naquele local, em determinado horário, e assim por diante. Aí a gente tem que fazer outra pergunta também, né? Será que esses dados que eu consegui, a gente pode usar esses dados para prever o que queremos? No caso aqui, eu dei o exemplo desses dados aqui, né? Pegou esses dados históricos de algum lugar, onde tem a hora, os motores disponíveis, os passageiros procurando o corrido. Isso aqui é o padrão quase ouro de dados. Às vezes você não vai encontrar tantos inputs de dados assim, mas você pode ir trabalhando e refinando com o que você tem. Aí a gente entra num conceito, em machine learning, a gente chama de features, que são os dados históricos que a gente usa para gerar a nossa estimativa, a nossa previsão. Esses dados históricos, essa tabela aqui que eu mostrei para vocês, tem hora, motores disponíveis, passageiros procurando as corridas. Então, vamos falar que cada dado histórico desse vão ser as nossas features, que vão ajudar na nossa previsão. Tem outro conceito também que a gente chama de target, o alvo. O alvo desse problema de negócio que a gente quer responder é qual que é o número de usuários que vão perder uma corrida em uma determinada hora, ou na próxima hora. Então, se a gente tiver isso relacionado com os dados que a gente tem, a gente consegue fazer esse modelo para posteriormente treiná-lo. Com isso em mente, com esses dados em mente, com essas perguntas que a gente fez, pensando nas features, o time de operações da Uber pode oferecer incentivos para os motoristas. Isso aqui eu peguei do site da Uber. É um exemplo de incentivo. O motorista tem uma missão, ele tem um target date ali, uma data-alvo para a missão. E aí se ele cumprir a missão de, sei lá, realizar X corridas e ganhar tantos reais, ele ganha mais R$5. Ele ganha mais R$10. Ele ganha mais R$40 e assim por diante. E Ele ganha mais 10 reais, ele ganha mais 40 reais, assim por diante, né? E aqui no finalzinho que vocês viram, parabéns, você recebeu 15 a mais, receba 30 a mais, vai ganhar 45 extras. Ganhar 45 reais, vai ser assim por diante. Só que se a gente pudesse também mandar uma push notification pro motorista, né? Igual a gente falou no nosso primeiro exemplo lá, né? Falou, olha, essa área que você tá, não igual a gente falou no nosso primeiro exemplo lá, né? Falou, olha, essa área que você está, não está tendo corrida agora. Mas se você andar cinco quadras para a direita, sete quadras para o norte, três quadras para sul e assim por diante, você vai ter passageiros disponíveis. E para cada corrida que você fizer naquela área, eu vou te dar R$5 a mais, vou te dar R$8 a mais, vou te dar R$10 a mais e assim por diante. Então, note que aqui a gente está trabalhando com mecanismo de incentivo, tanto para o motorista quanto para o passageiro. É uma maneira de a gente resolver esse problema de oferta e demanda. Já que a gente tem todos aqueles dados lá, que eu mostrei para vocês, da tabela e tal, a gente tem que fazer uma preparação deles. Em machine learning, quando a gente está trabalhando, envolve esse tanto de coisa que tem aí na fase de preparação de dados. Então, a coleta dos dados, a limpeza deles, a transformação, uma coisa que a gente chama de feature engineering, seleção da feature, o splitting, formatação dos dados e assim por diante, né. É uma coisa que a gente via muito no passado na área de data science, né, que é mais ou menos o que data science fazia, né, pra fazer os data lakes, etc. Com a adição de algumas coisas, com essa parte de feature select, feature engineering, e assim por diante, né? Então, a ideia aqui é preparar os dados a fim de adequá-los pra etapas posteriores de processamento e análise. E a gente não vai usar o dado cru, né? O dado raw, igual tá aí nessa primeira caixinha. O que é um dado raw, um dado bruto, um dado cru? São todas as corridas, no nosso exemplo aqui, que ocorreram em São Paulo, na cidade de São Paulo toda, em determinado espaço de tempo. Igual eu falei antes, geralmente a gente não vai achar o dado bonitinho. E esse é o trabalho do cientista de dados. Esse é o trabalho do machine learning engineer, por exemplo. Fazer toda essa transformação de dados e assim por diante. Então, depois que a gente tem o dado bruto, de todas essas corridas que ocorreram em São Paulo, por exemplo, em determinado espaço de tempo, a gente vai ter que ter a validação desses dados. E aqui é uma parte muito crítica, porque nós vamos limpar esses dados brutos, porque a gente não quer treinar o nosso modelo de dados, o nosso modelo de machine learning com dados, na verdade, que não fazem sentido. Aí a gente pega esse dado bruto, faz essa validação, essa limpeza, e a gente quer uma versão limpa do nosso dataset, do nosso conjunto de dados. Depois disso, nesse caso aqui, para esse nosso exemplo, a gente entra nessa caixinha de time series data, que é a transformação dos dados. Isso se dá através de um processo que se chama agregação, aggregation. A gente vai agregar uma série de eventos brutos, já validados, validated raw data, em um formato de dados de time series data, ou seja, dados de série temporal. E a gente está lidando com hora, lembra? Hora, número de corridas, etc. Para cada caso de uso, isso aqui vai ser diferente. Às vezes não é time series, às vezes é outro tipo de dado. Nesse caso, o nosso exemplo é a gente vai separar os eventos por hora e por área. Então pega os dados de São Paulo todo, separa por hora, e agora separa pela área do Parque do Ibirapuera. Então, às vezes, fatalmente usando coordenadas geográficas para isso. E o output disso, a saída, vai ser uma coleção de dados de série temporal. Depois que a gente tem isso, a gente passa para essa última caixinha aqui, que é os dados para o Machine Learning Supervisionado. Para treinarmos o nosso modelo de Machine Learning, a gente precisa de um formato diferente de Time Series. Aqui a gente pegou o dado cru, validou, limpou e transformou ele em Time Series. Só que para eu treinar o meu modelo, ele não vai entender isso aqui, Time Series. O que a gente precisa fazer? A gente precisa de coluna para feature e coluna para o target. Parece que a gente usa uma operação chamada slice, que faz essa transformação, é uma outra transformação, de formato de dados para que a gente consiga treinar o nosso modelo de machine learning. Isso aqui... Oi? Uma dúvida do Léo que ele perguntou aqui. Nesse processo todo que você está mostrando, aonde entra a parte de Data Engineering? Tudo isso aqui é Data Engineering. Ou, como eles chamam hoje, de Machine Learning Engineering. No passado, isso se chamava Data Engineering. Hoje, chama Machine Learning Engineering. É simples assim. Só que, antigamente, o cientista de dados, o Data Engineering, o que ele fazia? hoje chama Machine Learning Engineering. É simples assim. Só que antigamente, o cientista de dados, o Data Engineer, o que ele fazia? Ele, às vezes, ele pegava o dado, ele limpava o dado e ele colocava num data lake pra ser consumido por algum API, por algum app e assim por diante. Quando entrou Machine Learning na jogada, a gente faz um pouquinho mais de coisa, que é justamente essa separação aqui de features e target. Porque se eu chegar e pegar o meu modelo, eu falo assim, eu quero treinar o meu modelo para resolver esse problema aqui do Uber que a gente está fazendo. Se eu aponto esse meu modelo com data lake, ele não vai entender aquilo. Eu não vou chegar para um chat GPT e pegar um zip desse dado e falar assim, ô chat GPT, eu quero que você calcula para mim por hora quantos motoristas estão disponíveis e quantos passageiros estão... Não é assim que funciona. As LLMs, os modelos, eles não são inteligentes o bastante, igual nós seres humanos, para poder resolver isso. A gente tem que fazer essa série de coisas e para treinar o nosso modelo, a gente tem que pegar esses dados aqui e transformar nessa questão de features e target. Fazer colunas, que chama. Dito isso, existem diversos softwares que você pode usar para isso. Um muito famoso hoje é o Databricks. E caro para caramba também. É o Databricks. E caro pra caramba também. Você bota os dados lá, e é toda essa parte de feature, catálogo de features, supervisão, as pipelines de machine learning que vão rodar lá dentro, tudo isso o Databricks faz. Já que eu falei de pipeline, a gente entra numa outra seara dentro desse mundo de trabalhar com aplicações machine learning e assim por diante, né? Que é a parte de system design de machine learning. Então, eu posso fazer tudo isso aqui de maneira manual, mas a gente sabe que não é a melhor maneira de se trabalhar, né? Ainda mais que a gente está lidando com uma sérieando com uma quantidade muito grande de dados, de modelos, de features, etc. A coisa fica só mais complicada. Então, a gente precisa de automatizar isso. Quando a gente fala de pipeline, a gente pensa logo no clássico CICD, fazer um continuous integration. Então, eu rodo meus testes, sejam eles unitários, end-to-end, integração, etc. Rodo meu lint, rodo scans de segurança no código, faço o build da minha imagem no container, rodo um scan no container para ver se tem alguma vulnerabilidade, uso esse container também para testar, às vezes fazer um teste end-to-end depois que a imagem está buildada e assim por diante. Por fim, eu deploy no meu registry, faço push para o meu registry, pego do registry e deploy, sei lá, onde eu quiser deployar. Na minha instância, no meu Kubernetes e assim por diante. Quando a gente está falando de machine learning, não é simplesmente fazer esse CIS de classe que a gente está acostumado, né? simplesmente fazer esse CIS de classe que a gente está acostumado, né? Então, na parte de pipelines de machine learning, a gente tem três tipos de pipeline. Falando assim, de uma maneira, num high level, né? Tem a feature pipeline, a pipeline de treinamento, training pipeline, e a pipeline de inferência, né? Esse gráfico aqui eu peguei de um site da Hopsworks, que faz o que a Databricks faz também, um concorrente da Databricks. Tudo isso aqui a gente faz para poder registrar os nossos modelos, guardar as nossas features, que são essa série de dados históricos, treinar o nosso modelo, fazer a inferência e assim por diante. Só que se vocês olharem para essa figura, nota que não difere muito de um CI e CD. O que é um CI e CD? É uma pipeline, é um negócio, é uma coisa que chama pipeline, uma tubulação. Entra uma coisa aqui e sai uma coisa do outro lado. É a mesma coisa disso aqui. Lembra que eu falei? Machine learning não é tão rocket science assim, não é tão ciência de foguete assim. Mesma coisa. Então, o dado entra aqui, passa por essa feature pipeline, que é transformar os dados nessas features, né? Essas labels também, que é como se fossem umas tags dos dados. O dado vem pra cá. Fica armazenado nessa feature store. Aí essa feature store vai pra pipeline treinamento, que tá treinando o nosso modelo, com as features e os labels. Estuda aqui quem faz essa parte aqui, o machine learning engineer, geralmente. Aí você treinou um modelo, aí você já tem um modelo treinado. Opa, vou registrar esse modelo aqui. O que a gente faz com o container quando eu builda ele? Bota num registro? Num artefacto de registro da vida? Num SR? Mesma coisa aqui. A gente está buildando o modelo, construindo o modelo e registrando ele aqui. E aí depois a gente pode... Isso aqui é um modelo treinado, né? E depois a gente pode fazer as nossas previsões. O que a gente queria fazer lá da questão de em qual determinada hora vai ter mais passageiro pedindo para poder fazer o rearranjo de motoristas. Então, a gente roda essa pipeline de inferência, que vai fazer essas predições, essas previsões, com os modelos e novas features também que a gente pode adicionar. E aí, dessas predictions, dessas previsões, sai o meu produto de AI. Isso aqui, para quem já trabalhou no passado com ETL, Data Product, é a mesma coisa, só que modelado para AI. Numa questão de ETL que vinha do passado, que aí virou Data Lake, o que a gente fazia? Eu tinha um baldão onde eu jogava todos os meus dados, eu fazia com ETL extrações, montava catálogos de dados e disponibilizava esses catálogos para serem consumidos por uma API. Hoje eu consigo fazer a mesma coisa, só que eu consigo disponibilizar esses catálogos, que a gente chama de data products, para um modelo de machine learning ser treinado nele. Aí eu pego esses dados que já são treinados, sanitizados, blá blá blá, etc e tal, posso limpá-los mais ainda, se for o meu caso, eu passo esses carinhas em cima dele, faço o feature pipeline, treinamento do modelo e a inferência para fazer minha previsão. É isso. Seguindo mais a fundo da feature pipeline, ela vai transformar esse modelo cru nessas features. Então, elas vão ser salvas nesse feature store ou um banco de dados retorizado, geralmente. Aqui um modelinho de como que funciona. Eu tenho minha fonte de dados, que está cru. Feature pipeline rodou de dados que está cru, feature pipeline rodou, cria as features, armazena na feature store, aí vai para pipeline de treinamento, que é a próxima. Pipeline de treinamento, ela vai ler essas features históricas da feature store, esse carinha aqui, ou de um banco de dados autorizado, e vai gerar um novo artefato de modelo. De novo, quando a gente está ali buildando nossa, sei lá, na pipeline, a nossa app, nosso microserviço de teste, ele está gerando um artefato novo. É a mesma coisa aqui. Ele está gerando um artefato novo, só que o artefato é um modelo de machine learning, não é um pontainer, por exemplo. Registra esse modelo depois de treinado. Faz o push para o resto e entra na parte de inferência. A inferência vai fazer o load do modelo que está registrado aqui no registro de modelos. E o input, ele vai fazer o load do modelo que está registrado aqui no registro de modelos e o input ele vai pegar o input do app do cliente, por exemplo um prompt de texto então se eu tiver um chatbot que está conectado aqui, ele vai pegar esse meu input e gerar uma previsão e vai retornar para o cliente, para quem está consumindo isso aí, uma API e assim por diante. Então, vocês notaram as semelhanças com CICD de aplicações clássicas, por assim dizer? Model registry para registrar modelos de machine learning. Eu posso fazer uma comparação com os registros dos meus containers E assim vai Então se a gente usar essas comparações Facilita mais para entender Então o que eu quero que vocês tirem daqui hoje é Se essa imagem aí que você tem de inteligência artificial Que é um vilão, que vai roubar seu emprego Tirem daqui hoje é, se essa imagem aí que você tem de inteligência artificial, que é um vilão que vai roubar seu emprego, que você não vai ter mais nenhum emprego, etc e tal, pode tirar isso da cabeça. Na verdade, a Machine Learning é um gatinho ali, fofinho, pronto para te ajudar. Já isso está pintando a tela aí. Acho que ele acionou uma coisa do zoom aí para arriscar a tela. Essas ferramentas de machine learning, de AI, esse novo modo de trabalhar, né, exige claro uma mudança de fluxo de trabalho, ele vai exigir novas habilidades nossas, ele vai levantar questões importantes sobre o futuro da indústria, questões como, hoje se debate muito, responsabilidade da inteligência artificial e assim por diante. A inteligência artificial vai além do hype. Hoje está no hype, não tem como negar isso. Só que ela vai além disso. Você tem que examinar ferramentas reais, resolver casos de uso reais, problemas reais. O uso de AI, o uso de machine learning, vai causar, sim, mudanças na produtividade. Ela vai aumentar, ela aumenta a nossa produtividade. Eu aposto aqui, por exemplo, que depois de chat GPT, eu não uso tanto o Copilot, que eu não gosto do Copilot mas eu uso muito o chat GPT depois do chat GPT é muito difícil eu fazer uma pesquisa no Google Stack Overflow então, eu não sei como esses caras vão se manter, ou eles vão tentar ser vendidos pra alguém pra pegar a base de conhecimento dele que você embedar num chat GPT da vida num Gemini, porque ninguém mais pesquisa em Stack Overflow você vai num chat EPT você vai num Gemini, você vai num Cloud lá e você vai pesquisando assim sabe, então assim um big player como o Google teve uma fatia de mercado considerável, com certeza, tirado pela OpenAI, do chat APT. Porque agora a maioria das pessoas busca usando o chat APT e não o Google. Porque você vai ter respostas muito mais rápidas e às vezes muito mais acertidas. Então, a gente tem que lembrar que nossos papéis como engenheiros, trabalhando na área de engenharia e de TI está em constante evolução e o cenário hoje e daqui para frente vai ser assim, quer você goste ou não vai ser sim impulsionado pela pela inteligência artificial lembra que no começo da talk eu falei do Coursera esse carinha aí eu não sei como é que fala o nome dele NG, Andrew Ngui, alguma coisa assim. Ele comparou, ele é fundador do Coursera e ele também é da DeepLearning.ai. É uma empresa que oferece treinamentos de machine learning de modo em geral. Ele comparou com um superpoder. Então ele fala assim, você pode pegar um computador e pode sintetizar um livro, traduzir, renderizar um diagnóstico médico, construir peças de um carro que pode ser autônomo, Tesla, RIVM, etc. Se isso não é um superpoder, eu não sou o que é. Eu não sei o que é. Ele falou isso na minha entrevista. E realmente, a gente usar isso a nosso favor é como se fosse um super poder mesmo, é coisa que a gente não precisa ir muito longe 10 anos atrás, 15 anos atrás era meio que talvez não imaginável e inimaginável mas era muito mais difícil da gente conceber do que agora e outra frase importante também que o Gossi falou, ele falou assim, é difícil pensar que uma indústria grande não vai se transformar com o AI, com inteligência artificial. Isso inclui indústrias de diversos segmentos. Saúde, healthcare, educação, transporte, retail, varejistas, comunicações, agricultura e assim por diante. Então, a inteligência artificial tem o potencial para fazer a diferença em todas essas indústrias. E, de novo, o que a gente tem que pensar? Qual problema estamos resolvendo no nosso dia a dia? Nós temos que parar de pensar do tipo, eu vou usar, eu quero usar o Gemini, eu quero usar o o Chat EPT, eu quero usar o Lama, não. Eu quero usar Python, eu quero usar Google, não. Para e pega no seu cenário ideal, no seu cenário atual, e pensa assim, qual o problema que eu posso resolver com AI? Qual o problema que eu estou resolvendo com AI? É isso que vai fazer a diferença. Então, para pensar, a mudança no foco do desenvolvimento das aplicações, de como construir para o porquê construir. Se a gente for pensar, já existe aplicação de tudo quanto é tipo hoje em dia. E, infelizmente, a gente da área técnica ainda, em sua grande maioria, foca muito no como. Ah, eu vou usar Go. Ah, eu vou usar Python. Ah, eu vou usar Postgres. Ah, eu vou usar MySQL. Ah, eu vou usar Kubernetes. Eu vou usar Google Cloud. Eu vou usar AWS. Eu vou usar Azure. Não. Por que eu estou construindo isso? Essa tem que ser a nossa mudança aqui no pensamento. A inteligência artificial não vai eliminar empregos imediatamente, só que os profissionais que adotarem já vão ter vantagem. Eu tenho certeza de que vocês que estão usando o Pilot, o Chat EPT, ou qualquer outro modelo para poder te ajudar nas tarefas de codificação, vocês se tornaram muito mais produtivos do que antigamente. Então, você no Copilot lá, você começa a digitar um negócio, o brinco do Copilot é um IntelliSense com esteroides, porque ele já te dá o bloco inteiro do código. Então, elimina muito, te faz salvar muito tempo. Então, você tem que adotar desde já. Esquece o que, não cai nessa pilha do que a galera aí, e tem muito influenciador que infelizmente fala isso, ah, eu não contrato ninguém que usa chat EPT, eu não contrato ninguém que usa OpenAI, que usa Copilot e tal. Cara, problema seu, porque todo mundo tá usando, todo mundo vai usar e quem não usa, vai usar. Então você tem que saber com isso, tem que saber usar essas ferramentas a seu favor. Os papéis dos engenheiros de software, eles vão se tornar mais voltados para uma questão de supervisão, né? E solução de problemas, em vez de mera codificação. Por quê? Porque vai evoluir cada vez mais, e está evoluindo muito rápido, aonde você vai, só usando prompt engineering, adiantar muito de suas tarefas. Claro que você não pode confiar cegamente naquilo que a AI te devolveu, mas você vai fazer um code review, digamos assim. Vai fazer uma revisão daquilo que ela te retornou. Então, ela te retornou aquilo assim, deixa eu ver se está certo, deixa eu ver se está integrando com isso aqui, que eu falei que era deixa eu ver se esse negócio, esse bloco de código tá certo, se essa lógica aqui tá ok tá, tá, tá, tá, tá, é assim eu recentemente eu usei pra fazer escrever testes, cara, muito bom eu tava construindo um custom provider de terraform e usa Go, né? Que é o SDK da HashCorp pra isso. E eu usei pra poder me auxiliar na questão dos testes. Fiquei muito produtivo com isso, né? Utilizando o chat EPT. Então, assim, só que você não vai confiar cegamente, você vai testar, você vai supervisionar, né? Então, esse vai ser um dos grandes papéis nossos. O aprendizado contínuo, isso não precisa nem falar, nossa área não tem jeito. Cada vez mais crucial, a gente sempre tem que estudar, quer a gente goste, quer não, mas se estamos na nossa área, é porque a gente gosta de estudar. Inclusive, para melhorar as nossas habilidades de revisão. Revisão do código, revisão daquilo que é AI, do output da AI para a gente. E, por último, o impacto da tecnologia costuma ser superestimado no curto prazo, ou seja, traduzindo outras palavras, hype, e subestimado no longo prazo. Você vê hoje uma corrida de muitas empresas, toda empresa colocou AI na frente. Qual produto você tem? Eu tenho um mouse. Aí a empresa fala assim, é um mouse powered by AI. É assim que funciona. Eu tenho óculos, eu tenho óculos powered by AI. Por quê? Porque isso é vantagem competitiva. Hoje, se você não falar que você tem AI Na sua empresa, que você não usa Esse já está para trás Então isso é você pegar um Top e superestimar ele No curto prazo O famoso hype que a gente está vivendo da AI Então assim, essa mudança toda Ela está transformando o desenvolvimento de software A parte de DevOps E tudo que existe na nossa indústria, né? Então, isso aí Com certeza ela não vem sem desafios Essas mudanças É uma mudança de até um pouco de paradigma De como a gente faz as coisas E o que eu quis mostrar com vocês aqui nessa apresentação é que essas ferramentas todas, ML, AI, etc., elas trazem enormes ganhos, ganhos de produtividade, ganhos dos nossos negócios e assim por diante, mas o impacto que isso causa também vai exigir uma mudança em nós mesmos. Uma mudança nos papéis que a gente desempenha, uma mudança na cultura da nossa empresa, uma mudança das nossas habilidades e assim por diante. E nós, como engenheiros, como desenvolvedores, como pessoal da área de TI, a gente tem que abraçar essas ferramentas e desenvolver essas novas competências, né? Para revisão, para supervisão. E ainda mais, né? A gente nem tocou no tema, porque não dá tempo, mas a gente tem que se preparar para um cenário de agentes autônomos que irão colaborar em alguns casos, até mesmo tomar decisões que vai ter limitada intervenção humana, né? Então, às vezes você vai jogar um negócio para um agente fazer, ele vai fazer a coisa dele e já dali passa para o próximo passo do workflow, por exemplo, e você nem vai interferir naquilo ali. Então, a gente tem que estar preparado para esse tipo de mudança de paradigma. E o futuro da indústria, não só da indústria de TI, mas da indústria que a gente trabalha, que a gente usa TI para resolver problemas, ela vai depender de quão efetivamente a gente se adapta a essas mudanças e quanto que a gente aprende a aproveitar o poder da inteligência artificial. E, de novo, para pensar também, eu sempre falo essa frase, na TI, nada se cria, tudo se copia e se faz um rebranding. Machine learning não é coisa nova. Não é coisa que surgiu em 2022, 2021, durante a pandemia. Não. É antigo. Antigo tem paper de 1950 e poucos lá, falando de machine learning, etc. Então, assim, não é uma coisa nova. Está no hype no momento? Sim. Mas não é rocket science. Não é ciência de foguete. Você consegue aprender sobre o que é machine learning, o que é AI e usar aquilo ali no seu escopo, no seu dia a dia. Você não precisa saber matemática avançada, aplicada, modelos convolucionais, blá blá blá. Não. Você não vai ser pesquisador, você não vai ser mestre? Você não está fazendo doutorado em machine learning? Nada disso. Existem esses papéis? Sim. Mas é um nicho muito pequeno. A maioria de nós, não. A gente tem que pegar o que essas pessoas, o que essas mentes brilhantes fazem e pegar esse negócio que eu tentei passar para vocês aqui simplificado, mais mastigado e tentar adaptar o nosso cenário aos nossos modelos de coisas que a gente faz no nosso dia a dia. É isso. Usar AI e Machine Learning para resolver problemas de negócio. É aí que está o verdadeiro valor da AI. Não é se você usa Copilot, o Chat EPT, o Gemini, o Lhama, o AWS, o GCP, blá, blá, blá. Não. Como que você resolve problemas de negócio com AI? Então, essa é a mensagem final que eu queria deixar pra vocês. Meus contatos estão aí, só vocês escanearem esse QR Code, vocês me adicionam lá no LinkedIn e obrigado aí. Se tiver perguntas, estou aqui pra respondê-las. Muito bom, pessoal. Bom, agora quem quiser fazer perguntas, quem quiser falar alguma coisa, é a hora. Estão muito quietinhos aí. Eu tenho uma polêmica, logo de cara. Então eu vou começar e vocês, eu tenho certeza que alguém vai falar alguma coisa, obviamente, né? A primeira é a seguinte, eu não sei se vocês viram, pessoal, mas saiu uma notícia, eu acho que essa semana, se eu me recordo bem, daquela AI que programa, acho que é Devim AI. Não sei se vocês conhecem. Basicamente, a história se dá da seguinte forma. Eles criaram um teammate, que é o nome de Devim AI, que consegue analisar seu código, abrir o pull request, fazer o clone do projeto, fazer todas que consegue analisar seu código, abrir o pull request, fazer o clone do projeto, fazer todas as alterações que está pedindo na task, fazer o merge do código e meio que já, entre aspas, mandar para a produção. É um negócio absurdo. Tem um vídeo, depois vocês procuram, procura para vocês lerem, dá uma olhada certinha. E, cara, eu confesso que eu fico um pouco assustado com aquele negócio. Não no sentido de, ah, vai tomar meu emprego e blá, blá, blá, blá, mas no sentido de puta que pariu, que negócio maluco, né, a que ponto a gente chegou. E aí o André falou isso aqui vai evoluir cada vez mais aí já me dá um pouquinho de medo, pra ser sincero porque literalmente conseguiu fazer uma tarefa, tudo bem que seja simples, não sei qual a complexidade, mas realmente conseguiu meio que simular o comportamento de um humano, vamos dizer assim. E isso é muito maluco, se você parar pra pensar. E aí eu vi um outro também, esses tempos atrás, foi até no TikTok, que a, não sei se é a Devin, mas sei que é uma IA, que ele conseguiu interpretar uma ressonância magnética. E aí ela conseguiu através dessa interpretação, ver que o pâncreas do cara estava inflamado, enfim, o cara tinha pancreatite e descobrir várias outras coisas. Só que o mais interessante disso tudo não é a análise da ressonância. Porque existe um padrão e, obviamente, ele consegue achar esse padrão. O mais bacana de tudo era qual a tratativa, o que você vai usar, como você vai fazer, quanto tempo de remédio você vai usar, quais são os possíveis colaterais, quais são as possíveis causas disso. Basicamente, o negócio fez um apanhado da saúde da pessoa, baseado naquele problema, e entregou. E o médico não precisou fazer nada. Então, o que vocês acham disso, galera? Vocês acham que a gente vem caminhando para esses agentes, entre aspas, cada vez mais autônomos? E realmente, grande parte, eu vou falar grande parte das profissões vão ser substituídas, mas não é esse o intuito, tá? O intuito é dizer que a gente vai ser realmente um revisor de tudo aquilo que está se passando ali, de agentes para agentes, ou nós vamos ter ainda essa ação mecânica de tipo, não, eu tenho que abrir um request, blá, blá, blá, fazer o merge. Como é que vocês enxergam isso aí? Como é que o André enxerga isso, por exemplo? Eu vou dar meu take nisso aqui. A gente tem que ter cuidado, porque toda demonstração de algum produto de inteligência artificial foi cuidadosamente preparado, e aí incluído o modelo de dados e bem treinado para fazer aquilo ali, ponto. Esse Dev, enquanto surgiu o vídeo dele, todo mundo ficou assim, meu Deus, acabou esse programador e tal. E eu vou te falar assim, numa boa, esse é o sonho da maioria do C-Level. E a forma de desenvolvedor é o quê? Que não entrega, que demora para entregar, que fala que não sei o quê. Você ouviu aquele meme do superintendente de TI da Caixa falando lá, demora três meses para dar um bom dia, não sei o quê. Essa é a fama. Infelizmente, essa é a fama. Então, o sonho deles é ter uma IA que você fala assim, eu quero fazer um programa assim, assim, assado. e ele sai do outro lado, mas não é assim que funciona. Até hoje não existe uma máquina de fazer café que não precise de intervenção humana. Você precisa ir lá, colocar o grão para ela moer, ou você precisa moer o grão e colocar lá, e você mesmo colocar a água e apertar um botão. Então, eu enxergo ferramentas como o Dev nesse sentido aí. Vai chegar um tempo em que, cada vez que passa o tempo, ela vai ser mais bem treinada e vai conseguir fazer mais coisas. Porém, igual o Ricardo Maia falou aqui, o grande diferencial é que cada produto tem sua regra de negócio bem específico que torna a intervenção humana necessária. Exatamente. O grande X da questão aí está no prompt engineering. Se você chega para um chat APT, para um Gemini da vida, o jeito que você escreve, do seu input, vai determinar o seu output. É isso, por isso que a gente vai precisar de desenvolvedores até pra lidar com esse tipo de ferramenta. Porque nós sabemos dar os inputs corretos, ou deveríamos, pra sair a saída correta, né? Agora, um Cilev, um diretor, ele não vai chegar assim, me dá um software de RH aí, deve. Beleza, quais são as regras de negócio? Qual é a questão de folha salarial no Brasil, que tem milhões de regras, né? Então, assim, eu ainda acho que tá bem longe da gente ser substituído por marca. É, não, eu concordo. Acho que não, mas talvez a gente vá automatizar grande parte. Eu pego pelo cenário de DevOps, tá? O cenário de DevOps de alguns anos atrás pra de agora é absurdo a mudança. De automatização, a nível de automatização. Tem lente pra tudo que é coisa, tem agente pra tudo que é coisa, só que ao mesmo tempo eu não vejo isso no cenário de desenvolvimento específico. Isso eu não consigo enxergar. Mas eu creio que a gente vai caminhar cada dia mais pra um cenário mais entre aspas, automatizado. Eu tenho um amigo meu que ele fala assim, cara, se você está fazendo code review manual, no olhômetro na sua empresa, você está errado. Ele falou assim, não estou falando de AI não, porque já tem ferramenta muito antes desse Hive de AI que já fazia isso. Consegue dar spot no código, lê, analisa e já fala assim, ó, aqui tem essa variável não devia estar escrita assim, de acordo com a... esqueci o nome aqui, mas a regra gramatical da linguagem que você está utilizando. Essa variável tinha que ser assim, não podia ser assim, tal, tal, tal. Então ele fala assim, se você está fazendo o código review manual, dependendo de um ano, pra ela, você já tá errado. Porque isso já pode ser automatizado. Basta. E aí, pessoal, o que vocês acham? Vai o Marcelo primeiro, depois o Luiz, depois o Luzer. Bom, vou dar meus cinco cents aqui também na contribuição. A minha visão hoje, hoje eu trabalho como um gestor de pessoas no time de tecnologia. Eu tô à frente do time de governança, do time de DevOps, e como governança a gente implantou o GitHub Compilot na empresa. Foi um experimento que a gente fez esse ano, e eu não tenho o número exato aqui, eu tenho a pesquisa na máquina da empresa, mas basicamente o que a gente viu? A gente conseguiu diminuir muito a quantidade de bugs que saiam dos códigos, diminuímos muito a quantidade de reworks dos devs, a gente aumentou a quantidade de histórias entregues com o mesmo time. Então eu vejo que a IA e ela estando junto com os times de tecnologia, com os times de desenvolvimento, ela não vai fazer a gente perder o nosso emprego. Muito pelo contrário. Ela vai fazer com que nós sejamos mais eficientes, que a gente consiga entregar mais e que a gente tenha menos dor de cabeça e consiga dormir um pouquinho melhor à noite. Você não vai dormir pensando que apanhei o dia inteiro daquele código, eu apanhei o dia inteiro daquele algoritmo. Cara, a gente pegou falo por mim mesmo, eu fiz um teste, eu fiz dois algoritmos, um eu escrevendo 100%, sem a ajuda de nenhuma ferramenta de IA, calculei mais ou menos o tempo, e um outro que tinha uma função similar, mais ou menos a mesma quantidade de linhas de código, eu fiz ele 100% com o GitHub Compile. Eu não escrevi nenhuma linha de código. Eu pedi, eu escrevi o prompt, pedi para ele escrever para mim, pedi para ele fazer as correções, fiz o Code Review, desculpa, André, mas eu fiz um code review manual no código que o Copilot me entregou o GitHub Copilot me entregou e pedi pra ele não corrigir ele na mão, eu pedi pra ele corrigir o próprio código dele a diferença foi gritante foi 10 vezes mais rápido ele fazendo mesmo eu corrigindo ele então acho que a tendência vai ser a nossa profissão evoluir. Em vez de a gente ser escritores de códigos, ser escritores de estruturas, eu acho que nós vamos ditar para essas ferramentas o que elas precisam fazer e a gente vai conseguir isso com um tempo bem melhor. Acho bem bacana o que o pessoal estava falando, conseguir isso com um tempo bem melhor, né? Massa. Achou, acho bem bacana aí o que o pessoal estava falando, inclusive, vou concordar aí com o André, essa questão. Quando o pessoal acha que vai demonstrar uma ferramenta, acho que tem um trabalho ali muito forte, né, de organizar e fazer com que ele cause uma boa impressão. Mas, assim, a minha experiência que eu tenho aqui no jornal, como eu disse, eu trabalho no sistema de comunicação. E aí, imagina quando o ChatGPT chegou, a preocupação que o pessoal teve aqui, em relação à produção de conteúdo, em relação ao Google Overview, que é o próprio buscador ali dando um resumo e o pessoal, consequentemente, não entra nos sites, aí a publicidade, como é que fica. Então, há uma série de questões, né? Se levantaram, disseram, ó, e agora produz conteúdo só, não vai precisar de jornalista, e teve toda aquela... esses comentários lá naquela época. E o que a gente fez? A gente, na época, montou um grupo de trabalho e foi entender. Praia e tecnologia, o Copilot. Então, assim, eu sou gestor do time também codo muito pouco ali, de vez em quando eu vou ali um pouquinho pra matar a saudade mas não é mais minha função mas o que a gente nota assim como o colega aí, eu também notei muito o ganho de produtividade diminuiu muito a questão dos bugs, o pessoal consegue realmente ser muito mais assertivo e uma coisa também que ajudou muito foi, que eu acho que todo mundo tem aqui em código legado. O Copaio até é espetacular para você pedir, para você ler um código e o que é que o pessoal está fazendo. E aí você consegue otimizar seu trabalho de uma forma muito rápida. Mas eu não vejo assim como uma substituição. Inclusive na área de jornalismo. Na área de jornalismo a gente está fazendo vários vários experimentos com IA, inclusive com agentes de IA também mas com a intenção de trabalhar lá do lado do jornalista vou dar um exemplo, fazendo apuração navegando em busca de pautas eu tenho agentes inteligentes então agentes é como o André falou tem um prompt bem definido, tem uma tarefa e a gente dá algumas ferramentas para esses agentes, que são algumas APIs de mercado, APIs que a gente construiu, e bota ele lá para trabalhar de forma autônoma. Mas, por exemplo, você pega um conteúdo feito por uma inteligência artificial, você vê um conteúdo muito raso, muito vago. Ele vai ser só lógico. Dando um exemplo de um placar de um jogo, ele vai dizer, time tal ganhou desse time por x a 0, o jogo aconteceu em tal canto. Mas eu entendo que a IA nunca vai passar no gramado, nunca vai ter a experiência de sentir o cheiro do gramado, ver a torcida, ver como foi o comportamento, trazer algumas outras coisas que só um humano vai poder ter essa percepção. Mas o que a gente entende? Que quando você pega essa base aqui que a IA já deu, você mistura com o que o jornalista pode agregar de valor, o conteúdo vai lá para cima, o nível dele. Então, eu enxergo muito a IA dessa forma, como um apoio mesmo ali para trabalhar otimizando as coisas. E hoje quem não usa IA realmente consegue ficar muito para trás porque ela dá uma vantagem competitiva muito grande, seja para tudo Vou dar meus dois centavos também, tem que concordar com meus colegas Você tinha falado sobre uma IA que estava verificando imagem de, acho que era ressonância, não é? Se eu não me engano, tem o Watson da IBM também, que faz pesquisa na área medicina já tem tempo, mais de 10 anos que ele trabalha, fez vários papers sobre câncer e tal. Mas, tipo assim, por exemplo, na minha empresa, eu trabalho numa empresa de... que faz com itens colecionáveis, tipo comics, postcards and stamps. E aí tem uma parte de IA que a gente implementou que foi mais pra... tipo esse negócio de big, de leilão ao vivo e aí tipo a IA fica gerando falando, ó, tal pessoa deu lance, e aí vai agregando esse tipo, assim, usando essa parte generativa pra mim o único problema hoje, eu acho que ainda tá muito crua é que, por exemplo, o chave de IPTUAL é uma IA generativa, né? Então, ela tem todo esse conhecimento, vários códigos, e ela tenta criar alguma coisa que você pede, mas em cima de algo já pré-existente. Então, por exemplo, quando você tem um problema muito específico, ela não consegue te responder o certo, né? É uma das questões que eu encontro de vez em quando. A maior parte do tempo que eu encontro de vez em quando. A maior parte do tempo que eu uso, eu não estou usando o Copilot, porque eu acho que na última versão do meu VSCode no Mac, ele não funciona, eu tenho que usar o Code. É um concorrente do Copilot. E para autocomplete, igual o André tinha falado, o Intense com esteroides é muito bom. Ele completa tudo o que eu preciso, ele consegue analisar o código, mas, igual, acho que foi hoje que eu encontrei um problema, é, a gente trabalha num, uma parte com o MongoDB, e a gente tava usando PHP, Doctrine, só que ele não tem, não tinha integrado o Search, o MongoDB tem o serviço do Atlas Search, tinha integrado o search, o MongoDB tem o serviço do Atlas Search, que é uma parte específica do MongoDB. E o Doctrine não tem, não tinha paginação pro Atlas Search. Então a gente teve que criar uma paginação na mão. E eu tava tendo um bug, que eu fiz vários prompts, aí ela não tava me respondendo o que eu queria, pedi pra ela analisar a pasta inteira, e mesmo assim, pedi pra ela analisar a pasta inteira, e mesmo assim dando problema ela tava meio que perdida aí no final era tipo ordem de pipeline do MongoDB tive que mudar uma ordem de pipeline e tive que mudar literalmente o meu search, porque quando você faz um search no MongoDB só pra vocês terem uma contextualização o MongoDB tem uma parte de indexação, o Atlas Search, ele indexa todos os seus campos da collection que você quer, e aí você faz um, tipo um text search em tudo. E aí quando você faz essa pipeline específica, que é o search, ele te dá uns metadados. Ele vai te dar total de páginas e um monte de coisa. Só que eu tinha um problema que eu tinha que fazer um lookup que é como se fosse um join no banco relacional. E quando você faz esse lookup, você perde os metadados do search. E aí ele tava me voltando esse erro de, tipo assim, ah, a gente não tá conseguindo você não tá conseguindo acessar esses metadados pra fazer a paginação. e aí ela não conseguia falar, o erro está aqui. Porque eu acho que, como não tem uma pré-existência daquilo, ela fica com mais dificuldade de corrigir. Então, quando um problema muito específico, eu acho que ela ainda falha em achar a solução certa. Pelo menos pelos modelos que a gente tem hoje em dia. Mas é o que vocês falaram, acho que no final, talvez daqui uns 10 anos, não sei quão rápido vai evoluir, no final a gente vai tudo virar a própria engenharia. Só colocando, só escrevendo pra ela voltar ao resultado. Ó, o que o Arthur falou aqui, ó, treinamento e manutenção de ação bem caro, sim. Por quê? Porque, por exemplo, quando sim. Por quê? Porque, por exemplo, quando você desenvolve uma aplicação, a gente chama de RAG, né? Retriever, Augmented, blá, blá, blá. Esqueci o outro, o que é o G. Retriever, Augmentation, alguma coisa. Para você falar com o LLM, com o Large Language Model, então, um O1 da OpenAI, do ChatPT, um Lhama do Facebook, O1 da OpenAI, do ChatEpt, o Lhama do Facebook, Gemini do Google, etc. A Tina, não, esqueci o nome da AWS. Mas enfim, existem diversos LLMs. Você faz troca de token. E aí, às vezes, antes de você enviar a resposta para o usuário, você já fez uma troca de milhões de tokens. Tanto que se você for, por exemplo, comprar para usar para uso profissional a API da OpenAI, do chat EPT, você vai a precificação, muitas vezes, é no número de tokens que podem ser usados, trocados. Por isso que fica caro. Então, exige um poder de computação robusto pra caramba. Aí, entrando nessa questão que o o Rafael, o Léo falou, né? Ele falou aqui de que ele vê muito futuro nas outras vertentes fora do GNI, que é só um nicho, que depende da empresa totalmente de MLs mais especializados. Exatamente. Se vocês pesquisarem, em vez de LLM, Large Language Models, pesquisa por Small Language Models, que são modelos menores, treinados especificamente para fazer tarefa X, tarefa Y. Vai ser muito mais barato e vai resolver o seu problema muito mais rápido, por assim dizer. O Ricardo tocou num assunto importante aqui. IBM também tem montagem de defesa de processo de advogados com AI hoje, você ainda tem aqueles escritórios de advocacia que parecem umas fábricas você contrata 20 estagiários e bota eles pra fazer petição inicial o dia inteiro eu já conheci um sócio de escritório assim, ele falou assim, cara cada advogado meu custa, isso na época, sei lá, R$1.500 por mês, tem muitos anos. Aí ele falou assim, só que cada processo, o Bradesco, acho que era o Bradesco, ele trabalhava pro Bradesco, pra Claro, me paga R$3.000. Aí ele falou assim, sabe quantos estagiários eu tenho? 20. Sabe quantas petição inicial cada um faz por dia? De 4 a 5. Ou seja, o cara ganhava muita grana. Muita grana. Só que você consegue automatizar isso hoje com AI. E é fácil. Porque montar uma peça lá, uma petição inicial, o texto é o mesmo. Você vai mudar os dados da pessoa. CPF, RG, endereço, CEP, blá, blá, blá, blá, blá, blá, blá, o valor da conta, então você pode mapear esses campos e mudar só ali. Então, são problemas do mundo real que já estão sendo, que já foram resolvidos, na verdade, que você pode usar hoje pra poder, o uso é Retrieval, Augmented Generation, isso mesmo, exatamente. Então, o que você pode usar para poder resolver esses problemas do dia a dia, né? Massa, cara. Eu também tenho alguns colegas que são advogados e eles estão usando o IA para fazer petição, inclusive. Tem até SAS já com esses negócios. Enfim, é muito loucura. Eu também tenho outro pessoal que faz de agricultura, análise de solo. Alguém citou aí a questão de fazer diagnóstico de doença e tal eu queria falar muito pra vocês sobre isso mas eu não posso por causa do NDA mas assim, é uma área muito doida muito louca isso aí, muito bacana um dia quem sabe eu volto aqui e conto show galera, mais alguma pergunta pro André? Um dia, quem sabe? Eu volto aqui e conto. Show. Galera, mais alguma pergunta para o André? Vai lá, vai lá. Deixa eu aproveitar e fazer uma pergunta. Eu dei um comentário, agora eu quero fazer uma pergunta. André, a gente vê a tecnologia avançando a passos lá, principalmente, acho que agora nos últimos dois anos, acho que foi um boom muito grande. Eu, recentemente, agora teve um evento do Hack'n Play e eu estava fazendo uma palestra justamente sobre agentes de IA. E aí, uma pessoa que trabalhava no ramo de advocacia, ela me questionou. Ela falou que IA não serve para nada. Aí eu disse, mas como é que você está usando? Ela falou que ia lá no chat do GP, subo as coisas e pergunto. Aí eu, você está dando prompt, você está fazendo primeiro aquele treinamento inicial, aí foi aquele, eita, não, não estou fazendo isso. Aí o que eu percebo com isso? A coisa avança muito rápido, mas a educação para as pessoas usarem a tecnologia, eu acho que ela caminha muito lento. E pessoas usarem a tecnologia, eu acho que ela caminha muito lento. E aí é onde tem o perigo das pessoas realmente começarem a perder seus empregos para outras pessoas que saibam usar para solucionar problemas. Como é que tu enxerga isso? Como é que tu vê essa questão? E como é que tu acha que podemos ajudar isso, a gente como profissionais de tecnologia, para que essas pessoas possam ficar mais capacitadas para pelo menos usar essa ferramenta mais básica que é um chat de APT. É um bom ponto que você tocou, Luiz. É tipo, como que eu vejo isso? Antigamente, você tinha, por exemplo, motorista de ônibus e cobrador. Ainda tem em muitas cidades. Só que muitas empresas hoje, para questão de custo, tem só o motorista. E o motorista faz as duas coisas. Então, o caixa ali já é a roleta já no começo do ônibus. Só abre a porta dianteira e a traseira para quem for sair. Se você for lá fora, nos Estados Unidos, por exemplo, não existe frentista de posto. Aqui existe. Então, assim, eu vejo isso como uma evolução natural. É porteiro de prédio. Eu moro aqui em Belo Horizonte e eu vejo isso. Cara, está cada vez mais raro você encontrar um prédio com porteiro, é só prédio de luxo porque custa muito caro e hoje tem as portarias remotas tem um amigo meu que trabalha com isso ele falou assim, André, se você for botar isso na época que ele falou comigo, já tem uns 5 anos hoje deve ser bem mais caro ele falou assim, com o salário mínimo atual com os custos que tem de imposto, de governo FGTS, NSS, cesta básica, blá blá blá blá, vale transporte, vale refeição, etc. Você vai custar 4 mil, 16 mil reais pra você pôr 3 porteiros, porque tem que revezar, né? 12 por 36, não sei o que, um cobre o outro, etc. Eu consigo colocar uma portaria remota por 4 mil por mês. 4 a 5 mil,endendo do prédio. Então, assim, você vai economizar 60% do valor. Aqui em BH mesmo, tem muitos prédios que você toca, aí toca duas vezes, aí a pessoa atende num call center, não se sabe onde que ela tá. Aqui que não é. Às vezes tá, e aí ela tem a câmera, ela te vê, ah, você quer falar com quem e tal, não sei o quê. Então, assim, eu vejo a questão da tecnologia como uma evolução natural e, infelizmente, ela vai acabando com algumas profissões. Resta a nós, e eu acho que a gente pode ajudar da seguinte maneira, é compartilhando conhecimento, igual a gente está fazendo aqui. Discutindo e tal. Por exemplo, meus pais. Minha mãe tem 66, meu pai tem 67. Meu pai até uns dias atrás não sabia copiar e colar do computador. Uma coisa básica. Ele pedia para eu fazer. Minha mãe, eu dei um celular de presente para ela. Ela estava muito velha. Aí ela falou assim, passou uma semana, ela tava usando o velho. Eu falei assim, pô, você não tá usando o celular? Não, eu não sei configurar. Cara, é só seguir as instruções lá, era um iPhone, só seguir as instruções. Minha mãe, ela armazena senha no papel ainda. Tem um papel e ela escreve pequenininha as senhas. Ela não sabe usar um gerenciador de password, de one password, porque é muito difícil. Então, assim, coisas básicas que pra nós é muito básico, a gente faz com as duas mãos nas costas, pra maioria das pessoas não é. Então, acho que quanto mais a tecnologia vai entrando na vida das pessoas. Hoje, por exemplo, todo mundo sabe usar WhatsApp. Os velhinhos ficam lá mandando meme, bom dia, boa tarde, compartilhando vídeo, compartilhando não sei o que, entrando em discussão no grupo da família. Todo mundo sabe fazer isso, porque eles se interessaram em fazer isso. Agora, pede para eles configurarem um celular, por exemplo. Será que eles vão saber? Talvez não. Então, eu acho que cabe a gente compartilhar esse conhecimento e é igual, você citou a questão da advogada. Não sabem nada, mas beleza. O quanto de tecnologia um advogado é exposto no dia a dia? Praticamente nada. Abre o pacote Office lá e usa, e navega na internet. Só sabe isso, mais nada, mais nada. Prompting de dinheiro, o que? Você está falando grego, né? Então, se você pega uma pessoa dessa e dá umas duas horinhas de treinamento, manda um curso do Udemy pra ela mesmo, prompt engineering é isso aqui, faz paga 30 conto e faz isso aí pode ter certeza que sua expedição inicial vai sair muito melhor, ela vai te agradecer eu vejo que a gente pode ajudar nesse sentido, mas isso é, o tio professor meu da faculdade que ele falava assim, a tecnologia força a obsolescência, e é verdade pega um iPhone 9 e tenta usar hoje, lento pra caramba né, então assim não tem jeito, isso acaba acontecendo, infelizmente, e cabe a nós nos adaptarmos, né, a essas novas realidades eu acho que a gente, por trabalhar com tecnologia a gente tem muita vantagem, a gente tá léguas na frente da maioria das pessoas né, mas o que a gente pode fazer pra ajudar essas pessoas é compartilhar conhecimento e até a gente pode fazer para ajudar essas pessoas é compartilhar conhecimento. E até a gente enxerga a tecnologia de uma forma diferente que elas enxergam. Exato. Meu sogro, até um tempo atrás, ele falava assim, eu odeio computador. Ele tinha um telefone de botão, ele não queria smartphone. Só que aí depois ele pegou o smartphone, hoje até iPad ele tem. Fica lá o tempo inteiro assistindo vídeo no volume 10, né? E WhatsApp, não sei o quê, é assim que funciona. Uma hora ou outra a tecnologia vai chegando para as pessoas e elas vão fazendo bom proveito, ou infelizmente não, né? Disso aí. A gente tem mais duas perguntas aqui, André. Uma é do Diego Machado. Ele falou o seguinte, gostaria de perguntar para o André se você já trabalhou em algum projeto de integração entre AI e RPA, se sim, comentar sobre. AI e RPA não, RPA sim. RPA eu já trabalhei sim, mas AI e RPA não, mas eu não creio que seja de novo, ciência de foguete não RPA você faz Remote Process Automation automação de algumas tarefas repetitivas geralmente de forma visual e tal que você programa a máquina para fazer mas dá para você fazer, por exemplo, RPA usando Selenium se você pensar entendeu? Selenium é um tipo de RPA usando Selenium, se você pensar. Entendeu? Selenium é um tipo de RPA. Mas é projeto de RPA, mas IA com RPA não. Obrigado, Leandro. E tem a do Léo. Deixa eu ver aqui. Na verdade, da Letícia, né? O que acha da AI nos ajudar no discovery de código legado? Eu acho que a gente até citou esse ponto aí, né? Alguém falou disso aí, usar o Copilot para poder ajudar na questão do código legado. Por exemplo, uma coisa que eu, se eu trabalhasse com código legado, utilizaria um copilot da vida, era me ajuda a refatorar esse código. Entendeu? Ou algum chat GPT da vida, um Gemini, me ajuda a refatorar esse código. Eu tenho essa função, assim, tem como eu melhorar? Eu vou testando isso e eu vou refatorando. Antigamente era bem mais difícil fazer isso, né? Hoje a AI consegue te ajudar você a refatorar um código legado assim, me ajuda a testar o código legado, né? Muito código legado não tem teste, não tem teste unitário, nada disso. Vamos escrever teste aqui, chat e APT junto comigo para esse código legado, eu começaria por aí. Eu acho bastante válido. André, no caso, eu estava pensando na questão de, a gente tem vários códigos, eu trabalho com o Bradesco hoje, ele está modernizando, e a gente tem vários códigos que foram feitos muito antigamente, a gente não tem mais essa pessoa na empresa, e a gente precisa mapear se esse projeto chama aquele outro, a gente precisa fazer tipo um fluxo C4, sabe, isso aqui fica muito pesado se a gente analisar todas as classes para tirar qual está chamando o que, sabe? E a gente está atuando nisso. Eu pensei em usar o Elasticsearch junto com a IA para fazer o mapeamento disso. O que você acha? Bom, eu não sei a respeito do Elasticsearch, mas eu creio que deve existir ferramentas que já fazem isso. Por exemplo, analise a estrutura e a arquitetura do código-fonte. Aí você pega esse mapeamento dos módulos, as funções, as relações entre eles. Porque o que você falou é assim, o legado fica, a pessoa que fez o legado sai. E geralmente não está experimentado. Mas eu acho que deve ter sim ferramentas que você pode procurar por algo como deixa eu ver aqui, AI Legacy Code Discovery. Deve ter ferramentas que falem isso. Stack Spot. Deve ter ferramentas que fazem isso com certeza, sabe? E aí você usa pra poder fazer justamente esse mapeamento, né? Então, pro Cobol, eu achei uma que se chama ProLip, e ela consegue mapear e fazer o fluxo, sabe? De onde tá, pra quais programas estão indo. Mas é muito específico pra cada linguagem. Sim. Ó, no próprio chat, se bem que o chat GPT preço não seria bom você usar, porque você precisa de um prompt pra isso ali. É. Mas deve existir. Com certeza deve existir. Porque, por exemplo, no chat GPT hoje eu consigo acessar prompt de acordo com a minha linguagem. Eu consigo acessar um prompt que é especialista em Go. Um prompt que é especialista em Python. E ele vai me ajudar muito melhor do que o modelo genérico lá de língua de moda do chat APT. Hoje tá no ON, né? E como é feito isso? Ele abre arquivo por arquivo, lê e vai gerando? Você pode fazer isso? A gente tem avaliações dos tokens, então a gente tem um limite de token de utilização. Eu já fiz isso, eu já peguei um uma folder inteira, repositório, baixei o repositório, peguei a folder inteira, zipei, mandei pro chat e falei assim, analisa o código pra mim. Ele analisou, eu falei assim, me sugere uma uma reestruturação de pasta, seguindo os padrões da linguagem X, ele me sugeriu. Aí eu fui lá e fiz. Você mandou o projeto inteiro, você não foi mandando, por exemplo, o LLM em cada arquivo, assim, mandou o projeto inteiro. Só que eu tava usando um genérico, lá de língua de modo genérico. Mas aí você pode usar... Você sabe se dá pra mandar o projeto todo zipado por LLM? Eu já fiz isso, zipado por LLM? Eu já fiz isso, com o chat de APT. Era um projeto em Go. Era um projeto em Go. Desculpe interromper, eu não sei se o Copilot faz, mas o Codium, quando você está chamando a dele, você pode dar o contexto da sua pasta inteira. Ele lê todo o seu código. E aí, a partir dali, você dá os prompts. Você explicita a regra do que você quer e ele vai te ajudando. O cursor deve fazer isso também, né? Eu usei o cursor uma vez. Eu usei o cursor uma vez deve ter uns três meses, mas eu não curti também, não. Estava me induzindo ao erro. Hoje eu acho que ele deve estar melhor. O GitHub Copilot, ele faz... Foi até um teste que a gente fez para fazer uma conversão de uma aplicação que estava em Ruby, para converter ela para Node. Ele leu o repositório inteiro. Você coloca lá como referência no prompt o code base, que ele entende que é o repositório inteiro, e aí você dá o prompt que você quer, a gente fez a conversão da aplicação toda que estava em Ruby, uma versão antiga inclusive do Ruby, para uma versão do Node 21. Então a gente conseguiu fazer essa conversão utilizando ele. Não sei se seria funcional pra COBOL, né? Eu não sei como que é o treinamento ou do Cloud ou do do GPT da OpenAI, né? Que é os dois que estão disponíveis lá no GitHub Copilot, pra COBOL. Mas talvez poderia ser uma tentativa, né? É, o que eu achei aqui, Letícia, foi, eu vou mandar aqui no chat, esses caras aqui, mas eles falam que eles são extremely experimental. Mas você pode usar, esse tal de bloop. Bloop. Não precisa nada. Porque a necessidade é gerar um modelo C4, sabe? Só que aí você tem que seguir a estratégia igual eu falei na talk antes, né? Você vai ter que ir quebrando o problema Em partes, né? Primeiro é isso Depois aquilo Inclusive você pode até chegar Como é banco e às vezes tem questão de Segurança de código, esses negócios Tudo é mais chato Porque é um sistema financeiro e tal Você pode até ter os seus Próprios modelos internos e Treiná-los pra poder fazer isso que você quer. Entendeu? E você usa... A gente tá criando os modelos mesmo. Só que eu tava com o problema do token, sabe? Ele tá pegando arquivo por arquivo. Mas eu vou dar uma olhada e mandar o projeto inteiro lá pra ele. Mas eu digo assim, você rodar em um... Por exemplo, você baixa um lhama do Facebook e aí você na sua, não vou falar na sua máquina, só alguma instância aí cabulosa na AWS, sei lá, e aí nela, com o lhama instalado, você vai alimentando esse modelo pra treinar naquilo que você quer, entendeu? Por exemplo, tem um amigo meu que ele fala assim, tem coisa que a gente aqui na Toto, que a gente não pode usar chat GPT porque vai pegar a informação sensível do cliente e jogar no mundo, né? Digamos assim. Aí um chegado meu aquele falou assim, eu tenho minha própria AI local, chama Jurema. Ele fez assim. Esse ele ama a AI e você pode baixar no seu MacBook. Se você tiver um Mac com M1, com processador ARM, você consegue usar. Intel não, vai fritar seu computador. Mas com processador ARM você consegue usar. Então, assim, tem várias maneiras de fazer esse approach, mas eu creio que dá pra fazer sim. Legal. É porque você pode, igual o André falou, você pode baixar os modelos e você treina os seus modelos, só subir a instância mesmo. Só subir a instância mesmo. Se você subir a instância, bota tudo pra treinar e ele vai. Exatamente. E aí ele não vai pra internet. Aí você não vai ter essa limitação de token. A limitação é de processamento computacional da sua nuvem lá. Se você tiver um datacenter, melhor ainda. Bota o datacenter para sair fumaça aí. Legal, obrigado. Tô de bola, gente. Mais alguma dúvida? Alguma questão que vocês queiram perguntar? O Emerson se tentar usar alguma ferramenta para extrair um AST da base de código antes de jogar isso para a AI. Não ajudaria a reduzir os tokens? O que é AST da base de código antes de jogar isso para a AI. Não ajudaria a reduzir os tokens. O que é AST? O AST não responde no caso, né? É. AST da base de código. Eu já ouvi esse acrônimo. Abstract Syntax Trism não sei o que é isso. Acho que é a árvore dos arquivos, como é que está modernizado e tudo mais. Estrutura do código entendi. É pode ser. É porque isso que o Emerson falou faz sentido porque você joga a coisa mais mastigada para reduzir essa troca de tokens e não atingir porque você joga a coisa mais mastigada, né? Para reduzir essa troca de tokens aí e não atingir o limite. O Léo falou aqui... Lembro que até entrar aqui, modelos, ML e tudo isso parecia tudo mágico e complexo, onde só poderia tocar pessoas com mestrados e estatísticas. Exatamente, eu também pensava a mesma coisa, Léo. É porque... Eu não sei o que acontece, mas o povo acha bonito, né? Ficar falando que isso é ciência de foguete, né? Por isso que eu gosto do, nesse sentido, eu gosto dos vídeos do Fábio aqui. São muito longos, mas ele quebra todos os paradigmas, né? Aí a pessoa, quando esse devem sai o mesmo, ele fala assim, você deve uma porcaria, ele só faz isso, isso, isso, aí ele explica o que tá por detrás dos panos, aí você fala, putz, é só isso? E na hora de ter ido, a maioria das coisas é assim, não precisa ter medo. Esse assunto, assim, é um pouco complexo, pode parecer grosso, porque tem muita coisa nova, né? Mas depois que você aprende, você vê que não é tão complexo quanto parece, igual o Léo falou e sempre lembrando de novo pensa em usar isso pro seu escopo que você tá trabalhando no momento, esquece essa questão acadêmica da coisa você não vai precisar disso, fatalmente e obrigado pessoal por me receberem aqui, quem sabe eu volto aí pra gente fazer um deep dive em algum desses assuntos aí. Com certeza, cara. Já tá o convite aí. Beleza? A gente vai combinando. Gente, muito obrigado. André, valeuzão, cara. Tamo junto e até mais, galera.