A LEEGA é referência em consultoria e outsourcing para soluções de Data Analytics . Temos 13 ANOS de mercado e mais de 20 ANOS de experiência em soluções de Business Intelligence, Data Integration e Analytics, atendendo grandes empresas dos mais diversos segmentos do mercado e contamos com mais de 300 colaboradores. Conquistamos capacidade técnica e reunimos as melhores pessoas para proporcionar aos nossos clientes a melhor experiência. Brasileiros, com escritório de projetos, fábrica de software e centro de treinamento em São Paulo (capital) , atuação internacional com escritório também em Portugal, somos conhecidos por viver e respirar Analytics e Big Data, inovando nossa tecnologia, compartilhando conhecimento, evoluindo talentos e entregando VALOR. Em nosso porftólio de serviços ofertamos consultoria especializada, alocação de profissionais, treinamento e desenvolvimento de soluções customizadas para Cloud Computing, Business Intelligence, Big Data, Data Analytics, Machine Learning, Inteligência Artificial, Data Quality, MDM, Governança de Dados e demais soluções de dados /n Experiência comprovada na implementação e manutenção de soluções utilizando a plataforma Databricks. Experiência com integração de Databricks em ambiente de nuvem AWS. Conhecimento sólido em linguagens de programação como Python e SQL. Experiência em design e implementação de arquiteturas de dados distribuídas. Familiaridade com ferramentas e conceitos de Big Data, como Hadoop, Spark e processamento em tempo real. Excelentes habilidades de comunicação e trabalho em equipe. Capacidade de resolver problemas de forma criativa e eficiente. Forte foco em qualidade, escalabilidade e desempenho. Ao menos 3 anos de experiência com Databricks, Python e AWS. Sólidos conhecimentos sobre modelagem de dados, Delta Lake, armazenamento de dados e conceitos de ETL. Experiência com metodologias de desenvolvimento Agile é desejável. /n Desenvolver e implementar soluções utilizando a plataforma Databricks para análise e processamento de grandes volumes de dados. Projetar, otimizar e manter pipelines de dados eficientes e escaláveis. Colaborar com equipes internas para entender as necessidades de dados e propor soluções técnicas adequadas. Realizar troubleshooting e resolver problemas relacionados a infraestrutura e performance. Fornecer suporte técnico e treinamento para usuários internos.