Pular para o conteúdo principal
Candidaturas encerradas

Data Engineering Product Manager

Descrição da vaga

A Leega é uma empresa focada no atendimento eficiente e inovador em seus clientes. 

Isso não poderia ser diferente com o nosso principal combustível: as pessoas!  

Nossa cultura é inspiradora e nossos valores estão presentes no dia a dia: ética e transparência, excelência de qualidade, trabalho em equipe, responsabilidade econômica, social e ambiental, relações humanas e credibilidade.

Buscamos profissionais inovadores que sejam movidos por desafios e focados em resultados.

Se você busca uma empresa dinâmica e parceira e que investe em seus colaboradores através de capacitação constante, a Leega é o lugar para você!

>> A LEEGA É PARA TODOS, ficaremos muito felizes em ter você em nosso time. Venha fazer parte da nossa história e da construção do nosso futuro. 

Cadastre-se agora mesmo em nossas vagas!

Responsabilidades e atribuições

Data Engineering Product Manager tem a missão/papel de equilibrar a complexidade técnica com as necessidades de negócios, garantindo que todos os dados, sejam estruturados ou não, sejam valiosos e facilmente acessíveis para quem precisa deles, dentro de um ecossistema seguro e escalável. A construção de uma infraestrutura escalável e eficiente com uma estratégia de governança e acessibilidade que permita à organização tirar o máximo proveito de seus dados sendo uma alavanca para estratégias de Big Data e análise avançada, como Machine Learning, Business Intelligence e análises em tempo real.


🔎 Sobre a posição:

Definição e Estratégia do Produto Datalake

  • Visão e estratégia deve definir como coletar, armazenar e fornecer dados limpos, acessíveis e aproveitáveis por diferentes partes da organização, alinhando isso aos objetivos de negócios da empresa;
  • Governança de Dados: garantir que as políticas de segurança, qualidade e conformidade sejam aplicadas e implementar práticas que garantam o uso ético, eficiente e seguro desses dados.

Arquitetura e desing de dados

  • Definição de estrutura e Camadas: colaborar com engenheiros de dados para definir e otimizar essas camadas, garantindo que a arquitetura suporte o tipo de análise e processamento necessário.
  • Qualidade de dados: implementação de processos de validação, monitoramento e auditoria contínua da qualidade do dados armazenados;

Gerenciamento da Ingestão de dados

  • Fontes de dados: lidar com diferentes origens internas e externas, sendo bases relacionais, API's, logs, arquivos de texto, dados de IoT, etc. Planejar e gerenciar como esses dados são ingeridos (ETL ou ELT), garantindo uma ingestão eficiente e escalável;
  • Escalabilidade e performance: garantir infraestrutura adequada seja aplicada ao produto, sendo capaz de lidar com picos de dados;

Acessibilidade e Consumo de Dados

  • Padrões de Acesso e APIs: garantir acesso de forma eficiente por diferentes usuários e sistemas, padronizando API's ou ferramentas de visualização de dados;
  • Facilidade de Navegação e Descoberta de Dados: organizar dados em ferramentas de catálogos de dados e metadados de maneira que os usuários possam descobrir e acessar facilmente os dados.- Entendimento sólido de como funcionam os sistemas de Datalake, incluindo tecnologias como Hadoop, Spark, ferramentas de ETL, arquiteturas de dados em nuvem e gerenciamento de big data;

Segurança e Privacidade de Dados

  • Controle de Acesso: definir controles de acesso robustos, incluindo políticas de autorização e autenticação, protegendo dados sensíveis;
  • Conformidade Regulatória: implementar práticas para garantir que os dados pessoais ou sensíveis sejam protegidos, auditados e gerenciados de forma adequada, alinhado a regulamentação de privacidade, LGPD e GDPR;

Análises Avançadas e Inteligência Artificial

  • Suporte para Análises e Machine Learning: suportar iniciativas organizando dados de forma que seja acessível para cientistas e engenheiros no preparo de modelos;
  • Integração com Ferramentas de BI e Analytics: garantir integração e disponibilidade do dado;

Custo e Eficiência

  • Otimização de Custos: trabalhar estratégias que otimizam os custos sem sacrificar a performance, como escolha de formatos eficientes (Parquet, ORC, etc), compreessão de dados e otimização do uso da infraestrutura;

Requisitos e qualificações

  • Conhecimento em governança de Dados, incluindo privacidade, segurança e compliance;
  • Familiaridade com ferramentas de Catálogo e Metadata Management;
  • Metodologias ágeis e de discovery;(Scrum e Kanban);
  • Métricas de produtividade de equipes ágeis (Burndown, Burnup, tempo de ciclo etc);
  • Amplo conhecimento analítico para gerar análises e tomar decisões baseadas em dados;
  • Experiência prévia construindo e apoiando todo o ciclo de vida de produtos de tecnologia e de desenvolvimento;
  • Experiência de atuação com plataforma de dados, que conheça de BI, Big Data e Data Lake.

Informações adicionais

Atuação: 100%Remoto.

Etapas do processo

  1. Etapa 1: Cadastro
  2. Etapa 2: Triagem
  3. Etapa 3: Avaliação de Perfil
  4. Etapa 4: Entrevista Gestor
  5. Etapa 5: Entrevista Cliente
  6. Etapa 6: Contratação

Onde a inteligência humana amplifica o poder dos dados

Na Leega, não entregamos apenas linhas de código ou dashboards. Transformamos desafios tecnológicos complexos em impacto real. Com mais de 15 anos de estrada, unimos a profundidade da experiência humana à velocidade da Inteligência Artificial para criar soluções que mudam negócios e, acima de tudo, melhoram a vida das pessoas.

Somos uma consultoria de tecnologia, agnóstica e estratégica. Com escritórios no Brasil e na Europa, nosso time de mais de 580 talentos multidisciplinares vive e respira o ecossistema de Data Analytics, Cloud e IA. Dominamos a base, da Governança à Engenharia, para garantir que a tecnologia não seja apenas uma ferramenta, mas uma vantagem competitiva sustentável para os maiores players do mercado.