Pular para o conteúdo principal

Arquiteto de Dados

Descrição da vaga

A Leega é uma empresa focada no atendimento eficiente e inovador em seus clientes. 

Isso não poderia ser diferente com o nosso principal combustível: as pessoas!  

Nossa cultura é inspiradora e nossos valores estão presentes no dia a dia: ética e transparência, excelência de qualidade, trabalho em equipe, responsabilidade econômica, social e ambiental, relações humanas e credibilidade.

Buscamos profissionais inovadores que sejam movidos por desafios e focados em resultados.

Se você busca uma empresa dinâmica e parceira e que investe em seus colaboradores através de capacitação constante, a Leega é o lugar para você!

>> A LEEGA É PARA TODOS, ficaremos muito felizes em ter você em nosso time. Venha fazer parte da nossa história e da construção do nosso futuro. 

Cadastre-se agora mesmo em nossas vagas!

Responsabilidades e atribuições

Buscamos um(a) Arquiteto(a) de Dados com visão integrada entre governança, engenharia e arquitetura de dados, com forte capacidade de resolução de problemas e perfil hands-on. Essa posição é responsável por definir, implementar e documentar artefatos essenciais da arquitetura de dados, que habilitem uma plataforma de dados robusta, escalável, com governança e orientada a valor.

Para isso desejamos perfil técnico e atuante, que combine experiência em engenharia de dados moderna com a capacidade de estruturar arquiteturas escaláveis e resilientes, além de domínio prático em modelagem e implementação de pipelines analíticos. Exige familiaridade em arquitetura multi-cloud (GCP e Azure) e ferramentas como Airflow/Composer, BigQuery, Dataform, Dataproc, Analytics hub, DBT, Spark ou Snowflake.


Responsabilidades:

1. Referência Arquitetural:

·        Criar e manter diagramas de arquitetura de alto nível

·        Construir blueprints técnicos para data lakes, data warehouses, e integrações analíticas

·        Definir e divulgar princípios de arquitetura aderentes a boas práticas e governança


2. Design de Soluções:

·        Elaborar documentos de design detalhado de soluções de dados alta modularidade e baixo acoplamento

·        Manter e evoluir o catálogo de integrações internas e externas


3. Modelagem de Dados:

·        Liderar a modelagem de dados em diferentes camadas: Modelo Conceitual, Lógico e Físico

·        Projetar modelos otimizados que atendam requisitos de performance, governança e escalabilidade


4. Fluxos de Dados e Pipelines

·       Desenhar Data Flow Diagrams (DFDs) e fluxos de transformação

·        Documentar e validar ETL/ELT pipelines, incluindo integrações com ferramentas como Airflow, dbt, Dataform

·       Orquestrar fluxos complexos com Airflow / Composer (dependências, retries, SLAs)


5. Registros e Decisões Arquiteturais

·       Especificar e manter documentação técnica: Architecture Decision Records (ADRs), dicionário de dados, naming conventions

·        Manter registro e priorização de débito técnico


6. Padrões e Governança

·       Definir e promover padrões reutilizáveis de arquitetura e transformação

·        Estabelecer e aplicar nomenclatura de dados e padrões de qualidade

·       Garantir metadata, rastreabilidade (data lineage) e versionamento de transformações

·       Atuar na gestão de dívida técnica, propondo remediações sustentáveis

Requisitos e qualificações

(Hard Skills):

  • Arquitetura de Dados: Modelagem conceitual/lógica/física, data warehouse, data lake, Design de pipelines, camadas de dados, boas práticas de escalabilidade, conhecimento na modelagem DataVault.
  • Ferramentas: BigQuery, Snowflake, dbt, Dataform, Dataproc, Spark, Cloud Composer e Open metadata
  • Orquestração: Airflow, Cloud Composer
  • Linguagens: SQL (avançado), Python (desejável), YAML, Jinja
  • Engenharia de Dados: Pipeline design, versionamento, orquestração e automação
  • Governança e Padrões: Metadata, lineage, ADRs, nomenclatura, qualidade de dados
  • Documentação e Design: Miro, Escalidraw, Erwin Data Modeler, Draw.io, Confluence, Markdown
  • Cloud: GCP (preferencial) e Azure (desejável)

(Soft Skills):

  • Resolução de problemas complexos: Agir com autonomia para propor e testar soluções técnicas viáveis e foco em entrega
  • Mentalidade orientada a entregas: Concluir entregáveis técnicos com alto padrão e documentação adequada
  • Capacidade de abstração: Traduz requisitos de negócio em modelos e soluções técnicas
  • Comunicação técnica clara: Explicar decisões arquiteturais para engenharia, governança e negócio com lógica e simplicidade
  • Colaboração multidisciplinar: Trabalhar com engenheiros, cientistas de dados, analistas e governança
  • Autogerenciamento: Capacidade de lidar com múltiplos tópicos sem microgerenciamento

Informações adicionais

Diferenciais:

  • Fortes conhecimentos em PowerCenter e Oracle
  • Certificação em GCP Data Engineer e dbt
  • Experiência com frameworks como DAMA-DMBOK, TOGAF ou Data Mesh
  • Conhecimento de data quality observability (ex: Great Expectations, Monte Carlo)


Atuação: 100%Remoto.

Etapas do processo

  1. Etapa 1: Cadastro
  2. Etapa 2: Triagem
  3. Etapa 3: Avaliação de Perfil
  4. Etapa 4: Entrevista Gestor
  5. Etapa 5: Entrevista Cliente
  6. Etapa 6: Contratação

Vem trabalhar com a gente!

A LEEGA é referência em consultoria e outsourcing para soluções de Data Analytics .

Temos 14 ANOS de mercado e mais de 20 ANOS de experiência em soluções de Business Intelligence, Data Integration e Analytics, atendendo grandes empresas dos mais diversos segmentos do mercado e contamos com mais de 400 colaboradores.

Conquistamos capacidade técnica e reunimos as melhores pessoas para proporcionar aos nossos clientes a melhor experiência.


Brasileiros, com escritório de projetos, fábrica de software e centro de treinamento em São Paulo (capital) , atuação internacional com escritório também em Portugal, somos conhecidos por viver e respirar Analytics e Big Data, inovando nossa tecnologia, compartilhando conhecimento, evoluindo talentos e entregando VALOR.

 

Em nosso porftólio de serviços ofertamos consultoria especializada, alocação de profissionais, treinamento e desenvolvimento de soluções customizadas para Cloud Computing, Business Intelligence, Big Data, Data Analytics, Machine Learning, Inteligência Artificial, Data Quality, MDM, Governança de Dados e demais soluções de dados