Valid
Valid

Engenheiro de Dados Jr

June 12, 2025
Full-time
Remote · Brazil
Not Applicable
Back-end Developer

A Valid promove a identificação segura de pessoas, jornadas e transações. Nossas soluções físicas e digitais são dedicadas a três grandes ecossistemas: ID & Governo Digital | Banking & Meios de Pagamento | Conectividade Segura.

Autenticar, autorizar, verificar e garantir a segurança de todos os envolvidos. Seja em jornadas públicas ou privadas, isso é o que fazemos para cada um dos nossos mais de 1.200 clientes no Brasil e no mundo.

Sempre que a solução é complexa, com alta volumetria e envolve dados sensíveis, pode ter certeza de que tem a Valid por trás.

Responsabilidades e atribuições

Estamos em busca de um(a) Engenheiro(a) de Dados Júnior com interesse em ambientes de nuvem (GCP) e vontade de aprender a estruturar e operar Data Lakehouse. O profissional será responsável por auxiliar na implementação e manutenção de pipelines de dados, garantindo a ingestão, processamento e disponibilização de dados em diferentes camadas (Raw, Refined, Curated).

Responsabilidades:

  • Auxiliar no desenvolvimento, orquestração e monitoramento de pipelines de dados usando ferramentas como Apache Spark, PySpark, Airflow, Dataflow, Cloud Run, Apache NiFi, ou similares.
  • Trabalhar com GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub) para ajudar na construção de soluções escaláveis e seguras.
  • Contribuir para a criação de processos eficientes de ingestão de dados em batch e streaming, integrando múltiplas fontes.
  • Colaborar com cientistas de dados, analistas e engenheiros de software para garantir a qualidade e governança dos dados.
  • Apoiar na catalogação e segurança dos dados.
  • Participar da otimização de performance e boas práticas em ambientes cloud.

Requisitos e qualificações

Requisitos Obrigatórios:

  • Conhecimento básico em Google Cloud Platform (GCP).
  • Familiaridade com conceitos de Data Lakehouses e suas camadas.
  • Conhecimento em Python e SQL.
  • Noções de ferramentas de orquestração de pipelines (Apache Spark, PySpark, Airflow, Dataflow, Cloud Run, Apache NiFi, etc.).
  • Familiaridade com ferramentas de versionamento de código (Git, Bitbucket).
  • Interesse em boas práticas de governança, qualidade e segurança de dados.

Desejável:

  • Cursos ou certificações em GCP.

Soft Skills:

  • Visão sistêmica e interesse em performance e escalabilidade.
  • Boa comunicação com áreas técnicas e de negócio.
  • Proatividade e espírito colaborativo.
  • Capacidade de atuar em ambientes ágeis e com múltiplas prioridades.