Description.
Responsibilities- Discutir, avaliar e definir soluções e estratégias escaláveis e performáticas no tratamento de grandes volumes de dados;
- Propor melhorias e alternativas técnicas nos desenvolvimentos;
- Construir, catalogar e monitorar produtos de dados;
- Auxiliar no desenvolvimento e manutenção de pipelines de dados e fluxos de ETL;
- Construir procedures, queries e scripts para ingestão de dados e disponibilização de insumos de dados;
- Apoio aos time de desenvolvimento e as áreas de negócios;
- Participar das definições de entrada de demandas nos times de dados, questionando, sugerindo e apoiando nas validações e definições de escopo;
- Entendimento dos Requisitos - Construção da Solução/Documentação e validação do desenvolvimento.
Prerequisites- Programação básica - Lógica de programação e desenvolvimento de programas simples;
- GitHub intermediário - Experiência na utilização de merge, checkout, branch e resolução de conflitos;
- Experiência intermediário- Experiência no desenvolvimento de pipelines de CI/CD em projetos de dados - Jenkins ou ferramentas correlatas;
- SQL intermediário - Experiência com modelagem de dados e desenvolvimento de procedimentos.
- Ferramentas AWS - Tem experiêcnia e conhece a arquitetura e o funcionamento dos serviços Redshift e S3;
- Desejável:
- Habilidade com ferramentas de análise e monitoramento de logs, como Splunk, New Relic, entre outras.
- Conhecimento em práticas de Data Quality e Governança de Dados, garantindo confiabilidade e conformidade dos dados.
- Capacidade de desenhar e implementar soluções de dados escaláveis, seguras e performáticas, considerando boas práticas.
- Conhecimentos em Oracle Cloud (OCI) é um diferencial;
- Conhecimento em Python.