Experiência sólida com ETL (Apache Airflow, dbt) e pipelines de dados.
Proficiência em Python (principalmente com bibliotecas de dataframes, limpeza e transformação de dados) e SQL avançado.
Experiência com AWS (Redshift, S3, Athena) ou Azure para a construção de soluções de dados em nuvem.
Modelagem de dados avançada, incluindo experiência com datalakes e data lakehouses.
Conhecimentos em PySpark e MySQL intermediário.
Familiaridade com ferramentas de Big Data na AWS, como RedShift e Athena.
Experiência com tecnologias de integração (ex.: Apache NiFi, DMS, Airflow) e APIs RESTful.
Experiência com metodologias ágeis (Kanban, Scrum) e capacidade de trabalhar em ambientes de ritmo acelerado.
Competências Comportamentais:
Capacidade de definir soluções flexíveis e escaláveis, com foco na arquitetura de dados e evolução contínua dos processos.
Organização e capacidade de planejamento, com documentação detalhada das atividades diárias e fluxos de trabalho.
Resiliência para lidar com mudanças rápidas de prioridades e novos desafios de projetos.
Habilidade em trabalho em equipe, compartilhamento de conhecimentos e colaboração em diferentes squads.
Boa comunicação para alinhar agendas técnicas e de negócios, garantindo que todos os stakeholders compreendam os desafios e soluções propostas.
Antecipação de possíveis pontos de incerteza nos projetos e capacidade de sugerir soluções proativas.
Localização
Esta é uma localização aproximada e pode não representar a posição exata. Por favor, utilize esta informação como referência e verifique a localização exata se necessário.
Interessado em saber mais?
Entre em contato com o anunciante através dos seguintes canais de comunicação