Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 8,000 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1,000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.
Estamos em busca de uma pessoa para atuar como Engenheiro(a) de Dados, para atuar em um projeto de nicho financeiro, compondo um time focado na gerência de Transformação de Cadastro de Clientes.
Responsabilidades:
-Desenvolver e manter pipelines de dados (ETL/ELT) em ambiente Azure, utilizando Databricks para processamento e integração.
-Implementar pipelines CI/CD voltados a processos ETL.
-Criar soluções de ingestão, transformação e modelagem de dados utilizando Databricks, Spark/PySpark, Cloudera e Azure Data Factory (ADF)
-Apoiar projetos de migração para cloud, garantindo segurança, qualidade e integridade dos dados.
-Colaborar com times de negócio e ciência de dados para deploy de modelos de IA em ambiente cloud.
-Garantir qualidade e consistência dos dados, aplicando técnicas de data profiling e monitoramento.
-Projetar e manter soluções de Data Lake e Data Warehouse, com aplicação de boas práticas de governança de dados.
-Documentar processos, arquiteturas e boas práticas de engenharia de dados.
Requisitos Técnicos:
-Experiência sólida em Azure Data Services e Databricks.
-Domínio de Python e SQL para manipulação e transformação de dados.
-Conhecimento em CI/CD voltado para ambiente de dados.
-Experiência em modelagem de dados (conceitual, lógica e física).
-Vivência em projetos de migração para cloud.
-Experiência em ETL/ELT e integração de grandes volumes de dados.
-Experiência com deploy de modelos de IA e uso de ferramentas como Azure ML.
-Conhecimento em arquiteturas orientadas a dados e boas práticas de governança.
-Participação em iniciativas de MDM (Master Data Management).
-Familiaridade com Databricks MLflow para gestão de modelos.
-Atuação em ambientes Data Lake e Data Warehouse.
Diferenciais:
- Experiência com Teradata.
- Experiência com SAS.
#LI-PA1