Uma carreira na IBM Consulting baseia-se em relacionamentos de longo prazo e colaboração estreita com clientes em todo o mundo.
Você trabalhará com visionários de vários setores para melhorar a jornada da nuvem híbrida e da IA para as empresas mais inovadoras e valiosas do mundo. Sua capacidade de acelerar o impacto e fazer mudanças significativas para seus clientes é possibilitada por nosso ecossistema de parceiros estratégicos e nossas plataformas tecnológicas robustas em todo o portfólio da IBM, incluindo Software e Red Hat.
A curiosidade e a busca constante por conhecimento são a base para o sucesso na IBM Consulting. Em sua função, você será incentivado a desafiar o padrão, investigar ideias fora de sua função e apresentar soluções criativas que resultem em um impacto inovador para uma ampla rede de clientes. Nossa cultura de evolução e empatia se concentra no crescimento profissional de longo prazo e nas oportunidades de desenvolvimento em um ambiente que valoriza suas habilidades e experiência únicas.
In this role, you'll work in one of our IBM Consulting Client Innovation Centers (Delivery Centers), where we deliver deep technical and industry expertise to a wide range of public and private sector clients around the world. Our delivery centers offer our clients locally based skills and technical expertise to drive innovation and adoption of new technology.
Buscamos um(a) Engenheiro(a) de Dados com sólida experiência em modelagem de dados e domínio de Spark (PySpark) para atuar no desenvolvimento e manutenção de pipelines de dados escaláveis, eficientes e seguros. A pessoa ideal será responsável por estruturar e transformar grandes volumes de dados em informações consistentes, garantindo a qualidade, governança e integridade das bases.
Além do domínio técnico, valorizamos profissionais com experiência em metodologias ágeis, capazes de atuar em times multidisciplinares e contribuir ativamente para o desenho e evolução das soluções de dados.
Projetar, implementar e otimizar modelos de dados (conceituais, lógicos e físicos) para atender demandas de negócio e analytics;
Desenvolver e manter pipelines de dados utilizando Spark/PySpark e outras ferramentas de processamento distribuído;
Integrar diferentes fontes de dados (estruturadas e não estruturadas) em ambientes de Data Lake e Data Warehouse;
Garantir a qualidade, consistência e governança dos dados em todo o ciclo de vida;
Colaborar com times de engenharia, analytics e produto para definir e implementar padrões e boas práticas;
Atuar em metodologias ágeis (Scrum ou Kanban), participando ativamente de cerimônias, planejamento e revisões;
Contribuir para a melhoria contínua dos processos e arquitetura de dados corporativa.
Experiência sólida em modelagem de dados (OLTP, OLAP, dimensional, relacional e/ou Data Vault);
Domínio de Spark/PySpark para processamento de grandes volumes de dados;
Experiência com metodologias ágeis (Scrum, Kanban, ou SAFe);
Conhecimento em ETL/ELT, SQL e integração de dados;
Experiência com Data Lakes, Data Warehouses e pipelines de dados em nuvem (AWS, Azure ou GCP);
Boas práticas de versionamento de código (Git) e controle de qualidade de dados.