Uma carreira na IBM Consulting está enraizada em relacionamentos de longo prazo e colaboração próxima com clientes em todo o mundo.
Você trabalhará com visionários de vários setores para melhorar a jornada da nuvem híbrida e da IA para as empresas mais inovadoras e valiosas do mundo. Sua capacidade de acelerar o impacto e fazer mudanças significativas para seus clientes é possibilitada por nosso ecossistema de parceiros estratégicos e nossas robustas plataformas de tecnologia em todo o portfólio da IBM, incluindo Software e Red Hat.
A curiosidade e a busca constante por conhecimento são a base do sucesso na IBM Consulting. Em sua função, você será incentivado a desafiar a norma, investigar ideias fora de sua função e apresentar soluções criativas que resultem em um impacto inovador para uma ampla rede de clientes. Nossa cultura de evolução e empatia está centrada no crescimento da carreira a longo prazo e nas oportunidades de desenvolvimento em um ambiente que abraça suas habilidades e experiências exclusivas.
Nesta função, você trabalhará em um de nossos IBM Consulting Client Innovation Centers (Delivery Centers), onde fornecemos profundo conhecimento técnico e do setor para uma ampla gama de clientes dos setores público e privado em todo o mundo. Nossos centros de entrega oferecem aos nossos clientes habilidades e conhecimentos técnicos locais para impulsionar a inovação e a adoção de novas tecnologias.
Estamos em busca de um(a) Engenheiro(a) de Dados altamente motivado(a) para integrar nosso time e atuar no desenvolvimento de soluções robustas de dados, desde a modelagem até a implementação de pipelines e processos ETL em ambientes modernos e de alta escala.
Responsabilidades
• Desenvolver, otimizar e manter pipelines de dados e processos de ETL utilizando Python e SQL.
• Atuar em ambientes de desenvolvimento como JupyterLab ou Visual Studio Code, com versionamento de código via Gitlab.
• Modelar e arquitetar bancos de dados relacionais (DB2, Oracle, MySQL) e participar da definição de estratégias de armazenamento e recuperação de dados.
• Projetar e implementar soluções de Big Data utilizando Hadoop, HDFS, Hive, Spark e Hue (desejável).
• Aplicar boas práticas de programação e técnicas de teste unitário para garantir a integridade e qualidade dos dados.
• Documentar processos, fluxos de dados e arquitetura de soluções para facilitar a manutenção e o entendimento do time.
• Colaborar com equipes multidisciplinares para entender requisitos de negócio e transformar demandas em soluções escaláveis.
• Garantir a conformidade com a Lei Geral de Proteção de Dados (LGPD) em todas as etapas do ciclo de vida dos dados (desejável conhecimento básico).
• Experiência comprovada em Python e SQL para manipulação e transformação de dados.
• Vivência com bancos de dados relacionais (DB2, Oracle; MySQL).
• Conhecimento em arquitetura e modelagem de dados.
• Experiência em processos e estratégias de ETL, preferencialmente utilizando Datastage ou NiFi (desejável).
• Familiaridade com ferramentas e frameworks de Big Data: Hadoop, HDFS, Hive, Spark, Hue (desejável).
• Experiência com ambientes de desenvolvimento JupyterLab ou Visual Studio Code e controle de versão com Gitlab.
• Conhecimento básico da LGPD é um diferencial.
• Capacidade de trabalhar em equipe, boa comunicação e perfil colaborativo.
• Certificações em Big Data, Data Engineering ou plataformas de nuvem.
• Experiência com automação de pipelines e integração contínua.
• Vivência em ambientes ágeis e projetos de alta escalabilidade.