A career in IBM Consulting is rooted by long-term relationships and close collaboration with clients across the globe.
You'll work with visionaries across multiple industries to improve the hybrid cloud and AI journey for the most innovative and valuable companies in the world. Your ability to accelerate impact and make meaningful change for your clients is enabled by our strategic partner ecosystem and our robust technology platforms across the IBM portfolio; including Software and Red Hat.
Curiosity and a constant quest for knowledge serve as the foundation to success in IBM Consulting. In your role, you'll be encouraged to challenge the norm, investigate ideas outside of your role, and come up with creative solutions resulting in ground breaking impact for a wide network of clients. Our culture of evolution and empathy centers on long-term career growth and development opportunities in an environment that embraces your unique skills and experience.
In this role, you'll work in one of our IBM Consulting Client Innovation Centers (Delivery Centers), where we deliver deep technical and industry expertise to a wide range of public and private sector clients around the world. Our delivery centers offer our clients locally based skills and technical expertise to drive innovation and adoption of new technology.
- Implementing and validating predictive and prescriptive models and creating and maintaining statistical models with a focus on big data & incorporating machine learning. techniques in your projects
- Writing programs to cleanse and integrate data in an efficient and reusable manner
- Working in an Agile, collaborative environment, partnering with other scientists, engineers, consultants and database administrators of all backgrounds and disciplines to bring analytical rigor and statistical methods to the challenges of predicting behaviors
- Communicating with internal and external clients to understand and define business needs and appropriate modelling techniques to provide analytical solutions.
- Evaluating modelling results and communicating the results to technical and non-technical audiences.
Databricks, Hadoop, Spark, Scala, Kafka, SQL, Java e/ou C++: Experiência com plataformas e linguagens de programação para processamento de grandes volumes de dados e desenvolvimento de soluções de dados em tempo real.
Controle de versão (Git): Habilidade em utilizar sistemas de controle de versão, como Git, para gerenciar e colaborar no desenvolvimento de código.
Portfólio de projetos pessoais (exemplo: Github, blog pessoal): Demonstração de habilidades práticas por meio de projetos próprios em plataformas como Github ou blogs, mostrando o conhecimento adquirido.
SPSS, SAS ou Knime: Experiência com ferramentas de análise estatística e mineração de dados, como SPSS, SAS ou Knime.
Tableau, PowerBI, Looker: Conhecimento em ferramentas de visualização de dados, como Tableau, PowerBI e Looker, para criação de dashboards interativos e relatórios analíticos.
Séries Temporais, Mineração de Texto e NLP: Competência em trabalhar com séries temporais, análise de texto e processamento de linguagem natural (NLP).
Redes Neurais e Deep Learning (bibliotecas como Keras, PyTorch, TensorFlow, H2O): Experiência em técnicas de redes neurais e aprendizado profundo, utilizando bibliotecas como Keras, PyTorch, TensorFlow ou H2O.
Técnicas de Reconhecimento Visual: Conhecimento de métodos e algoritmos usados em visão computacional para reconhecimento de padrões e objetos em imagens ou vídeos.
Experiência em Programação Matemática (CPLEX, Gurobi, Matlab): Habilidade em usar ferramentas de otimização matemática e programação matemática, como CPLEX, Gurobi e Matlab.
Capacidade de trabalhar com plataformas de nuvem (Azure, IBM Cloud, Google Cloud ou AWS): Experiência em desenvolver e implantar soluções utilizando plataformas de nuvem como Azure, IBM Cloud, Google Cloud ou AWS.