Une carrière à IBM Consulting est ancrée dans des relations à long terme et une collaboration étroite avec des clients du monde entier.
Vous travaillerez avec des visionnaires dans de multiples secteurs pour améliorer le parcours du cloud hybride et de l'IA pour les entreprises les plus innovantes et les plus importantes au monde. Votre capacité à accélérer l'impact et à apporter des changements significatifs pour nos clients est rendue possible par notre écosystème de partenaires stratégiques et nos plateformes technologiques robustes à travers le portefeuille IBM ; y compris et Red Hat.
La curiosité et la recherche constante de connaissances sont les fondements de la réussite au sein d'IBM Consulting. Dans votre rôle, vous serez encouragé à remettre en question la norme, à rechercher des idées en dehors de votre rôle et à trouver des solutions créatives qui auront un impact révolutionnaire pour un large réseau de clients. Notre culture de l'évolution et de l'empathie est axée sur l'évolution de carrière à long terme et les opportunités de développement dans un environnement qui prend en compte vos compétences et votre expérience uniques.
In this role, you'll work in one of our IBM Consulting Client Innovation Centers (Delivery Centers), where we deliver deep technical and industry expertise to a wide range of public and private sector clients around the world. Our delivery centers offer our clients locally based skills and technical expertise to drive innovation and adoption of new technology.
Concevoir et maintenir des dashboards sur des outils BI (QlikSense, QuickSight, Tableau...).
Mettre en place et optimiser des flux d’intégration de données (ETL/ELT).
Participer à la modélisation de données opérationnelles et décisionnelles (DWH).
Contribuer à la création et à la maintenance de datasets fiables, documentés et réutilisables.
Développer des pipelines data en Python et les déployer dans un environnement cloud.
Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins et proposer des solutions adaptées.
Participer à l’amélioration continue de notre stack data (automatisation, monitoring, CI/CD, documentation…).
age.
Étudiant(e) en école d’ingénieur avec une spécialisation Data / Informatique / BI.
Bonne connaissance de SQL et des concepts de bases de données relationnelles.
Premiers pas (ou plus !) en Python et dans des outils d’intégration de données (ETL).
À l’aise avec au moins un outil de data visualisation (Power BI, Tableau, Qlik, etc.).
Esprit analytique, rigoureux(se), curieux(se) et motivé(e) à apprendre.
Bon relationnel et envie de travailler en équipe.
Serait un plus :
Expérience (projet ou cours) avec un cloud provider (AWS, GCP, Azure).
Familiarité avec Spark, partitionnement, Parquet ou autres outils Big Data.
Notions en déploiement d’infrastructure as code (Terraform, AWS CloudShell...).
Connaissance des bonnes pratiques CI/CD (GitHub Actions...).
• Maîtrise de l’anglais oral & écrit afin de communiquer avec les autres centres de services IBM en Europe