Une carrière chez IBM Conseil est fondée sur des relations à long terme et une collaboration étroite avec des clients du monde entier. Vous travaillerez avec des visionnaires de plusieurs secteurs pour améliorer le parcours de l'IA et du nuage hybride des entreprises les plus innovantes et les plus prestigieuses au monde. Votre capacité à accélérer l'impact et à apporter des changements significatifs pour vos clients est rendue possible grâce à notre écosystème d'associés stratégiques et nos plateformes technologiques robustes dans toute la gamme IBM, y compris les logiciels et Red Hat.
Ce poste est ouvert aux candidats qui résident à Toronto ou à Montréal et est ouvert aux candidats recherchant un stage de 4 mois débutant en septembre 2025. Il est obligatoire que tous les candidats soient inscrits à des études à temps plein dans un établissement postsecondaire et retournent aux études à temps plein à la fin de leur stage.
Notre équipe recherche des candidats possédant des aptitudes techniques exceptionnelles, une passion pour les sciences des données et un intérêt à raconter des histoires à travers les données pour résoudre des problèmes opérationnels réels. La personne sélectionnée se joindra à une équipe de services-conseils dynamique, composée de partenaires, de chefs de produit, de scientifiques des données, d'architectes et d'ingénieurs en informatique, pour conceptualiser, développer et déployer des solutions d'apprentissage machine afin de résoudre des problèmes à l'échelle de l'entreprise.
Notre équipe est fière de relever certains défis très complexes auxquels nos clients sont confrontés en alliant l'expertise en la matière, les sciences des données et l'exécution technique. En tant qu'analyste scientifique des données stagiaire, vous aurez l'opportunité unique d'apprendre et d'utiliser les technologies de pointe des sciences des données sur une plateforme infonuagique (ex. IBM Cloud, Azure) en travaillant sur des projets innovants qui génèrent de la valeur pour des engagements externes auprès des clients ou des initiatives internes.
Les candidats retenus pour un poste au Québec doivent parler couramment le français.
Une familiarité démontrée ou avoir un intérêt pour l'apprentissage machine, l'analyse statistique ou l'exploration des données grâce à des stages antérieurs, des projets personnels/académiques, des marathons de programmation et/ou des publications. Une expérience avec un ou plusieurs langages de scriptage (Python de préférence), ou des connaissances de base en informatique démontrées. Être capable de communiquer des idées en toute confiance à des collègues/directeurs, et être à l'aise et efficace dans le travail autonome et en tant que membre d'une équipe interfonctionnelle.
Les compétences que nous recherchons peuvent inclure:
- AWS / Azure / Google Cloud Platform (GCP) / IBM Cloud
- Sur site Infrastructure en tant que code (IaC): Terraform, CloudFormation
- Kubernetes, AKS, EKS, GKE, RedHat OpenShift
- Jenkins, Tekton, GitOps, ArgoCD
- Conteneurisation, Docker, Podman Gestion de la configuration, Ansible, Chef, Helm
- Surveillance et journalisation : Prometheus, Grafana, ELK Stack, DataDog, Instantana, LogADN, SysDig
- Contrôle des versions: Git, GitOps
- DevSecOps: JFROG, Nexus, Container Registry, intégration continue / livraison continue (CI/CD)
- Intelligence artificielle, apprentissage automatique (IA/ML)
- Cadres d'IA, OpenAI, Hugging Face, TensorFlow Grands modèles de langage (LLM), LLMOps, MLOps, NLP, GitHub Co-Pilot
- Scriptage : bash, python, groovy, interpréteur de commande, go
- Réseau: Fortigate, VPC, VPN, passerelle, groupes de sécurité, sous-réseaux, tables de routage
- Sécurité et conformité du nuage
- Compétences en recherche, en résolution de problèmes et en communication.
Au moins un stage dans un rôle lié aux sciences des données ou l'apprentissage machine. Une expérience de l'utilisation des bibliothèques d'apprentissage automatique/sciences des données en Python (scikit-learn, SciPy, pandas, TensorFlow). Une maîtrise générale des bases de données et des outils d'ingénierie de données (SQL, Spark).