En tant qu'ingénieur Azure SQL et Data Lakehouse, vous serez responsable de la conception, du développement et de l'optimisation des bases de données backend et des solutions d'entreposage de données au sein des environnements cloud Azure. Cela inclut la gestion de grands ensembles de données, la construction et la maintenance de pipelines ETL robustes, la rédaction de requêtes SQL complexes et de procédures stockées, ainsi que le support des plateformes de reporting. Vous effectuerez également l'optimisation des performances, le dépannage des objets de base de données, collaborerez avec des équipes interfonctionnelles et implémenterez des modèles de données pour répondre aux besoins commerciaux. Le rôle peut également impliquer de travailler avec des outils de données modernes tels que PySpark, Azure Data Factory, Databricks et les tables Delta.
Concevoir, développer et optimiser des bases de données backend et des solutions d'entreposage de données dans des environnements cloud Azure.,Gérer de grands ensembles de données dépassant 5 To.,Construire et maintenir des pipelines ETL robustes.,Rédiger des requêtes SQL complexes et des procédures stockées.,Soutenir des plateformes de reporting telles que Cognos et Power BI.,Effectuer l'optimisation des performances et le dépannage des objets de base de données.,Collaborer avec des équipes interfonctionnelles pour assurer un flux de données de bout en bout transparent.,Implémenter des modèles de données et des solutions d'entreposage pour répondre aux besoins commerciaux évolutifs.,Soutenir et améliorer l'infrastructure Azure Cloud liée aux solutions de bases de données et de pipelines de données.,Développer des feuilles de route technologiques pluriannuelles.,Diriger plusieurs projets complexes impliquant des systèmes backend, de nouvelles technologies et l'amélioration d'applications existantes.
Expérience dans la conception et l'optimisation de bases de données backend.,Expérience dans la rédaction de requêtes SQL complexes et de procédures stockées.,Expérience dans la construction de pipelines ETL robustes pour de grands ensembles de données.,Expérience dans le support d'outils de reporting comme Cognos et Power BI.,Expérience dans l'implémentation de modèles de données et de solutions d'entreposage.,Expérience dans l'optimisation des performances et le dépannage dans les environnements Azure SQL.,Familiarité avec les outils de données modernes tels que PySpark, Azure Data Factory, Databricks et l'architecture des tables Delta/Lakehouse.,Adopte et promeut le changement, faisant évoluer continuellement sa pensée et ses méthodes de travail.,Fortes compétences en influence et en établissement de relations.,À l'aise avec le numérique, recherchant des solutions innovantes et adoptant les technologies évolutives.,Motivé par le succès collectif et le travail d'équipe.,Vit les valeurs de la CIBC : confiance, travail d'équipe et responsabilité.
37,5 heures/semaine
Doit être légalement admissible à travailler au(x) lieu(x) spécifié(s). Peut nécessiter la réalisation d'évaluations basées sur les attributs et d'autres tests de compétences (simulation, codage, maîtrise du français).
La CIBC est une importante institution financière nord-américaine qui compte 14 millions de clients (particuliers, entreprises, secteur public et clients institutionnels). Elle offre une gamme complète de conseils, de solutions et de services par l'intermédiaire de son réseau de services bancaires numériques et de ses centres bancaires au Canada, aux États-Unis et dans le monde entier.
BerryMap utilise des cookies pour fournir des fonctionnalités essentielles, analyser l'utilisation et améliorer votre expérience. Vous pouvez personnaliser vos préférences ci-dessous.