Banque Nationale du Canada

Architecte Solutions AWS

La Banque Nationale du Canada ou BNC est un groupe intégré qui propose des services financiers complets à une clientèle de particuliers, de petites et moyennes entreprises (PME) net de grandes entreprises dans son marché national, ainsi que des services spécialisés à l’échelle internationale.

La BNC, Marchés Financiers a deux projets:

  • Le premier consiste à déplacer un cluster Hadoop Cloudera de 18 nœuds Cloudera sur site vers l’infrastructure cloud Amazon Web Services.
  • Le second est la création d’une preuve de concept (POC) pour une usine de modèles analytiques (boîte noire d’apprentissage automatique) qui sélectionne le meilleur algorithme de prédiction des prix du marchés et des actions.

 

Dans ce contexte, on m’a charger de :

  • Définir la stratégie et la feuille de route de migration du cluster Big Data Cloudera vers le cloud AWS
  • Définition et mise en œuvre de la stratégie de sécurité des données AWS pour le cluster.
  • Définition et mise en œuvre de la stratégie de surveillance du cluster AWS / EMR / Athena.
  • Examiner et soutenir les développeurs pour les traitements par lots Spark / MapReduce
  • Conseiller de confiance Big Data (architectures et technologies).
  • Conception d’une plateforme d’analyse en temps réel pour ingérer / prévoir les données du marché en temps réel.
  • Analyser les journaux des applications Murex pour créer un modèle prédictif de maintenance.
  • Travail sur l’implémentation d’un POC pour une fabrique de modèles analytiques.
  • Participer en tant que conseiller technologique pour mettre en œuvre le POC de détection de fraude sur le cloud Google.
La Méthodologie
  • Faire un inventaire de toutes les données, de toutes les fonctions de calcul à migrer vers Amazon Web Services Cloud.
  • Définir une stratégie de migration.
  • Définir les stratégies de sécurité et de surveillance.
  • Créer l’infrastructure sur AWS.
  • Commencer à déplacer des données, des tables et des fonctions de calcul moins critiques.
  • Valider avec les utilisateurs et les propriétaires des données.
  • Continuer jusqu’à la fin de toutes les données, tables et fonctions de calcul.
  • Définir les niveaux d’accès des utilisateurs.
  • Mettre en place des outils de surveillance et des KPI.
Détails Clés

Rôle: Architecte Solutions AWS / Big Data

Date du Projet : 2018

Durée du Projet : 7 mois

Localisation : Montréal – Canada

Technologies: Amazon Web Services, Spark (Scala, PySpark), Kafka, Nifi, Airflow, MySQL, Atlas,  Ranger, Hadoop, Hive, Impala, Athena, Amazon SageMaker.

Etapes Clés

Définir la stratégie de la sécurité d'accès

Définition de la stratégie d’accès aux données. Utilisation de AWS IAM pour définir les accès (Role Based Access Control) et (Tag Based Acces Control)

Préparation de l'environnement sur AWS

Définition de l’architecture de la plateforme cible sur AWS.

Création des environnements cibles sur Amazon S3 et Athena.

Préparation des données à migrer en fonction de leur usages par les différents services (volume 700 TO de données au format Parquet)

Stockage des données sur Amazon S3

Validation des données migrées et de leurs structures /formats

Initiation de la migration

Faire l’inventaire de la plateforme local à migrer vers le cloud AWS