CONTEXTE :
En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers.
Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure.
MISSIONS :
Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en
collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers.
Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform.
En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à :
• La collecte et l’ingestion de différentes sources de données non homogènes
• La mise en place de pipelines de traitement de données
• Le développement des modèles de données
• L’extraction et l’exposition des données du Lakehouse vers d’autres services
• L’industrialisation des projets sur la GCP
• La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données
• La participation aux initiatives de gouvernance des données en assurant la qualité, la
fiabilité et l’intégrité des données
• La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe
Expertises demandées pour la réalisation de la mission :
Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes :
• Au moins 3 ans d’expérience dans un environnement data
• Compétences solides en data : structures de données, code, architecture
• Connaissance de l’un des Cloud Provider Public : de préférence GCP
• Expériences professionnelles avec les langages SQL et Python
• Références professionnelles sur des projets Big Data : de préférence Pyspark, BigQuery et Airflow
• Expertises dans la mise en place de pipeline ETL / ELT
• Bonnes connaissances de Gitlab et Gitlab CI/CD
• Forte capacité à vulgariser et à communiquer sur des aspects purement techniques
• Pratique des méthodes Agile (Scrum, Kanban)
Bénin Digital est une Entreprise de Services du Numérique (ESN) spécialisée dans la digitalisation des processus métiers et accompagne les clients issus des secteurs de l’industrie, de la Banque & assurance, de l’industrie, de la Grande distribution & e-commerce et des Médias & communication. Nous interagissons avec nos clients et consultants autour de compétences « tech » pour l’essentiel et les accompagnons aussi avec des talents Data, Produit, Design et Marketing Digital. Bénin Digital accompagne ses clients dans la chaine de valeur de leurs activités en leur mettant à disposition son expertise à travers des consultants hautement qualifiés pour des projets et des missions diversifiées en Afrique et en Europe