À propos
BK Consulting, société de Conseil en Système d'Information avec une forte expertise métier compte plus de 700 consultants.
Depuis 2000, nos collaborateurs sont au centre de nos préoccupations et notre positionnement en tant que multi-spécialiste nous permet d'accompagner nos clients sur leurs projets à travers des partenariats forts et durables.
Nous avons convaincu de nombreuses entreprises du domaine de la Banque, de la Finance, de l'Assurance, de la Distribution, de l'Industrie et des Services.
Le poste
La Direction des Environnements Numériques du groupe recherche un Data Engineer. La mission se fera au sein de l'équipe Intelligence Artificielle. Il participera à la mise en oeuvre des briques IA sur les environnements de production.
Tâches principales
• Concevoir et développer des pipelines de traitement de données robustes et évolutifs
• Architecturer et déployer des solutions en microservices, en facilitant l'intégration d'algorithmes de Machine Learning
• Mettre en place et maintenir des processus CI/CD efficients
• Implémenter et optimiser l'architecture data (stockage et traitement)
• Développer et maintenir des tableaux de bord analytiques
• Établir et suivre des métriques de performance
• Optimiser les processus ETL pour garantir l'efficacité du traitement des données
• Collaborer avec les équipes de développement (API, backoffice), l'équipe IA et les parties prenantes métier
• Assurer la supervision des processus d'intégration et de déploiement continu sur les environnements Cloud et on-premise
Profil recherché
Profil attendu
• Minimum 2 ans d'expérience en développement Big Data
• Expérience significative dans un environnement Cloud (AWS, Azure, GCP)
• Pratique confirmée des méthodes Agiles
Compétences techniques
• Maîtrise des langages de programmation : Python 3, Scala, Spark
• Expertise en technologies Big Data : Hadoop, Kafka, Hive
• Expérience approfondie des bases de données SQL et NoSQL : PostgreSQL, MongoDB, Cassandra
• Compétences en développement API et microservices (FastAPI)
• Maîtrise des outils DevOps : Docker, Git, Kubernetes (AKS)
• Connaissance des outils de monitoring : Prometheus
• Expérience en visualisation de données : Tableau, Jupyter
• La connaissance de Streamlit/Dash et des outils d'infrastructure as code (Terraform, Ansible) est un plus
• Curiosité intellectuelle et passion pour le traitement des données massives
• Excellentes capacités de communication en français et en anglais
• Aptitude à travailler dans un environnement international