À propos
KLANIK est une société de conseil en Ingénierie IT qui accompagne ses clients dans leurs projets digitaux et technologiques.
Le groupe KLANIK compte désormais plus de 750 talents, évoluant dans 16 agences en Europe, Amérique du Nord, Afrique et Moyen-Orient. Des experts engagés, atypiques et passionnés, impliqués dans des projets stratégiques grâce à leur haut niveau de compétences en Software, DevOps, Cloud, Agilité, Cybersécurité, Big Data & IA.
En parallèle de leurs métiers, les collaborateurs du groupe KLANIK sont accompagnés au quotidien dans leur développement personnel et professionnel, via différentes initiatives engageantes et innovantes :
KONSCIOUS : communauté interne engagée dans les enjeux écologiques, sociaux et environnementaux
KAMPUS : institut de formation technique certifié
KORNER : incubateur de start-ups technologiques
KLANIK ESPORT : club professionnel e-sport ouvert aux collaborateurs
Le poste
Nous recherchons pour l'un de nos clients grands comptes un Data Ingénieur Ops dont le rôle et les responsabilités sont les suivantes:
- Concevoir, implémentez et fournir des solutions pour les problématiques data
- Intégrer et collecter des données issues des applications tierces (CRM, réseaux sociaux, etc.)
- Concevoir, développer, et déployer de nouveaux flux Spark pour les différents besoin métiers (finance, support, industrie…)
- Caractériser des architectures des produits technologiques ; Choix d'architecture en anticipant les besoins de scalabilité
- Planifier et orchestre des flux afin d'optimiser la mise à disposition de données
- Détecter les points bloquants ou les chaînons manquants dans le cycle de traitement des données, et à proposer des solutions à soumettre à leurs collaborateurs
- Assurer la continuité de service et le monitoring des flux développés
- Documentation : capitalisation des savoirs, retours d'expérience et fiches de best practices pour aider à la montée en compétences des équipes métier
- Veille technologique : proposer de nouvelles solutions techniques pour challenger le fonctionnement actuel et optimiser les temps de traitements tout en réduisant les coûts.
- Évangéliser les meilleures pratiques dans le traitement de la data.
Vous travaillerez en relation avec les équipes responsables des infrastructures et des bases de données ainsi qu'avec les équipes de data analystes et de data scientistes, avec l'appui du chef de projet et en relation directe avec les équipes métiers.
Environnement technique :
- Spark , PySpark , Scala
- HDFS, YARN, Hive, SQL Server, Airflow, Postgresql, kafka
- Python, Java, Shell
- API, Web services
- Git Stash, Ansible, YAML
- Puppet
- Ansible
- CI/CD
- Docker / Kubernetes
- Agilité / Scrum
#LI-JB1
Profil recherché
Une expérience solide de 10 ans en développement est obligatoire pour cette mission.
Savoir-faire :
- Spark : Expert
- PySpark : Expert
- Kubernetes : Expert
- API : Confirmé
- Ansible : Confirmé
- Kafka : Confirmé
- Big Data : Expert
- Python : Expert
- Docker : Confirmé
- DevOps : Confirmé
- SQL Server : Avancé
- SQL Server Reporting Services : Élémentaire
Savoir-être :
- Autonome & Résilient
- Force de proposition
- Rigoureux & Capable de gérer plusieurs sujets en parallèle
- Faire preuve d'adaptabilité
- Pédagogue, vous avez la capacité de vulgariser votre savoir technique pour le mettre au service des autres
- Organisé , vous avez le sens des responsabilités
- État d'esprit orienté utilisateur
- Vous avez l'esprit d'équipe, vous participez et êtes acteur des différents rituels agiles
Si vous vous reconnaissez dans cette description, n'hésitez pas à postuler !