À propos
PROPULSE IT accompagne ses clients grands comptes et PME dans la mise en œuvre des projets It et digitaux.
PROPULSE IT est un réseau de consultants à forte valeurs ajoutées, complètement associé à notre démarche qualité de suivi des besoins et projets de nos clients.
A ce jour, le réseau de freelance PROPULSE IT comporte plus de 30 000 consultants sur toute la France, et couvre l'ensemble des besoins IT et digitaux.
En constituant ce réseau par cooptation de clients ou de consultants, nous avons privilégié la constance dans le savoir-faire technique et le savoir-être, pour devenir un véritable partenaire privilégié de nos clients.
Parallèlement, nous avons développé un réseau de partenaires sélectionnés pour leur expertise technique, et l'adhésion aux valeurs de notre entreprise.
Aujourd'hui PROPULSE IT est une société en pleine croissance organique, Champion de la Croissance du journal Les Echos 5 années consécutives.
Ce développement s'appuie sur la qualité et la pérennité des missions réalisées.
La satisfaction client est ainsi liée à l'épanouissement des consultants !
Alors, n'hésitez pas à postuler !
Le poste
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP
nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe.
À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches.
DESCRIPTION DE LA MISSION
• Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux.
• Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets
• Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données.
• Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale
• Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données
• Met en place des processus et des contrôles pour garantir la qualité des données
• Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces.
• Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs
• Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation)
• Être force de proposition sur l'amélioration de notre stack Data
• Faire le reporting d'avancement des travaux
• Support au déploiement
• Assure la maintenance corrective ou évolutive
• S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe
ENVIRONNEMENT TECHNIQUE
L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery.
• Langages/Framework : SQL, BigQuery, Python, Java, Shell
• Outils : OpenText GENIO, Talend
• Base de données : Teradata, BigQuery, SQL Server, IBM DB2
PLANIFICATION ET LOCALISATION
Démarrage ASAP / PARIS
Profil recherché
COMPÉTENCES RECHERCHÉES
o Soft skills
- Rigueur
- Autonomie
- Une bonne capacité relationnelle et rédactionnelle est indispensable
- Capacité à travailler efficacement en équipe et à communiquer clairement avec des collègues techniques et non techniques
- Capacité à résoudre des problèmes complexes de manière efficace et à respecter les délais
- Compréhension de l'environnement, des besoins et des contraintes des utilisateurs.
- Intérêt pour les nouvelles technologies.
- Imagination
o Hard skills - niveaux minimum :
SQL / ETL OpenText / Genio : EXPERT
ETL Talend : Débutant
Shell unix (.sh .ksh) : confirmé
BigQuery : confirmé
DataForm : débutant
Python : confirmé
ElasticSearch : débutant
Teradata : confirmé
Apache Sqoop : confirmé
GCP : confirmé
SSIS : confirmé