logo Trimane
CDI

Data Engineer Snowflake DBT (H/F)

Trimane • Puteaux (92)

Postuler

À propos

Fondée en 2005, TRIMANE est un cabinet de conseil et une société de service spécialisée en Data Intelligence (BI et Big Data), notre mission est de créer de la valeur à partir des données disponibles dans les entreprises, en s'appuyant sur des approches algorithmiques innovantes, des méthodologies spécifiques et de nombreuses technologies. En tant que spécialiste Data, nous sommes reconnus pour le très haut niveau d'expertise de nos consultants et de notre retour d'expérience en la matière. Nous accompagnons nos clients du secteur public ou privé sur des prestations de Conseil, MOA et MOE, autour du traitement et l'analyse des data, quel que soit l'environnement technique (BI, Big Data, Cloud, Machine Learning, Deep Learning, NLP, etc.) ou sur les aspects méthodologiques (Gestion de projet, Agile, DataOps, stratégie Data Gouvernance, organisation Data Driven…). Société à taille humaine, nous recrutons, avant tout, des personnes passionnées désirant intégrer une vraie communauté et construire ensemble une relation durable et de confiance. Rejoindre Trimane c'est : -> Un triple suivi de carrière avec vos référents technique, RH et commercial, -> Un accès en illimité à nos plateformes de formations, des certifications, des formations en interne autour en BI, Big Data, Machine Learning, Blockchain, développement web et logiciels software, -> Des ateliers de veilles technologiques sur des sujets innovants, -> Un CSE avec des afterworks, des escapes games, et autres activités d'équipe, -> Participer à l'aventure The Blockchain Group, un groupe d'entrepreneurs, composé de différentes entités proposant des offres de services complémentaires (digital, blockchain, Data...) et des projets communs.

Le poste

Dans le cadre de sa forte croissance, TRIMANE recherche un(e) Data Engineer passionné(e) et expérimenté(e) pour rejoindre ses équipes projet. Vous serez au cœur de la conception, de la mise en œuvre et de l'optimisation de nos pipelines de données dans un environnement moderne basé sur Snowflake, DBT, Qliksense, et AWS, tout en mettant en place des pratiques de CI/CD pour assurer des livraisons robustes et continues. En collaboration avec les équipes Data Science, Business Intelligence et IT, vous jouerez un rôle clé dans le traitement, la transformation et la visualisation des données, pour permettre des décisions basées sur des insights fiables. Vos missions : - Concevoir et maintenir des pipelines de données : Développer et optimiser les pipelines ETL/ELT sur Snowflake en utilisant DBT pour les transformations. Automatiser le flux de données avec des outils de workflow (ex. Airflow). - Modélisation et transformation des données : Concevoir des modèles de données robustes, scalables et orientés business. Assurer la qualité des données et le suivi de leur conformité (Data Quality & Governance). - Développement de dashboards et visualisations : Créer des visualisations avancées avec Qliksense en collaboration avec les équipes métier. - Intégration avec AWS : Configurer et maintenir des services AWS (S3, Lambda, Glue, Redshift, etc.) pour répondre aux besoins en data engineering. Gérer les ressources cloud et optimiser les coûts. - Mise en place de pratiques CI/CD : Construire et automatiser les déploiements via des outils de CI/CD (ex. Jenkins, GitLab CI/CD, GitHub Actions). Assurer une livraison continue des modèles DBT et des pipelines Snowflake. - Support et veille technologique : Assurer le suivi des incidents, le monitoring et le support des pipelines de production. Réaliser une veille technologique pour identifier de nouvelles opportunités et améliorer les processus existants.

Profil recherché

Compétences techniques recherchées : Base de données & Transformation des données : Expertise sur Snowflake (architecture, optimisation, sécurisation). Expérience avancée avec DBT (modélisation, macros, testing). Visualisation de données : Connaissance approfondie de Qlik Sense pour la création de tableaux de bord. Cloud Computing : Maîtrise des services AWS liés à la data (S3, Lambda, Glue, Athena, Redshift). Compréhension des architectures serverless et distribuées. CI/CD et outils de versionnement : Familiarité avec les outils CI/CD (Git, Jenkins, GitLab CI, etc.). Expérience avec les workflows de déploiement dans des environnements data. Programmation et scripting : Maîtrise de Python et/ou SQL. Connaissance des frameworks d'orchestration de données (ex. Apache Airflow). Compétences soft et organisationnelles : Capacité à travailler en équipe et à collaborer avec des profils variés (Data Scientists, BI Analysts, DevOps...). Bonnes capacités d'analyse et de résolution de problèmes complexes. Autonomie, rigueur et sens de la priorisation dans un contexte agile. Formation et expérience : Diplôme Bac+5 en Informatique, Big Data, Statistiques, ou équivalent. Une expérience significative d'au moins 3 ans dans un rôle similaire. Une certification Snowflake ou AWS serait un plus.

En résumé

Société

Trimane

Contrat

CDI • Cadre • Temps Plein

Expérience

3 ans minimum

Diplôme

BAC +4/5

Rémunération

Selon profil

Localisation

Puteaux (92)

Référence

2025173

Partager

Twitter facebook linkedin
Data Engineer Snowflake DBT (H/F)

Ce poste vous intéresse ?
Postulez

💬 Pour personnaliser votre message au recruteur cliquez ici !


En cliquant sur postuler, j'accepte que les informations saisies soient exploitées dans le cadre de la gestion des candidatures. Conformément à la loi "informatique et libertés", vous pouvez exercer votre droit d'accès aux données vous concernant et les faire rectifier en nous contactant: jobposting.pro/contact
En savoir plus sur notre politique de protection des données.