Data engineer confirmé - H/F - CDI
Suivi de vos ressources et mesure de performance à partir de l’analyse du comportement de vos équipements
La mission
Au sein de l’équipe tech actuellement constituée d’un analyste, d’un Data Engineer en consultant, d’une équipe de développement externe IoT et d’un CTO, vous contribuerez au développement des fonctionnalités de notre plateforme.
Le Data Engineer conçoit et développe les infrastructures et outils nécessaires au traitement des données massives issues de la réception de tous les capteurs IoT du parc, des inventaires des clients et au déploiement de solutions de BI qui consomment nos services pour produire des rapports ou des portails clients (API).
Vos missions principales
1. Analyser le besoin et concevoir l’infrastructure de traitement
Le Data Engineer analyse et développe une solution permettant le traitement de volumes importants de données, tout en garantissant la sécurité de celles-ci. Il préconise l’architecture technique nécessaire aux traitements des algorithmes conçus avec le CTO (ex : puissance de calcul, stockage, flux de données, utilisation des solutions cloud et développements spécifiques). Il co-anime l’équipe de traitement des données avec le CTO et contribue tout au long du traitement des données.
2. Déployer et maintenir la solution sur son cycle de vie
Il est le premier échelon de la chaîne de traitement de données et conçoit des solutions permettant le traitement de volumes importants de « pipelines » de données. Il veille à entretenir une solution permettant le traitement massif de données en utilisant ses diverses expertises. Il anticipe les évolutions dans les données (ex : variations de volumes ou d’usages) et prépare l’architecture de la plateforme à y répondre techniquement.
3. Développer et intégrer les technologies du Big Data dans son activité
Les principaux services de manipulation / stockage / traitement de données. Les services Google Cloud Platform (Data Flow, BigQuery, GCS et l’équivalent de Lambda), Python (CLI, scripts et libraire métier), Apache Airflow, Docker, des systèmes d’exploitation (Linux, Windows) et des solutions de base de données (MySQL / RDS, SQL Server, ElasticSearch).
Il est garant du maintien de la stabilité et de la flexibilité de l’infrastructure de traitement.
Il est garant du maintien de la stabilité et de la flexibilité de l’infrastructure de traitement.
Activités secondaires
Assister les opérations dans l’analyse de la performance et de l’activité du parc de capteurs (création d’outils en liant avec les plateformes réseau).
Assister les opérations dans le choix de solutions IoT (Idéation lors de la conception).
Veille et amélioration continue des bonnes pratiques de programmation de l’équipe.
Evolution
Le poste peut être amené à devenir une position de leadership, la requalification sera étudiée dans le cadre d’une démarche de gestion prévisionnelle des emplois et compétences.
Profil
- Master (Bac+5) en informatique où cycle court de développement type école 42 où MsC pro Epitech (alternance) en 2/3 ans
- Au moins 3 à 5 ans d’expérience en développement (idéalement avec un rôle de lead où d’architecte par le passé).
- Capacité à planifier l’évolution d’une infrastructure pour suivre les besoins de traitements (aujourd’hui 12000 capteurs en production, demain plus de 50 000).
- Capacité à investiguer et résoudre les problèmes d’un environnement de production complexe
- Être capable de tester son code et de faire confiance à ses tests.
- Connaissance des langages, outils et technologies :
- Python (pour nos librairies métier et nos outils de CLI)
- AWS : RDS, ElasticSearch, EC2
- GCP : Dataflow, IAM, Big Query, GCS
- Docker et virtualisation d’environnement (Environnement de développement en docker avec Apache Airflow, déploiement via GCP Dataflow)
- Bases de données relationnelles (MySQL, SQLite) et non-relationnelles (Elasticsearch)
- REST APIs (Open API, Postman) et GraphQL
- Des notions de sécurité (Owasp top 10) et des notions de réseaux (VPC / sous-vpc à setup).
- Git, idéalement git flow et GitLab CI
- Les principales librairies de science de données (NumPy, Pandas)
- Idéalement des notions d’algorithme et d’apprentissage machine
- Intérêt pour les technologies IoT et les défis du secteur de la construction
- Bon degré d’autonomie (on travaille en Agile avec une roadmap et une itération par semaine, le process évolue au fil des problématiques de l’équipe)
- Bonne communication en français et à l’écrit en anglais
Pourquoi postuler ?
Rejoindre Omniscient, c’est rejoindre une équipe dynamique dans la Constructech, un secteur en plein boom. C’est découvrir l’aventure passionnante de l’intrapreneuriat ou comment faire naître des nouveaux business et des nouvelles entreprises au sein des grands groupes internationaux.
Infos pratiques
Date de début : Novembre 2021
Lieu : Sèvres, Ile-de-France
Contrat : CDI
Pour candidater
Envoyez votre CV à l’adresse suivante : dreamjob@myomniscient.com
Qui sommes-nous ?
Découvrez comment l'aventure a commencé et les personnes qui en font partie aujourd'hui !