Data Ops Engineer H/F

Job description

Après plus de 2 ans de développement technique, Jellysmack propose une technologie unique articulée autour de 3 produits qui visent à optimiser la création et la distribution sociale de vidéos.

L' équipe Tech oeuvre pour la mise en place d’outils utilisés en interne par les équipes contenu afin de déterminer les sujets qui buzzent, les aider dans la création de contenu, suivre les performances des vidéos internes etc… en injectant dans chacun de ces produits une dose conséquente d’algorithmie, de statistiques et de machine / deep learning. 

Le Data Ops Engineer, intégré à l’équipe Infra & DevOps occupera un rôle central quant aux activités de l’équipe Data et sera notamment en charge : 
* de la construction, de l’optimisation et du monitoring au quotidien de pipelines data complexes 
* de l’enrichissement du Data Model existant 
* de l’accompagnement de l’équipe Data dans une démarche d’amélioration continue (aide à l’application de best practices de développement, méthodologies de travail, documentation, refactoring de codes...) 
* de la participation, en collaboration avec l’équipe Infra & Devops, à l’optimisation de nos processus Data et de nos outils (mise en place dans notre stack technique de Dask – ou autre framework - pour du calcul distribué par exemple).

 

Il sera attendu du Data Ops Engineer une excellente compréhension de notre environnement technique et de nos processus d’intégration et de déploiement, ainsi qu’une maîtrise de l’ensemble des workflow produits data tout en s’imprégnant des concepts régissant le business de Jellysmack. Il sera également amené à participer notamment aux  discussions autour de l’évolution de notre infrastructure ainsi que nos processus DevOps.
Une grande autonomie, une capacité à réfléchir, concevoir et proposer des solutions, à découvrir de nouveaux outils ainsi qu’à fournir un travail de grande qualité seront de fait attendus du Data Ops Engineer. Notamment, notre environnement technique évoluant régulièrement, le Data Ops Engineer devra être capable de réaliser de la veille technologique et de monter en compétences sur de nouvelles techos (Neo4J, ElasticSearch…). De plus, une capacité à travailler en équipe est fondamentale.

Profil

- Python (excellent niveau) : best practices de dev (PEP…), TDD, OOD, etc… avec des projets significatifs réalisés 

- Excellent niveau en SQL (MySQL et PostGres si possible) 
- Airflow (construction des DAGs, construction d’opérateurs…) 
- Forte connaissance des principes DevOps et expérience en environnement industrialisé (GitLab ou flow de CI/CD impliquant des outils type Jenkins, Ansible...) 
- Au moins 2 ans d’expérience en tant que Data Engineer ou Dev Ops 
- Une connaissance des principes du Machine Learning / Deep Learning serait fortement appréciée afin de faciliter la mise en place des workflow data / APIs 
- Une expérience AWS serait appréciée (S3, Redshift...)