Data Ops Engineer H/F

Job description

Vous utilisez plus souvent les mots class, if, instance que les mots maison, ville, porte (mots les plus utilisés en français)?

01000011 01100001 01110000 01100001 01100010 01101100 01100101 00100000 01100100 01100101 00100000 01110100 01110010 01100001 01100100 01110101 01101001 01110010 01100101 00111111 

Si oui, c’est que vous êtes soit trilingue, soit débrouillard. Que ce soit l’un ou l’autre, vous avez déjà coché une première case et démarrez très bien cette aventure!

Dans notre équipe tech, pas de place pour la lassitude ou la répétition, ici on multiplie les projets et surtout on laisse toute liberté à votre imagination débordante. Ce qui compte c’est que vous laissiez exprimer votre personnalité et éclater votre virtuosité.

L'équipe œuvre pour la mise en place d’outils utilisés en interne par les équipes contenu afin de déterminer les sujets qui buzzent, les aider dans la création de contenu, suivre les performances des vidéos internes etc... en injectant dans chacun de ces produits une dose conséquente d’algorithmie, de statistiques et de machine / deep learning. 

Amateurs de Techno et PS4, passionnés de développement et amoureux de la Corse (oui, on y a un bureau!), postulez!


Principales missions 


Après plus de 2 ans de développement technique, Jellysmack propose une technologie unique articulée autour de 3 produits qui visent à optimiser la création et la distribution sociale de vidéos.

 

Le Data Ops Engineer H/F, intégré à l’équipe Infra & DevOps occupera un rôle central quant aux activités de l’équipe Data et sera notamment en charge : 

  • de la construction, de l’optimisation et du monitoring au quotidien de pipelines data complexes, 
  • de l’enrichissement du Data Model existant, 
  • de l’accompagnement de l’équipe Data dans une démarche d’amélioration continue (aide à l’application de best practices de développement, méthodologies de travail, documentation, refactoring de codes...), 
  • de la participation, en collaboration avec l’équipe Infra & Devops, à l’optimisation de nos processus Data et de nos outils (mise en place dans notre stack technique de Dask – ou autre framework - pour du calcul distribué par exemple).

Quelques exemples de projets : 

  • Création et monitoring au quotidien des DAGS de nos différents produits tech avec Airflow, 
  • Définition d’un nouveau data model avec l’équipe Analyst pour l’intégration d’un nouveau réseau social, 
  • Construction d’un système d’alerting pour monitorer les performances de nos algorithmes.

Profil

  • Vous avez une expérience en qualité de Data Engineer d'au moins deux ans, 
  • Vous avez un excellent niveau en Python et SQL (MySQL et PostGres si possible) avec des projets significatifs réalisés, 
  • Vous connaissez Airflow ou un autre WMS similaire, 
  • Vous avez une forte connaissance des principes DevOps et une expérience en environnement industrialisé (GitLab ou flow de CI/CD impliquant des outils type Jenkins, Ansible...), 
  • Une connaissance des principes du Machine Learning / Deep Learning serait fortement appréciée afin de faciliter la mise en place des workflow data / APIs, 
  • Une expérience AWS est un plus (S3, Redshift...).