Data Ops Engineer H/F - CDI (Corse)

Description de l'offre d'emploi

Jellysmack est une entreprise américaine, spécialisée dans la création de contenus vidéos originaux sur les réseaux sociaux.

Du football (Oh My Goal) au gaming (Gamology), en passant par la beauté (Beauty Studio), les énigmes (Riddle Me This), sans oublier les arts créatifs DIY (Genius Craft) ou encore le monde des animaux (Naturee), nous créons des communautés et connectons des personnes qui partagent les mêmes passions.


Avec plus de 3,5 milliards de vues par mois, Jellysmack a connu une ascension fulgurante, ne cesse de grandir et ambitionne de devenir le leader mondial dans son domaine.


La recette de ce succès repose sur la qualité de nos contenus, mais aussi sur la technologie opérant en arrière-plan. Jellysmack a développé une suite d'outils propriétaires, propulsés par l'IA, permettant à nos équipes de contenu de publier, s'inspirer, comprendre la tendance, analyser les résultats, mais bien plus encore, des outils qui analysent le contenu en ligne, les réactions des gens devant ce contenu, et déterminent ce que sera la tendance demain.


Partagez, grandissez et évoluez à nos côtés. Bienvenue chez Jellysmack !

Bonus : Vous hésitez entre une localisation en Corse ou en région parisienne ? Grâce à nos deux bureaux, c'est vous qui décidez de votre localisation !


Principales missions 


Le Data Ops Engineer H/F, intégré à l’équipe Infra & DevOps occupera un rôle central quant aux activités de l’équipe Data et sera notamment en charge : 

  • de la construction, de l’optimisation et du monitoring au quotidien de pipelines data complexes, 
  • de l’enrichissement du Data Model existant, 
  • de l’accompagnement de l’équipe Data dans une démarche d’amélioration continue (aide à l’application de best practices de développement, méthodologies de travail, documentation, refactoring de codes...), 
  • de la participation, en collaboration avec l’équipe Infra & Devops, à l’optimisation de nos processus Data et de nos outils (mise en place dans notre stack technique de Dask – ou autre framework - pour du calcul distribué par exemple).

Quelques exemples de projets : 

  • Création et monitoring au quotidien des DAGS de nos différents produits tech avec Airflow, 
  • Définition d’un nouveau data model avec l’équipe Analyst pour l’intégration d’un nouveau réseau social, 
  • Construction d’un système d’alerting pour monitorer les performances de nos algorithmes.

Profil

  • Vous avez une expérience en qualité de Data Engineer d'au moins deux ans, 
  • Vous avez un excellent niveau en Python et SQL (MySQL et PostGres si possible) avec des projets significatifs réalisés, 
  • Vous connaissez Airflow ou un autre WMS similaire, 
  • Vous avez une forte connaissance des principes DevOps et une expérience en environnement industrialisé (GitLab ou flow de CI/CD impliquant des outils type Jenkins, Ansible...), 
  • Une connaissance des principes du Machine Learning / Deep Learning serait fortement appréciée afin de faciliter la mise en place des workflow data / APIs, 
  • Une expérience AWS est un plus (S3, Redshift...).