France

CDI

Expert Big Data H/F (Paris)

  • #Data Intelligence

 

 

Expert de la manipulation de données, vous souhaitez rejoindre une équipe de Data Engineer exigeants, créatifs et #InnovationCentric ?

Ne cherchez plus, ce poste est fait pour vous !

Le job :

 

Vous intégrerez notre communauté Big Data en tant qu’Expert.

En collaboration avec le « Practice Leader », vous serez  le garant de l’expertise Big Data et participez au développement technique et commercial du catalogue de services proposé par Keyrus.

En tant qu’expert Big Data, votre activité s’articule autour de 3 missions principales :

  • Delivery / Business :
    • Dans la limite de 80% du temps, intervenir en tant qu’expert sur les différentes missions de la BU en termes de Conseil et Expertise Big Data : Aide au choix d’outils, PoC/MVP, audit technique, coaching/formation,…
    • Participation aux activités d’avant-vente de l’offre: rendez-vous, contribution à la rédaction des réponses aux appels d’offres (notamment sur les aspects préconisations et chiffrage)…
  • Veille technologique / Innovation :
    • Assurer la capitalisation des travaux et des connaissances de la BU via la mise en œuvre de composants technologiques (« assets », solutions,…) et la rédaction documentaire (notes techniques, billets de blog,…) ;
    • Assurer une veille technologique et méthodologique permanente pour garantir le développement des compétences de l’équipe Big Data et alimenter la vision prospective de l’offre ;
    • Participer et/ou accompagner le développement des offres et travaux transverses à la BU (Data Governance, Cybersécurité,…) et Cross-BU (DMP, Chat Bot,…)
  • Coaching / Communication :
    • Participer au recrutement de nouveaux talents : animation d’entretiens techniques, mise en place de tests techniques,…
    • Former et accompagner à la montée des compétences des collaborateurs Big Data ;

 

 

Vous :

Vous êtes diplômé(e) d’un cursus en informatique (école d'ingénieur ou master – avec idéalement une filière orientée Big Data ou Cloud Computing) avec à minima une 1ère expérience significative dans la mise en œuvre de technologies Big Data.

 

Compétences requises/attendues :

•Expertise de l’écosystème Hadoop (HDFS, Pig, Hive, Sqoop, Flume,…) et de Spark ;

•Maitrise des concepts et de solutions NoSQL (Hbase, MongoDB,…) ;

•Maitrise des concepts et techniques de calcul distribué et capacité à implémenter des algorithmes distribués avec différents langages de programmation (Java, Scala, et Python) ;

•Maitrise de la programmation orientée objet et d’un langage associé (Java, C++,…) et de scripting (Python, shell,…) ;

•Connaissance des bonnes pratiques DevOps (développement/intégration continue) ;

•Capacité à évoluer dans un environnement anglophone.

 

Qualités requises :

•Vous avez la capacité à expliquer/vulgariser et vous avez les qualités et compétences pour rassurer et convaincre vos interlocuteurs sur la pertinence de vos préconisations ;

•Le collectif est pour vous toujours plus fort que l’individualisme et vous pensez donc que le développement des compétences passera par l’émulation et le partage des connaissances au sein de l’équipe ;

•Vous ne vivez pas sur vos acquis, vous avez besoin d’apprendre en permanence et vous pensez qu’un sujet que vous ne connaissez pas est avant tout un sujet que vous ne connaissez pas encore ;

Apply Print