CDI

Expert Big Data / Cloud H/F (Toulouse)

  • ##Data intelligence
  • ##toulouse
  • #BIGDATA

 

Expert de la manipulation de données, vous souhaitez rejoindre une équipe de Data Engineer exigeants, créatifs et #InnovationCentric ?

Ne cherchez plus, ce poste est fait pour vous !

Le job :

Vous intégrez notre communauté Big Data/Cloud en tant qu’Expert.

En collaboration avec le « Leader de communauté », vous serez  le garant de l’expertise Big Data/Cloud et participez au développement technique et commercial du catalogue de services proposé par Keyrus.

En tant qu’expert Big Data/Cloud, votre activité s’articule autour de 3 missions principales :

  • Delivery / Business :
    • Dans la limite de 80% du temps, intervenir en tant qu’expert sur les différentes missions de la BU en termes de Conseil et Expertise Big Data/Cloud : Aide au choix d’outils, PoC/MVP, audit technique, coaching/formation,…
    • Participation aux activités d’avant-vente de l’offre: rendez-vous, contribution à la rédaction des réponses aux appels d’offres (notamment sur les aspects préconisations et chiffrage)…
  • Veille technologique / Innovation :
    • Assurer la capitalisation des travaux et des connaissances de la BU via la mise en œuvre de composants technologiques (« assets », solutions,…) et la rédaction documentaire (notes techniques, billets de blog,…) ;
    • Assurer une veille technologique et méthodologique permanente pour garantir le développement des compétences de l’équipe Big Data/Cloud et alimenter la vision prospective de l’offre ;
  • Coaching / Communication :
    • Participer au recrutement de nouveaux talents : animation d’entretiens techniques, mise en place de tests techniques,…
    • Former et accompagner à la montée des compétences des collaborateurs Big Data/Cloud ;

 

Vous :

Vous êtes diplômé d’un cursus en informatique (école d'ingénieur ou master – avec idéalement une filière orientée Big Data ou Cloud Computing) avec plusieurs expériences significatives dans la mise en œuvre de technologies Big Data/Cloud.

Compétences requises/attendues :

•Expertise de l’écosystème Hadoop (HDFS, Pig, Hive, Sqoop, Flume,…) et de Spark ;

•Expertise d’un écosystème Cloud (AWS, Azure, Big Query…) ;

•Maîtrise des concepts et de solutions NoSQL (Hbase, MongoDB,…) ;

•Maîtrise des concepts et techniques de calcul distribué et capacité à implémenter des algorithmes distribués avec différents langages de programmation (Java, Scala, et Python) ;

•Maîtrise de la programmation orientée objet et d’un langage associé (Java, C++,…) et de scripting (Python, shell,…) ;

•Connaissance des bonnes pratiques DevOps (développement/intégration continue) ;

•Capacité à évoluer dans un environnement anglophone.

Qualités requises :

•Vous avez la capacité à expliquer/vulgariser et vous avez les qualités et compétences pour rassurer et convaincre vos interlocuteurs sur la pertinence de vos préconisations ;

•Le collectif est pour vous toujours plus fort que l’individualisme et vous pensez donc que le développement des compétences passera par l’émulation et le partage des connaissances au sein de l’équipe ;

•Vous ne vivez pas sur vos acquis, vous avez besoin d’apprendre en permanence et vous pensez qu’un sujet que vous ne connaissez pas est avant tout un sujet que vous ne connaissez pas encore ;

Apply Print