France

KEYRUS CDI

Tech Lead Big Data H/F (Bordeaux)

  • ##dataIntelligence
  • #Bordeaux
  • ##BigData

Vous êtes (ou avez l’âme d’) un leader ?
Vous avez une expérience significative dans la mise en place de plateformes et d’Architectures Big Data ?

Vous avez un état d’esprit de gagnant et vous portiez à l’adolescence un tee-shirt portant l’inscription « The second place is the first looser » ?
Ça tombe bien, nous avons justement besoin de votre expérience pour accompagner nos clients dans la mise en place de leurs projets Big Data et Cloud !


L’équipe 

Au sein de l’une de nos Business Unit de Conseil, d’Expertise et de Delivery Data, vous intègrez une équipe de Data Specialists (Big Data, Data Science, Data Gouvernance, Data Viz…), capables d’accompagner nos clients dans la mise en œuvre d’une stratégie data globale.

Intéressé(e) ? Lisez la suite 

Le job :

Expertise technique et animation transversale

  • Mise en œuvre d’architectures Big Data, potentiellement déployées en cloud ;
  • Partenariat avec l’équipe R&D Keyrus et contribution à l’animation technique transversale au travers de réunions régulières ;
  • Capitalisation des connaissances (production de documents techniques projets et développement des compétences des consultants en charge du déploiement pour les clients (binômage et accompagnement ponctuel) ;
  • Participation au recrutement de nouveaux talents (validation technique de profils)

Veille et communication 

  • Assurer une veille technologique permanente pour garantir l’actualisation des compétences
  • Assurer une évangélisation en interne Keyrus sur les thématiques du big data au travers de l’animation de Meetup ou d’afterwork périodiques sur ces thèmes.
  • Former et accompagner à la montée des compétences des collaborateurs Big Data ;
  • Assurer le rôle de speaker tant en interne (réunion mensuelle, séminaire/workshop,…) qu’en externe (salon, forum d’écoles, Meetup,…);
  • Représenter Keyrus et son savoir-faire Big Data auprès des écoles/universités majeures du marché Big Data ;
  • Participer au développement et à l’animation de relations partenaires avec les éditeurs des marchés Big Data et Cloud : Cloudera, Datastax, Amazon (WS), Microsoft (Azure),…

Votre profil :

Vous êtes diplômé(e) d’un Bac +5 en informatique (école d'ingénieur ou master – avec idéalement une filière orientée Big Data ou Cloud Computing) avec a minima une 1ère expérience significative dans la mise en oeuvre de technologies Big Data.

Compétences requises/attendues :

  • Connaissance fondamentale des algorithmes de Machine Learning.
  • Maîtrise de l’écosystème Hadoop (HDFS, Pig, Hive, Sqoop,…), Spark, Kafka, ElasticSearch/SolR 
  • Maîtrise d'un des langages de programmation suivants : Java, Scala, ou Python (dans un contexte Big Data) 
  • Maîtrise de la programmation orientée objet et d’un langage associé (Java, C++, C#) 
  • Connaissance des concepts NoSQL et maîtrise d’au moins une solution parmi celles-ci : HBase, Cassandra, DynamoDB, DocumentDB, Big Table, MongoDB, Redis, Riak … 
  • Capacité à évoluer dans un environnement anglophone

Qualités requises :

  • Vous avez conscience que vous serez un des piliers de l’activité et que votre légitimité technique passe notamment par l’émulation et le partage des connaissances au sein de l’équipe,
  • Vous avez besoin d’apprendre en permanence,
  • Vous êtes un(e) véritable « Data Geek », et vous avez un état d’esprit de gagnant,
  • Vous avez la capacité à expliquer/vulgariser, et vous avez les qualités et compétences pour rassurer et convaincre vos interlocuteurs sur la pertinence de vos préconisations,
  • Vous ne vivez pas sur vos acquis, vous avez besoin d’apprendre en permanence et vous pensez qu’un sujet que vous ne connaissez pas est avant tout un sujet que vous ne connaissez pas encore,
  • Vous êtes bien sûr sympa et vous disposez d’un relationnel de situation. Le conflit et la polémique, très peu pour vous. Vous préférez fédérer, convaincre et rallier les sceptiques à vos idées.

Vos petits plus appréciables :

  • La maîtrise d’un écosystème Cloud (AWS, Azure, GCP, Openstack) ;
  • La connaissance des outils d’automatisation du provisionning propre aux clouds publics ;
  • Connaissance des bonnes pratiques Devops d’intégration continue
  • Avoir déjà évolué dans le monde du conseil en ingénierie Big Data
  • La connaissance de Dataiku et d’outils de data visualisation (ex : QlikSense)
  • Disposer d’une certification éditeur dans le domaine du Big Data (Cloudera, Hortonworks,…). 
Apply Print