Profil recherché :
Diplôme d’une école d’ingénieurs ou d’un programme universitaire équivalent avec une spécialisation en informatique.
Expérience souhaitée de plus de trois ans en tant qu’ingénieur de données.
Compétences techniques :
● Expérience en architecture de systèmes distribués Big Data
● Scala/Java (expérience obligatoire dans l’un des deux langages)
● Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro …)
● Maîtrise de la CI/CD et des outils de déploiement et orchestration (Jenkins, GitLab, Kubernetes, Docker, Ansible …)
● Concepts fondamentaux de Kafka
● Bases de données NoSQL (Cassandra, BigTable…)
● Moteur de recherche (Elastic Search…)
Compétences appréciées :
● Kafka-Stream
● Google Cloud Platform (GCS, BigQuery, GKE, Cloud Pub/Sub, Dataproc, …)
● Software Craftsmanship.
● Veille technologique
● Participation à des meetings, des meetups, à la communauté Big Data
Compétences personnelles :
● Très bonne communication écrite et orale (livrables et reportings de qualité)
● Esprit d’analyse et d’amélioration continue
● Curiosité, autonomie et capacité à travailler plusieurs projets en parallèle
Questions élémentaires :
● JAVA vs SCALA ?
● Bonnes pratiques de gestion d’erreurs en scala ?
● Architecture de Spark ?
● Kafka, principes / fonctionnement ?
Vous pouvez également être intéressé par Tech Lead Data Azure