Funciones :
Participación en proyectos innovadores dentro de la línea de Big Data & Analytics.
Desarrollo de scripts de limpieza y procesamiento de datos.
Configuración y depuración de servicios Big Data.
Utilización de tecnologías de visualización Big Data para el análisis de datos.
Diseño de arquitecturas distribuidas, escalables y tolerante a fallos.
Optimización de consultas en entornos distribuidos.
Nivel de Conocimientos y Experiencia :
Big Data Analytics :
Experiencia mínima de 2 años en el diseño e implementación de arquitecturas Big Data Analytics.
Experiencia generación de ETLs : herramientas de limpieza y tratamiento de datos.
Experiencia tratamiento de datos en entornos distribuidos.
Deseable conocimientos y experiencia en : Spark, SparkSQL y Spark MLlib.SCALA y en entornos como Jupyter NotebookServicios como HDFS, Hive, HBase, Flume, ImpalaBases de datos como MySQL, SQLServer, Cassandra, MongoDB, Neo4J, Elasticsearch, RedisSistemas de mensajería : Kafka, RabbitMQ
Experiencia en entornos Linux virtualizados.
Conocimientos en el uso de servicios Big Data Analytics de terceros : Azure, AWS
Habilidades :
Desde el punto de vista técnico, se valorará especialmente la facilidad de adaptación y uso de nuevas técnicas y servicios Big Data que puntualmente puedan requerirse.
Se valorará la capacidad de comunicación y de adaptación a nuevos retos.
Por otro lado, es importante tener iniciativa, flexibilidad, proactividad, responsabilidad y compromiso, así como capacidad para trabajar en equipo.