Descripción meta: Dentro de este puesto, usted será responsable de una variedad de funciones que incluyen Apache Spark / Pyspark y componentes de la plataforma Hadoop, la comprensión de los datos, el diseño y el desarrollo de aplicaciones, y garantizar la exactitud y la coherencia de los datos.
Requisitos:
- 3+ años de experiencia en análisis y/o gestión de datos en un entorno empresarial dentro de finanzas, operaciones o analítica.
- Experiencia con Apache, Data Warehouse, Spark, entre otras herramientas de big data.
- Experiencia con herramientas como MS SQL Server, Oracle, Postgres, Hadoop, Hive, Presto, etc.