Data Engineer
Descrizione dell'offerta
Overview
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística. Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
Qué buscamos
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural. Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje. Necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados. Power BI es nuestra herramienta de reporting y seguirá siendo el foco; por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que haya aprendido una vez.
Responsabilidades
- Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción.
- Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos.
- Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes.
- Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado.
- Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT.
- Ser owner del modelo semántico de Kanguro: BI, estrella (star schema) que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado.
- Escribir y optimizar DAX complejo (CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence).
- Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting.
- Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules.
- Construir dashboards operativos para Operaciones, Dirección y stakeholders externos.
- Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable; implementar validaciones y tests de calidad en cada etapa del pipeline.
- Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta.
- Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada.
- Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural.
- Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro.
- Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados.
- Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers.
Qualifications
- 4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción.
- SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado.
- Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental.
- Python para procesamiento de datos y scripting de pipelines.
- Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares).
- Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables.
- Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing.
- Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible.
- Obsesiión por la calidad del dato: detectar errores antes de que alguien los reporte.
- Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos.
- Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos.
- Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos.
- Valorable: conocimiento del dominio logístico o de integración con APIs de terceros.
- Castellano fluido.
- Inglés B2 o superior.
Benefits
- Contrato indefinido a jornada completa.
- Salario bruto anual según experiencia.
- Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC).
- Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol.
- Equipo con muy buen ambiente, joven y multidisciplinar.
- Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim.
- Autonomía total sobre la infraestructura de datos; tendrás la oportunidad de diseñarla desde la base con herramientas de IA ya integradas.