Saltar al contenido
NeptunoDQ

Data Quality · Multi-Engine

Calidad de dato ágil para analistas funcionales.

Define reglas en lenguaje de negocio. El equipo de ingeniería las implementa en SQL o notebook. NeptunoDQ las ejecuta sobre Apache Spark y Databricks — sin lock-in, con trazabilidad completa.

Apache Spark · Databricks · Multi-engine ready

Para quién

Una herramienta, tres perfiles.

Analista funcional · Auditoría

Define qué validar en lenguaje de negocio. Lanza propuestas, revisa cambios y firma aprobaciones con trazabilidad completa.

Ingeniero de datos

Implementa la regla en SQL o notebook, configura variables y umbrales, integra con tu pipeline existente sobre Spark o Databricks.

Equipo de plataforma

Despliega un único motor de calidad sobre múltiples engines. Sin lock-in. Sin tener que mantener un framework casero.

Capacidades

Define una vez. Despliega con confianza.

Pensado para el funcional

Propuestas, revisiones y aprobaciones en lenguaje de negocio. El analista no necesita pelear con Spark para definir una regla.

Reglas declarativas

JSON o YAML. SQL_FILE, SQL_TEXT, TABLE, FILE o ADBNOTEBOOK. Sin código boilerplate.

DAG con dependencias

Si una regla depende de otra, el motor la espera. Si la padre falla, la hija se salta. Sin ejecuciones huérfanas.

Ejecución paralela

Spark Fair Scheduler reparte las ramas independientes del DAG entre pools. Suite completa en una fracción del tiempo.

Multi-engine real

Apache Spark open source y Databricks runtimes. Mismo flujo, mismo inventario, despliegue distinto.

Auditable end-to-end

Cada cambio queda registrado: propuestas, revisiones, hotfixes y ejecuciones. La trazabilidad no es un extra, es el diseño.

Engines

Multi-engine de verdad.

El mismo inventario de reglas. El mismo flujo de aprobación. Distintos motores de ejecución.

Apache Spark
Apache SparkDisponibleOSS 3.5, 4.0, 4.1
Databricks
DatabricksDisponibleRuntimes 15.4, 16.4, 17.3
Snowflake
SnowflakeEn roadmap
AWS
AWSCompatibleEMR, Glue, S3
Azure
AzureCompatibleADB, ADLS

Configuración

project_id: "neptuno-demo"
department: "analytics"

rules:
  - control_type: SQL_FILE
    rule_id: check_total_money
    file: "${PATH}/rules/validate_money.sql"
    table: "${USERS_TABLE}"
    umbral: "0.01"
    variables:
      table: "${NEPTUNO_SCHEMA}.${USERS_TABLE}"
      max_age: "75"
    sql_aggregations:
      total_money: "sum(money)"

YAML o JSON. Sin boilerplate.

Define cada control de calidad en un fichero declarativo. El motor se encarga del resto: dependencias, paralelismo, notificaciones y trazabilidad.

  • SQL_FILE / SQL_TEXT

    Lógica en ficheros .sql o inline. Variables y umbrales configurables por entorno.

  • TABLE / FILE

    Checks de nulos, duplicados y espacios en blanco sin escribir SQL.

  • ADBNOTEBOOK

    Ejecuta un notebook de Databricks como paso de calidad dentro del mismo DAG.

Producto

Define together. Deploy with trust.

Una plataforma de calidad de dato pensada para auditoría y para analistas funcionales — sin perder rigor técnico.