El tratamiento de los datos y la posible vía para que se compartan entre las Administraciones y los usuarios, con la necesaria seguridad, forman parte de su cometido. Una de las preguntas que se formulan, y para la que se busca respuesta, es qué criterios de calidad se deben barajar.
A juicio de la institución, debe garantizarse una disponibilidad mínima de datos (interoperables), ya que se trata de un factor crucial para el MDMS. Los datos deben ser localizables, accesibles, interoperables y reutilizables. En otras palabras, los datos no sólo deben estar disponibles, sino también ser de calidad suficiente. Los miembros del subgrupo coincidieron en la necesidad de definir mejor la calidad de los datos.
Los principales criterios de calidad sugeridos fueron: exhaustividad, granularidad; exactitud, fiabilidad; velocidad de transmisión (actualizaciones en tiempo real). Es importante conocer la fuente de los datos (¿es fidedigna?) y evitar múltiples fuentes de datos contradictorios. El principio de «igualdad de trato» se consideró muy importante, lo que significa que la misma información (coherente y actualizada) debe estar disponible en todos los canales de información y distribución. Para garantizar la confianza de los pasajeros, este flujo de información debe asegurarse a lo largo de toda la interacción con ellos, manteniéndoles informados de cualquier cambio o interrupción.
Dado que una mayor calidad de los datos conlleva un mayor coste, los umbrales de calidad de los datos deberían depender del caso de uso (¿para qué se utilizan los datos?) y que debemos mantener el coste razonable y proporcionado encontrando un equilibrio adecuado entre la calidad de los datos solicitada y el coste asociado.
Control de calidad / mecanismos de retroalimentación
Deben preverse herramientas de evaluación de la calidad y mecanismos de retroalimentación para garantizar que la calidad de los datos se controla y mejora con el tiempo. Se hicieron las siguientes sugerencias
– El proveedor de datos debe ser responsable de la calidad de sus datos;
– Herramientas de evaluación de la calidad de código abierto para uso de todos los productores y consumidores de datos, que traduzcan las normas existentes en fragmentos de código, como el validador canónico GBFS;
– Estas herramientas deberían integrarse en los PNA, para disponer de una evaluación directa de la calidad cada vez que se produzca y cargue un conjunto de datos;
– Orientar a los productores de datos sobre cómo aumentar la calidad de sus datos (por ejemplo, como hace el PNA francés), posiblemente conduciendo a una certificación de calidad como la que ofrece ITxPT;
– Una interfaz de intercambio normalizada entre MDMS y MSP permitiría un bucle de retroalimentación que señalara errores / rechazos de datos;
– Podría elaborarse una norma europea sobre la calidad de los datos y, una vez acordadas las normas, un «organismo de certificación» podría validar la calidad de los datos.

