Tarea 3 tema 2. Fraude científico. Cuando el peer review falla: una retracción en planificación UAV/UGV y su impacto en operaciones SAIL III–IV
Cuando el peer review falla: una retracción en planificación UAV/UGV y su impacto en operaciones SAIL III–IV
El título de mis tesis es "planificación y navegación radio para operaciones con drones en entornos de riesgo medio–alto (SAIL III–IV)". En este tipo de operaciones, la ingeniería no vive solo de “que funcione en el laboratorio”: depende de construir un argumento de seguridad basado en evidencia. En SORA, el SAIL (Specific Assurance and Integrity Level) se define combinando riesgo residual aire y tierra, y un SAIL alto implica mayor necesidad de aseguramiento y confianza en las mitigaciones.
Por eso me parece especialmente ilustrativo un caso cercano a mi disciplina: la retracción del artículo “Biobjective UAV/UGV Collaborative Rendezvous Planning in Persistent Intelligent Task-Based Wireless Communication” en Wireless Communications and Mobile Computing. La nota de retracción indica que el editor (Hindawi/Wiley) realizó una investigación y encontró “evidence of systematic manipulation of the publication and peer-review process”, por lo que no puede garantizar la fiabilidad o integridad del artículo. Además, remarca que el objetivo del aviso es alertar de que el proceso de revisión por pares fue comprometido.
Este punto es clave: cuando hablamos de “fraude científico”, muchas veces pensamos en fabricación o falsificación de datos. Pero existe otra categoría, menos “cinematográfica” y más sistémica: la manipulación del proceso editorial y de peer review. COPE lo trata explícitamente como “systematic manipulation of the publication process” y propone cómo identificarlo y gestionarlo desde la edición. En estos casos, la retracción no siempre afirma que los autores falsificaran datos; lo que establece es que el proceso que debía filtrar calidad y detectar problemas dejó de ser confiable, y por tanto el registro científico no puede sostener el artículo.
¿Por qué debería importarnos tanto esto en UAS de riesgo medio–alto? Porque en dominios safety-critical un paper puede terminar influyendo indirectamente en decisiones de diseño y operación: cómo dimensiono márgenes de enlace, qué supuestos hago sobre disponibilidad C2, qué degradaciones acepto, qué rendimiento le exijo a un planificador bajo restricciones de comunicaciones o navegación. Si esa evidencia estaba “barata” (revisión comprometida), el riesgo no es solo académico: es un riesgo epistémico que se traduce en riesgo operacional.
Este caso no es aislado. En 2023 se superaron las 10.000 retracciones anuales, impulsadas en parte por artículos fraudulentos y fraude de peer review. Y en el entorno de Hindawi/Wiley se han documentado procesos para retractar artículos a escala y el fenómeno de redes de manipulación de peer review (“peer review rings”).
La lección práctica que me llevo (y que aplico a mi tesis) es doble. Primero, en planificación y navegación radio no basta con leer “el método”: hay que exigir trazabilidad (configuración de simulación, parámetros RF, seeds, baselines, métricas robustas tipo percentiles y tasas de fallo). Segundo, para que la evidencia sea útil en SAIL III–IV, necesitamos protocolos de evaluación más cercanos a una mentalidad de preregistro: definir escenarios, métricas y criterios de éxito/fracaso antes de “mirar los resultados”, y publicar también los negativos cuando aparezcan. Así reducimos incentivos a “optimizar narrativa” y aumentamos la capacidad de reproducción y auditoría.
En resumen, la retracción no es solo una sanción; es un mecanismo de corrección del registro científico. Pero, para quienes trabajamos en UAS de riesgo medio–alto, también es un recordatorio: la seguridad operacional se construye con evidencia, y la evidencia solo vale lo que valen sus procesos de generación, revisión y verificación.
Claro que hay muchas malas prácticas más aparte de la "tríada maldita FFP" (fabrication, falsification and plagiarism). Y por parte de distintos agentes en distintas fases del proceso. La revisión por pares es un entorno enormemente problemático. El ejemplo que has encontrado está muy bien por que permite sacar muchas conclusiones, sobre tipologías de fraude y sobre su relevancia, llegando a lo operacional, como dices. Muy buen trabajo.
ResponderEliminar