Por supuesto, la primera opción es más lógica, ¿verdad? Pero extrañamente, nuestro mundo académico, que supuestamente era parte de la fiesta como una “torre de marfil” donde se agudizó la ciencia, en realidad prefería la segunda forma.
Hemos estado demasiado obsesionados con los proxies, también conocidos como atajos en forma de números y clasificación (indexación, editores), para evaluar un trabajo científico.
Ha sido durante décadas, varias métricas como Index H-Infactor, factor de impacto, Cuartilla Y el nivel del diario es una especie de Dios que determina el destino. Los académicos están aún más ocupados pensando en el “restaurante” de su escritura, en lugar de centrarse en completar la “receta” de su investigación.
Ahora, como reacción a esto, surgió un movimiento moral llamado Declaración de la Evaluación de Investigación de San Francisco (DORA). El mensaje es muy simple pero muy básico, a saber, la investigación de su propia superioridad, no de la revista donde está.
En esencia, pruebe primero la cocina, no solo mire la reputación del restaurante.
El mito del guardia de la puerta
Aparentemente, la noción de que el “restaurante de élite” es un garantía de calidad demostrado como un total incorrecto. Cuando Pandemi Covid-19 ayer, las dos revistas de salud más prestigiosas del mundo, a saber La lanceta Y El New England Journal of Medicinetener que retirar un artículo porque los datos no pueden contabilizarse.
El evento fue conocido como Caso de la cirugíaY una prueba clara de que prestigio no significa que la integridad esté garantizada. Incluso los restaurantes más lujosos pueden servir veneno.
El caso de la cirugía no fue un solo evento. Esto es parte de un gran problema que sucedió incluso al revista más honorable. Los datos de retracción demuestran que este es un problema sistémico estampado, no solo un “accidente o accidente”.
Tomar, por ejemplo, diario Naturaleza el de 2024 atrajo un artículo célula madre De 2002 por Lab Catherine Verfillie. Este artículo ha sido citado casi 4,500 veces, un registro para el artículo retirado, solo se ha revocado después de 22 años debido a la manipulación de imágenes y los autores no pueden mostrar los datos originales. Casos similares en varias revistas (consideradas) las élites continúan surgiendo en forma de datos falsos, plagio, violaciones éticas.
La figura es asombrosa. Grandes estudios que han analizado 2.047 artículos de investigación en los campos de las ciencias biomédicas y biológicas que son retractas mostraron el 67.4 por ciento de la retracción causada por violaciones deliberadas: fraude o presunto fraude (43.4 por ciento), múltiples publicaciones (14.2 por ciento), plagio (9.8 por ciento), a pesar de entrar en la indexación Pubmed (Fuente: https://www.pnas.org/doi/suppl/10.1073/pnas.122247109).
Errores honestos (error honesto) Solo 21.3 por ciento. Aún más preocupante, el nivel de retracción aumenta más rápido que el número de artículos publicados.
La noticia rompe el mito de que las prestigiosas revistas son las mismas que la investigación de calidad. Por el contrario, la obsesión con el diario “superior” crea condiciones fértiles para el fraude. La brutal competencia para penetrar en el Elite Journal, además del atractivo de una brillante carrera de “avance”, empujando a los investigadores al abismo de la vulnerabilidad a hacer trampa.
Por otro lado, no pocos editores y revisores pueden verse fascinados por el potencial del gran impacto de un manuscrito para olvidar el escepticismo saludable. Algunos de ellos no pudieron verificar las verificaciones básicas, como cuestionar el origen de los datos.
Por lo tanto, confiar en el prestigio del diario como garantía de calidad no solo es perezoso, sino también peligroso. Cada estudio, de cualquier revista, debe evaluarse a partir de la evidencia y el método en sí, no del nombre de la revista que contiene.
En el otro extremo, a menudo etiquetamos “Predator Journal” a los editores que se consideran falsos, lo que solo explota a los investigadores por dinero.
Sin embargo, pensemos de nuevo por un momento. ¿No son las revistas “honorables” que bloquean el conocimiento detrás de las paredes pagas (hasta que solo un puñado de personas que pueden acceder) también son depredadores para el sentido común público?
Una etiqueta tan en blanco y negro (Reputable versus no reputable; Predator vs. No Predator) en su lugar hace que se escape la presión sistémica “publicar o hundirse” (publicar o perecer) Forzando a muchos investigadores a buscar atajos, ya sea a una revista que se “considere” de baja reputación o demasiado alta.
El supervisor de integridad se está obteniendo
En medio de esta crisis de confianza, una nueva métrica parecía prometedor: Índice de riesgo de integridad de investigación (RI2). El objetivo es noble, se convierte en una especie de “supervisor de integridad” que mide el riesgo de integridad de una universidad. Durante el escándalo molino de papel (Documentos de fábrica) y fraude de datos desenfrenados, la presencia de herramientas como RI2 se siente como aire fresco.
RI2 Logic suena simple y razonable. La puntuación de “integridad de riesgos” de una institución se mide por dos cosas principales. Primero, el riesgo de retracción, con qué frecuencia se retiró el artículo de la Universidad debido a varios problemas, desde errores metodológicos hasta fraude de datos.
Segundo, el riesgo de la revista problemática. Cuánta publicación de la universidad se publica en las revistas que han sidolista negra o eliminada de una gran base de datos (Web of Science, Scopus) debido a las malas prácticas de publicación.
De estos dos indicadores, nació el puntaje que colocó a la universidad en la categoría de riesgo, de “baja” a “bandera roja”, incluidas 13 universidades en Indonesia. La intención es muy buena, lo que indica una institución cuyo perfil está distorsionado y puede tener un problema de integridad sistémica.
Pero precisamente aquí se encuentra la contradicción fundamental. Volvamos al principio de Dora: no investigemos el valor del taller (la revista). RI2, en sus esfuerzos por medir la integridad, en su lugar, descuidar, si no una violación, un deslizamiento de tierra contra este principio.
RI2 evalúa la “limpieza de la cocina” de una universidad que no verifica su cocina directamente (como observar el programa de capacitación de ética, la fortaleza del comité de supervisión o la cultura de la investigación) sino calculando el número de veces el “restaurante” donde el trabajo de los chefs ha estado sujeto a un sprisy del servicio de salud (retracción) o permisos revocados (removedos de la lista).
Este es un pensamiento equivocado muy peligroso. RI2 es una nueva manifestación de la misma “trampa proxy”, solo el objetivo se reemplaza por “calidad” (que ha estado tratando de ser representado a Factor de impacto etc.) convertirse en “integridad”. Este índice se convierte (outsourcing) Evaluación de la integridad a los eventos que ocurren en la revista, no en la institución misma.
Esto en realidad puede hacer los incentivos incorrectos. Ante un puntaje de RI2 malo, la respuesta más fácil para una institución no es hacer tareas pesadas en forma de investigación de investigación cultural, cultura ética, sino “burlar” el puntaje.
El método? Puede ser creando una lista negra (o lista blanca) de la revista internamente, o incluso presionando casos que deben retraerse para no revelarse para mantener números. Este comportamiento es precisamente lo contrario de los esfuerzos para fomentar la verdadera integridad.
Por supuesto, RI2 todavía usa, como una alarma de incendio en casa.
Cuando la alarma suena fuerte (número alto RI2), significa que existe una señal de peligro que debe verificarse de inmediato. Esta alarma obligó a la universidad o la institución de investigación a detenerse y preguntar: “¿Por qué muchos de nuestros investigadores cuya escritura es revocada o publicada en una revista que se considera problemática?” De esa manera, RI2 puede ser un recordatorio para mejorarse.
Pero recordemos también, RI2 tiene una debilidad fundamental. Si suena la alarma, no necesariamente hay un fuego real, tal vez solo un plato quemado. Si la alarma está en silencio, tampoco es necesariamente seguro: podría haber un pequeño fuego escondido y aún no detectado.
Por lo tanto, depender de la alarma solo sin examinar directamente la fuente del incendio será una negligencia.
De nuevo juzgando a los humanos
La enfermedad no es una métrica específica (ya sea H-índice H, JIF, FWCI o RI2) sino nuestra adicción a los números como un atajo de evaluación. La solución no es formular un número más inteligente, sino el coraje para dejar de adorar los números.
La solución es humana. Debemos volver a cómo evaluar que es procedimiento y requiere muchos recursos, pero mucho más justos y significativos.
Ovice un premio a los investigadores que hacen cosas buenas para hacer que su investigación sea más calidad, confiable y fácilmente entendida por otros.
Ejemplos de cosas buenas en cuestión son registrar un plan de investigación antes de comenzar (para que la declaración de diseño inicial de la investigación no se cambie fácilmente para ajustarse al resultado final). Además, compartir datos y cómo funciona abiertamente para que otros puedan participar en la verificación (Abrir datos, abrir métodos/protocolos, abrir código), Promoviendo prácticas de ciencias abiertas (Prácticas de ciencias abiertas).
Además, ponerlo a disposición del público de nuestra escritura inicial antes de publicar oficialmente (para obtener tantos aportes como sea posible de todas partes, por supuesto, siendo etiquetado como “prefabricado/Preimpresión“Ser tratado adecuadamente como un manuscrito que no ha pasado Revisión de pares).
Participe en la evaluación del trabajo de otros investigadores de una manera honesta y constructiva al mismo tiempo que también se abre (comenzando a cultivar revisión abiertadejar reseña ciega).
Todas estas actividades se pueden ver y probar directamente. Esto muestra que el investigador es honesto y realmente quiere avanzar en el conocimiento. En esencia, respetan a los investigadores transparentes y quieren compartir, no corruptos, ocultar cómo funciona.
Los investigadores deben poder “venderse” de una manera más apropiada. Por ejemplo, al hacer un CV o un perfil en línea, no solo escriba “,Fui publicado en la revista A, B, C” o “Mi puntaje“.
Es mejor explicar: “Mi investigación es importante porque está resolviendo el problema X, los resultados pueden usarse para Y y el impacto de Z.” Use un formato como Currículum para investigadores (Ror) sugerido por la Royal Society -Ponos por qué nuestro trabajo es útil, no solo donde publicamos.
El equipo que evalúa al investigador (para el desempeño laboral, la selección o la promoción) también debe cambiar. Realmente deben leer la mejor investigación del investigador, no limitarse a ver números (JIF, SJR, etc.).
Que también se considera no solo la escritura en la revista, sino que todas las contribuciones incluyen los datos distribuidos, programas de computadora o reactivos hechos, estudiantes guiados y beneficios concretos para la comunidad. En esencia, el valor de los investigadores de cuánto contribuye, no por cuán alto es el puntaje.
Es hora de que los residentes de la “torre de marfil” (si realmente hay) se dan cuenta de que juzgar la superioridad e integridad no puede representarse en el algoritmo. La tarea requiere sabiduría, discusión y evaluación humana.
Solo entonces podemos curar este número de enfermedad y volver a la naturaleza de la científica: buscar la verdad y avanzar en el bienestar general, no solo la recolección de puntajes.
*) Juneman Abraham, autor del libro “Fighting Corruption of Science”
Copyright © entre 2025
Está estrictamente prohibido tomar contenido, hacer rastreo o indexación automática para IA en este sitio web sin el permiso por escrito de la agencia de noticias de Antara.