Dependiendo del área temática de una revista, los lectores y autores pueden esperar encontrar ciertas métricas de publicación publicadas directamente en los sitios web de las revistas. Los autores y lectores a menudo no comprenden completamente las limitaciones y el significado exacto de las métricas, lo que indica que las revistas deben considerar cuidadosamente lo que muestran. En esta sección, proporcionamos una descripción general de las métricas a nivel de artículos y revistas.
Métricas a nivel de artículo
Las métricas a nivel de artículo son métricas de citas que intentan cuantificar cómo se discute, comparte, hace referencia y utiliza un artículo. Entre las métricas que suelen incluirse en los sitios web de las revistas o están a disposición de los editores se encuentran las siguientes:
- Recuento de citas: contar el número de citas que ha recibido un artículo individual es una métrica tradicional y fácil de entender que algunos editores pueden optar por mostrar. Por ejemplo, los miembros de Crossref pueden obtener y mostrar esta información utilizando la API Cited By. Scopus, Dimensions (aunque las métricas a nivel de artículo se pueden ver en la versión freemium) y Web of Science también pueden proporcionar esta información, pero estas son soluciones bajo muros de pago. Aunque esta información también está disponible a través de Google Scholar, no hay ninguna API abierta disponible que permita una fácil integración en los sitios web de las revistas.
- Vistas y descargas de páginas: la cantidad de veces que se ha visitado un sitio web y la cantidad de veces que se ha descargado una versión PDF o XML del artículo brindan una idea de la visibilidad académica del artículo. El número de accesos y descargas dependerá en gran medida del alcance de la indización de la revista.
- Métricas alternativas: estas métricas añaden una medida de «visibilidad social», que incluye los shares y likes en varias plataformas de redes sociales, menciones en blogs y otras plataformas, y los artículos de noticias y notas de prensa sobre un artículo publicado. Los ejemplos incluyen Altmetric, Plum Analytics y datos de eventos de Crossref.
Métricas a nivel de revista
Las métricas a nivel de revista se centran en toda la revista y no en artículos específicos. Las opciones más comunes para las métricas a nivel de revista se describen en la siguiente tabla, en la fila titulada «Métricas disponibles». En particular, existen varios proveedores de datos que permiten el cálculo de las mismas métricas a nivel de revista, lo que probablemente genere diferencias en los resultados.
Web of Science | Scopus | Google Metrics | Lens.org | Dimensions | |
---|---|---|---|---|---|
Curación de títulos de revistas | Alto | Alto | Ninguno | Medio | Medio |
Fuente de datos | Autocurado | Autocurado | Autocurado | Crossref, PMC, Núcleo, OpenAlex | Self-curated, Crossref, PMC, OpenCitations |
Métricas disponibles | En informes de citas de revistas: JIF, JIF de 5 años, clasificación cuartil, Eigenfactor, JCI Otros: índice h, citas por período |
En SCImago Journal & Country Rank: SNIP, SJR, índice h5, clasificación de cuartiles Otros: CiteScore, citas por período |
índice h5 | Citas por período | Citas por período |
Acceso a la interfaz | Muro de pago | Muro de pago | Abierto | Abierto | Mayormente de pago |
Acceso a las métricas | Muro de pago | Abierto | Abierto | Abierto | Abierto |
Estrategia de negocios | Comercial | Comercial | Comercial | Empresa social sin fines de lucro | Comercial |
Costos de acceso | Alto | Alto | Gratis | Gratis | Alto |
Otras formas de comparar revistas académicas
Aunque no necesariamente pretenden ser una métrica, se puede hacer una comparación entre revistas con respecto a su apertura y transparencia utilizando las Directrices de Promoción de Transparencia y Apertura (TOP por sus siglas en inglés).123 Además, las políticas, procedimientos y prácticas de la revista se pueden resumir en una forma similar a una métrica del factor TOP.
Otra información a nivel de revista que es de interés para lectores y autores y que a menudo se compara incluye lo siguiente:
- Tiempo de publicación y tiempo de varios pasos editoriales (p. ej., tiempo que transcurre hasta la decisión final, revisión por pares, aceptación)
- Número de envíos y publicaciones
- Tasa de rechazo editorial, tasa general de rechazo
- Número medio de reseñas
- Información de precios
Sin embargo, en estas áreas no existen métricas estandarizadas y las comparaciones tienden a ser ad hoc y se realizan de forma manual.
Limitaciones de las métricas de publicación
El uso de métricas de publicación ha recibido cada vez más críticas y se están llevando a cabo debates sobre la relación entre dichas métricas y la calidad del contenido publicado.
La Declaración de San Francisco sobre Evaluación de la Investigación (DORA) hace cinco recomendaciones para los editores, entre ellas que deberían “reducir en gran medida el énfasis en el factor de impacto de la revista como herramienta promocional, idealmente dejando de promover el factor de impacto o presentando la métrica en el contexto de una variedad de métricas basadas en revistas” y “poner a disposición una variedad de métricas a nivel de artículo para fomentar un cambio hacia una evaluación basada en el contenido científico de un artículo en lugar de métricas de publicación de la revista en la que se publicó”. El Manifiesto de Leiden sobre métricas de investigación fomenta el desarrollo de una recopilación de datos «abierta, transparente y sencilla». Más recientemente, la Coalición para el Avance de la Evaluación de la Investigación (CoARA) publicó el Acuerdo sobre la Reforma de la Evaluación de la Investigación, que recomienda que las métricas basadas en revistas y publicaciones dejen de utilizarse en la evaluación de la investigación.
- CrossRef. (n.d.). Cited-by.
- Altmetrics. (n.d.). Altmetric.
- Plum Analytics. (n.d.). Plum Analytics.
- CrossRef. (n.d.). Event data.
- OSF. (2023, March 02). Transparency and Openness Promotion (TOP): Guidelines.
- Mayo-Wilson, E., Grant, S., Supplee, L., Kianersi, S., Amin, A., DeHaven, A., & Mellor, D. (2021). Evaluating implementation of the Transparency and Openness Promotion (TOP) guidelines: the TRUST process for rating journal policies, procedures, and practices. Research Integrity and Peer Review, 6(1).
- San Francisco Declaration on Research Assessment. (n.d.). The declaration.
- Leiden Manifesto. (2015, April 23). Leiden Manifesto for research metrics.
- Coalition for Advancing Research Assessment (CoARA). (2022). Agreement on Reforming Research Assessment.
- Brembs, B. (2018). Prestigious Science Journals Struggle to Reach Even Average Reliability. Frontiers in Human Neuroscience, 12:37.
- Herb, U. (2016). Impactmessung, Transparenz & Open Science. Young information scientist, 1, 59–72.
- Larivière, V., Sugimoto, C.R. (2019). The Journal Impact Factor: A Brief History, Critique, and Discussion of Adverse Effects. In: Glänzel, W., Moed, H.F., Schmoch, U., Thelwall, M. (eds). Springer Handbook of Science and Technology Indicators. Springer Handbooks. Springer, Cham. (Green OA version
- McKiernan, E. C., Schimanski, L. A., Muñoz Nieves, C., Matthias, L., Niles, M. T., & Alperin, J. P. (2019). Use of the Journal Impact Factor in academic review, promotion, and tenure evaluations. Elife, 8, e47338.
- Mech, E., Ahmed, M. M., Tamale, E., Holek, M., Li, G., & Thabane, L. (2020). Evaluating Journal Impact Factor: a systematic survey of the pros and cons, and overview of alternative measures. Journal of Venomous Animals and Toxins Including Tropical Diseases, 26 , e20190082.
- Paulus, F. M., Cruz, N., & Krach, S. (2018). The Impact Factor Fallacy. Front. Psychol. 9:1487.
- SPARC open. (n.d.). Article level metrics.
- Triggle, C. R., MacDonald, R., Triggle, D. J., & Grierson, D. (2022). Requiem for impact factors and high publication charges. Accountability in Research, 29:3, 133-164.