Dependendo da área temática do periódico, leitores e autores podem esperar encontrar determinadas métricas de publicação disponíveis diretamente nos sites dos periódicos. As limitações e o significado exato das métricas muitas vezes não são totalmente compreendidos pelos autores e leitores, o que indica que os periódicos devem considerar cuidadosamente o que exibem. Nesta seção, oferecemos uma visão geral das métricas ao nível de artigo e periódico.
Métricas ao nível de artigo
Métricas ao nível de artigo são métricas de citação que tentam quantificar como um artigo está sendo discutido, compartilhado, referenciado e usado. As métricas que são frequentemente incluídas nos sites dos periódicos ou disponíveis aos editores incluem:
- Contagem de citações: contar o número de citações que um artigo individual recebeu é uma métrica tradicional e fácil de entender que alguns editores podem optar por exibir. Por exemplo, os membros do Crossref podem obter e exibir essas informações usando a API Cited By. Scopus, Dimensions (embora as métricas ao nível de artigo possam ser visualizadas na versão freemium) e Web of Science também podem fornecer essas informações, mas são soluções pagas. Embora esta informação também esteja disponível através do Google Scholar, não há uma API aberta disponível para facilitar a integração nos sites dos periódicos.
- Visualizações de páginas e downloads: O número de vezes que um site foi visitado e o número de vezes que um PDF ou a versão XML do artigo foi baixado fornecem algumas informações sobre a visibilidade acadêmica do artigo. O número de acessos e downloads será bastante afetado pela forma como o periódico está indexado.
- Altmetrics: Altmetrics adiciona uma medida de “visibilidade social”, incluindo compartilhamentos e curtidas em várias plataformas de mídia social, menções em blogs e outras plataformas, e artigos de notícias e comunicados de imprensa (press release) sobre um artigo publicado. Exemplos incluem Altmetric, Plum Analytics e Crossref’s Event Data.
Métricas ao nível do periódico
As métricas ao nível do periódico concentram-se em todo o periódico, e não em artigos publicados específicos. As opções mais comuns para métricas em nível de periódico estão descritas na tabela abaixo, na linha intitulada ‘Métricas disponíveis’. Notavelmente, existem vários provedores de dados que permitem o cálculo delas em nível de periódico, levando a prováveis diferenças nos resultados.
Web of Science | Scopus | Google Metrics | Lens.org | Dimensions | |
---|---|---|---|---|---|
Curadoria de títulos | Alto | Alto | Nenhuma | Média | Média |
Fonte de dados | Autocuradoria | Autocuradoria | Autocuradoria | Crossref, PMC, Core, OpenAlex | Autocuradoria, Crossref, PMC, OpenCitations |
Métricas disponíveis | Em relatórios de citações de periódicos: JIF, JIF de 5 anos, classificação quartil, Eigenfactor, JCI Outros: índice h, citações/período |
Em SCImago Journal & Country Rank: SNIP, SJR, h5-index, quartile ranking Outros: CiteScore, citações/período | índice h5 | Citações/período | Citações/período |
Acesso à interface | Acesso pago | Acesso pago | Aberto | Aberto | Em sua maioria com acesso pago |
Acesso à métrica | Acesso pago | Aberto | Aberto | Aberto | Aberto |
Estratégia de negócio | Commercial | Commercial | Commercial | Empresa social sem fins lucrativos | Commercial |
Custos de acesso | Alto | Alto | Gratuito | Gratuito | Alto |
Outras maneiras de comparar periódicos acadêmicos
Embora não seja necessariamente uma métrica, uma comparação entre periódicos em relação à sua abertura e transparência pode ser feita usando as Diretrizes de Transparência e Promoção de Abertura (TOP). Além disso, as políticas, os procedimentos e as práticas do periódico podem ser resumidos de forma semelhante à métrica do fator TOP.
Outras informações ao nível de periódico que são de interesse para leitores e autores e que são frequentemente comparadas incluem:
- Tempo de publicação e tempo das várias etapas editoriais (por exemplo, tempo para decisão, revisão por pares, aceitação)
- Número de submissões e publicações
- Taxa de rejeição pré-revisão, taxa geral de rejeição
- Número médio de avaliações
- Informações de preço
Nestas áreas, contudo, não existem métricas padronizadas e as comparações tendem a ser ad hoc e manuais.
Limitações das métricas de publicação
O uso de métricas de publicação tem gerado cada vez mais críticas e debates sobre a relação entre elas e a qualidade do conteúdo publicado.
A Declaração de São Francisco sobre Avaliação de Pesquisa (DORA) faz cinco recomendações aos editores, inclusive que eles deveriam “reduzir bastante a ênfase no fator de impacto do periódico como ferramenta promocional, de preferência deixando de promover o fator de impacto ou apresentando a métrica no contexto de uma variedade de métricas do periódico” e “disponibilizar uma série de métricas em nível de artigo para encorajar uma mudança em direção à avaliação baseada no conteúdo científico de um artigo, em vez de métricas de publicação do periódico em que foi publicado”. O Manifesto de Leiden para métricas de pesquisa encoraja o desenvolvimento de uma coleta de dados “aberta, transparente e simples”. Mais recentemente, a Coalition for Advancing Research Assessment (CoARA) publicou o Agreement on Reforming Research Assessment (Acordo sobre a Reforma da Avaliação da Pesquisa), que recomenda que as métricas baseadas em periódicos e publicações não sejam mais utilizadas na avaliação da pesquisa.
- CrossRef. (n.d.). Cited-by.
- Altmetrics. (n.d.). Altmetric.
- Plum Analytics. (n.d.). Plum Analytics.
- CrossRef. (n.d.). Event data.
- OSF. (2023, March 02). Transparency and Openness Promotion (TOP): Guidelines.
- Mayo-Wilson, E., Grant, S., Supplee, L., Kianersi, S., Amin, A., DeHaven, A., & Mellor, D. (2021). Evaluating implementation of the Transparency and Openness Promotion (TOP) guidelines: the TRUST process for rating journal policies, procedures, and practices. Research Integrity and Peer Review, 6(1).
- San Francisco Declaration on Research Assessment. (n.d.). The declaration.
- Leiden Manifesto. (2015, April 23). Leiden Manifesto for research metrics.
- Coalition for Advancing Research Assessment (CoARA). (2022). Agreement on Reforming Research Assessment.
- Brembs, B. (2018). Prestigious Science Journals Struggle to Reach Even Average Reliability. Frontiers in Human Neuroscience, 12:37.
- Herb, U. (2016). Impactmessung, Transparenz & Open Science. Young information scientist, 1, 59–72.
- Larivière, V., Sugimoto, C.R. (2019). The Journal Impact Factor: A Brief History, Critique, and Discussion of Adverse Effects. In: Glänzel, W., Moed, H.F., Schmoch, U., Thelwall, M. (eds). Springer Handbook of Science and Technology Indicators. Springer Handbooks. Springer, Cham. (Green OA version
- McKiernan, E. C., Schimanski, L. A., Muñoz Nieves, C., Matthias, L., Niles, M. T., & Alperin, J. P. (2019). Use of the Journal Impact Factor in academic review, promotion, and tenure evaluations. Elife, 8, e47338.
- Mech, E., Ahmed, M. M., Tamale, E., Holek, M., Li, G., & Thabane, L. (2020). Evaluating Journal Impact Factor: a systematic survey of the pros and cons, and overview of alternative measures. Journal of Venomous Animals and Toxins Including Tropical Diseases, 26 , e20190082.
- Paulus, F. M., Cruz, N., & Krach, S. (2018). The Impact Factor Fallacy. Front. Psychol. 9:1487.
- SPARC open. (n.d.). Article level metrics.
- Triggle, C. R., MacDonald, R., Triggle, D. J., & Grierson, D. (2022). Requiem for impact factors and high publication charges. Accountability in Research, 29:3, 133-164.