Selon le domaine d’activité d’une revue, les lecteurs et les auteurs peuvent s’attendre à trouver certains indicateurs de publication publiés directement sur les sites web des revues. Les auteurs et les lecteurs ne comprennent pas toujours très bien les limites et la signification exacte de ces indicateurs, c’est pourquoi les revues doivent examiner attentivement ce qu’elles affichent. Dans cette section, nous vous présentons une vue d’ensemble des mesures au niveau de l’article et de la revue.
Mesures au niveau de l’article
Les mesures au niveau de l’article sont des mesures de citation qui tentent de quantifier la façon dont un article est discuté, partagé, référencé et utilisé. Les mesures qui figurent souvent sur les sites web des revues ou qui sont à la disposition des éditeurs sont les suivantes:
- Nombre de citations: Le décompte du nombre de citations reçues par un article individuel est une mesure traditionnelle et facile à comprendre que certains éditeurs peuvent choisir d’afficher. Par exemple, les membres de Crossref peuvent obtenir et afficher ces informations en utilisant l’API Cited By. Scopus, Dimensions (bien que les mesures au niveau de l’article puissent être visualisées dans la version freemium) et Web of Science peuvent également fournir ces informations, mais il s’agit de solutions payantes. Bien que ces informations soient également disponibles via Google Scholar, il n’existe pas d’API ouverte permettant de les intégrer facilement dans les sites web des revues.
- Pages consultées et téléchargements: Le nombre de fois qu’un site web a été visité et le nombre de fois qu’une version PDF ou XML de l’article a été téléchargée donnent une idée de la visibilité scientifique de l’article. Le nombre d’accès et de téléchargements sera fortement influencé par la qualité de l’indexation de la revue.
- Altmetrics: Altmetrics ajoute une mesure de la visibilité sociale, incluant les partages et les appréciations sur diverses plateformes de réseaux sociaux, les mentions dans les blogs et autres plateformes, ainsi que les articles de presse et les communiqués de presse concernant un article publié. Les exemples incluent Altmetric, Plum Analytics, et Crossref’s Event Data.
Mesures au niveau de la revue
Les mesures au niveau de la revue portent sur l’ensemble de la revue plutôt que sur des articles spécifiques publiés. Les options les plus courantes pour les mesures au niveau de la revue sont présentées dans le tableau ci-dessous, dans la ligne intitulée Mesures disponibles. Il est à noter que plusieurs fournisseurs de données permettent de calculer les mêmes mesures au niveau de la revue, ce qui entraîne probablement des différences dans les résultats.
Web of Science | Scopus | Google Metrics | Lens.org | Dimensions | |
---|---|---|---|---|---|
Curation des titres | Élevée | Élevée | Aucune | Moyenne | Moyenne |
Source des données | Autoconstruction | Autoconstruction | Autoconstruction | Crossref, PMC, Core, OpenAlex | Autocurated, Crossref, PMC, OpenCitations |
Mesures disponibles | Dans Journal Citation Reports: JIF, JIF sur 5 ans, classement par quartile, facteur propre, JCI Autres: h-index, citations/période | Dans SCImago Journal & Country Rank: SNIP, SJR, h5-index, classement par quartile Autres: CiteScore, citations/période | h5-index | Citations/période | Citations/période |
Accès à l’interface | Payant | Payant | Ouvert | Ouvert | En grande partie payant |
Accès métrique | Payant | Ouvert | Ouvert | Ouvert | Ouvert |
Stratégie d’entreprise | Commercial | Commercial | Commercial | Entreprise sociale à but non lucratif | Commercial |
Coûts d’accès | Élevé | Élevé | Gratuit | Gratuit | Élevé |
Autres moyens de comparer les revues universitaires
Bien qu’il ne s’agisse pas nécessairement d’une mesure, il est possible de comparer l’ouverture et la transparence des revues à l’aide des lignes directrices , de la promotion de la transparence et de l’ouverture (TOP). De plus, les politiques, procédures et pratiques des revues peuvent être résumées sous une forme métrique du facteur TOP.
Voici d’autres informations au niveau des revues qui présentent un intérêt pour les lecteurs et les auteurs et qui sont souvent comparées:
- Date de publication et durée des différentes étapes éditoriales (p. ex. délai de décision, d’examen par les pairs, d’acceptation).
- Nombre de soumissions et de publications.
- Taux de rejet du bureau, taux global de rejet.
- Nombre médian d’avis.
- Informations sur les prix.
Dans ces domaines, cependant, il n’existe pas de mesures normalisées et les comparaisons ont tendance à être ponctuelles et manuelles.
Limites des mesures de publication
L’utilisation des indicateurs de publication est de plus en plus critiquée et les débats concernant la relation entre ces indicateurs et la qualité du contenu publié sont en cours. La Déclaration de San Francisco sur l’évaluation de la recherche (DORA) formule cinq recommandations à l’intention des éditeurs, dont celle de réduire considérablement l’importance accordée au facteur d’impact des revues en tant qu’outil promotionnel, idéalement en cessant de promouvoir le facteur d’impact ou en présentant la mesure dans le contexte d’une variété de mesures basées sur les revues, et de mettre à disposition une gamme de mesures au niveau de l’article afin d’encourager une évolution vers une évaluation basée sur le contenu scientifique d’un article, plutôt que sur les mesures de publication de la revue dans laquelle il a été publié. Le Manifeste de Leiden pour les mesures de la recherche encourage le développement d’une collecte de données ouverte, transparente et simple. Plus récemment, la Coalition pour l’avancement de l’évaluation de la recherche (CoARA) a publié l’Accord sur la réforme de l’évaluation de la recherche, dont la recommandation est de ne plus utiliser les mesures basées sur les revues et les publications dans l’évaluation de la recherche.
- CrossRef. (n.d.). Cited-by.
- Altmetrics. (n.d.). Altmetric.
- Plum Analytics. (n.d.). Plum Analytics.
- CrossRef. (n.d.). Event data.
- OSF. (2023, March 02). Transparency and Openness Promotion (TOP): Guidelines.
- Mayo-Wilson, E., Grant, S., Supplee, L., Kianersi, S., Amin, A., DeHaven, A., & Mellor, D. (2021). Evaluating implementation of the Transparency and Openness Promotion (TOP) guidelines: the TRUST process for rating journal policies, procedures, and practices. Research Integrity and Peer Review, 6(1).
- San Francisco Declaration on Research Assessment. (n.d.). The declaration.
- Leiden Manifesto. (2015, April 23). Leiden Manifesto for research metrics.
- Coalition for Advancing Research Assessment (CoARA). (2022). Agreement on Reforming Research Assessment.
- Brembs, B. (2018). Prestigious Science Journals Struggle to Reach Even Average Reliability. Frontiers in Human Neuroscience, 12:37.
- Herb, U. (2016). Impactmessung, Transparenz & Open Science. Young information scientist, 1, 59–72.
- Larivière, V., Sugimoto, C.R. (2019). The Journal Impact Factor: A Brief History, Critique, and Discussion of Adverse Effects. In: Glänzel, W., Moed, H.F., Schmoch, U., Thelwall, M. (eds). Springer Handbook of Science and Technology Indicators. Springer Handbooks. Springer, Cham. (Green OA version
- McKiernan, E. C., Schimanski, L. A., Muñoz Nieves, C., Matthias, L., Niles, M. T., & Alperin, J. P. (2019). Use of the Journal Impact Factor in academic review, promotion, and tenure evaluations. Elife, 8, e47338.
- Mech, E., Ahmed, M. M., Tamale, E., Holek, M., Li, G., & Thabane, L. (2020). Evaluating Journal Impact Factor: a systematic survey of the pros and cons, and overview of alternative measures. Journal of Venomous Animals and Toxins Including Tropical Diseases, 26 , e20190082.
- Paulus, F. M., Cruz, N., & Krach, S. (2018). The Impact Factor Fallacy. Front. Psychol. 9:1487.
- SPARC open. (n.d.). Article level metrics.
- Triggle, C. R., MacDonald, R., Triggle, D. J., & Grierson, D. (2022). Requiem for impact factors and high publication charges. Accountability in Research, 29:3, 133-164.