A estratégia (saloia) para aumentar o factor de impacto de uma revista científica

Foi ontem tornado pública a lista actualizada de revistas científicas indexadas na Web of Science, com o respetivo factor de impacto, onde se verifica que a revista The Lancet (por conta dos artigos sobre o Covid-19) mais do que duplicou o seu factor de impacto para 202. E que também foram os artigos sobre o Covid-19, que contribuiram para que 7 revistas da área da medicina vissem o seu factor de impacto ultrapassar o valor de 100.

Ficou-se igualmente saber que três revistas foram “expulsas” da lista indexada actualizada e ainda que seis revistas receberam uma “advertência”, por conta de terem utilizado uma “nova” forma de manipulação do factor de impacto, através de uma estratégia que a Clarivate define como “self stacking”: “this year the editorial integrity team at Clarivate identified a new type of anomalous citation behavior: self-stacking. This is where the journal contains one or more documents with citations that are highly concentrated to the JIF numerator of the title itself. This is the first year we have formally defined the criteria for self-stacking suppression, and as such we have made the decision to issue a warning to six journals rather than suppress the journal’s JIF. Going forward, continued journal self-stacking will result in suppression of JIF”

No entanto e ao contrário do que agora diz a Clarivate, não é uma novidade, pois já tinha sido identificada em 2016 pelo investigador Petr Heneberg e ele na altura até escreveu que a Thomson Reuters (a firma que depois foi comprada pela Clarivate) não tinha forma de detectar essa manipulação: “Thomson Reuters currently does not have any algorithm to detect citation stacking”

É pertinente recordar que o “factor de impacto” é uma marca registada da Clarivate Analytics, que tem sido repetidamente denunciada pelos muitos prejuízos que trouxe à ciência. E é por isso que há quem tenha escrito, como o reputado investigador Vladen Koltun, que se trata de uma métrica que nunca deve ser usada na avaliação de investigadores (ou de unidades de investigação).

Convém ter presente que, basta que uma revista tenha uma elevada taxa de rejeições, dando preferência a artigos de autores bastante citados, de universidades de topo, mesmo que esses artigos sejam medianos, para que esse facto só por si contribua para um aumento do factor de impacto. https://pacheco-torgal.blogspot.com/2021/03/desk-rejectionthe-editor-manuscript-game.html

Tenha-se também presente que é a própria Clarivate Analytics, proprietária da marca “factor de impacto” que adverte contra o seu uso na avaliação de investigadores: “In the case of academic evaluation for tenure, it is inappropriate to use the impact of the source journal to estimate the expected frequency of a recently published article”

PS – Profundamente irónico é o facto de na última avaliação das unidades de investigação, a proibição radical (em sede regulamentar) do uso de qualquer métrica (rejeitando inclusive aquela métrica que já conseguiu “adivinhar” o nome de várias dezenas de prémios Nobel), ter levado os avaliadores (que obviamente não iriam passar o tempo a ler os artigos das diferentes unidades) a socorrerem-se das únicas métricas que “tinham à mão“, precisamente as duas piores que existem, o número de artigos e o factor de impacto das revistas, e que por isso mesmo apareceram profusamente mencionadas nos relatórios de avaliação, mais de 500 (quinhentas) vezes.