Zinātnes Vēstnesis

Kāpēc zinātniekiem nevajadzētu “mērīties” ar Hirša indeksiem // "Zinātnes Vēstnesis"

Foto: privātais arhīvs. Foto: privātais arhīvs.

Kvantitatīvi rādītāji kā H-indekss ir viegli mērāmi, bet to ēnas puse ir dažādie veidi, kā ar tiem manipulēt. Atsaucoties uz Godhārta (Goodhart) likumu: “Kad mērinstruments kļūst par mērķi, tas pārstāj būt labs mērinstruments”.

Laikraksts "Zinātnes Vēstnesis" 11 (649), 2024. gada 30. decembris (PDF).

Kāpēc zinātniekiem nevajadzētu “mērīties” ar Hirša indeksiem

Latvijas Jauno zinātnieku apvienības valdes locekles Lienes Spruženieces viedokļraksts

 

Laikraksta “Zinātnes Vēstnesis” septembra numurā akadēmiķa Roberta Eglīša publicētais Latvijas zinātnieku rangs pēc Hirša indeksa un apgalvojumi, ka Hirša indekss (H-indekss) objektīvi atspoguļo zinātnieku darba izcilību izraisīja plašas diskusijas, īpaši jauno zinātnieku vidū. Lai paturpinātu iesākto diskursu, šajā rakstā piedāvāju kritiskāku skatījumu uz Hirša indeksa lietojumu un tā sekām starptautiskajā akadēmiskajā vidē, kā arī ieskatu alternatīvos rādītājos, ko mūsdienās izmanto pētnieciskā darba novērtēšanai.

Kas ir Hirša indekss un kāpēc tas tika ieviests

Zinātnieku darba rezultātu mērīšana vienmēr ir bijis sarežģīts process. To vada nepieciešamība atrast objektīvus kvalitātes rādītājus, lai taisnīgi izvērtētu pētniekus, kuri piesakās uz akadēmiskajiem amatiem, paaugstinājumiem vai zinātniskajiem grantiem, kā arī lai salīdzinātu dažādu zinātnisko institūciju darbību. Mēģinājumi vienoties par to, kuri rādītāji ir visatbilstošākie šādu mērķu īstenošanai, vēl līdz šodienai nav noveduši pie vienota kopsaucēja.

H-indeksu zinātnieku darba vērtēšanai 2005. gadā ierosināja fiziķis Džordžs E. Hiršs (Hirsch, 2005), to definējot kā maksimālo autora publikāciju skaitu (h), kur katra no šīm publikācijām ir citēta h reizes. Piemēram, H-indekss 10 nozīmē, ka autora publikāciju klāstā ir 10 zinātniski raksti, kas katrs citēts vismaz 10 reizes. Hirša mērķis bija radīt vienkāršu salīdzināšanas rīku, kas vienlaicīgi ietver gan zinātnieka darba produktivitāti (publikāciju daudzumu), gan ietekmi uz jomas attīstību (citējamība). Pirms tam pētnieku izvērtēšanā tika ņemti vērā dažādi rādītāji, piemēram, kopējais publikāciju skaits, vidējais citējamības daudzums uz vienu rakstu, u. c. Pēc Hirša domām, H-indeksa priekšrocība bija tā, ka tas ļāva nodalīt pētniekus, kuri regulāri rada ietekmīgus darbus, no tiem, kuri publicējuši tikai dažus augsti citētus rakstus (ietekmīgi, bet neproduktīvi) vai daudzus maz citētus rakstus (produktīvi, bet neietekmīgi).

Vienkāršā aprēķina un pielietojuma dēļ H-indekss ātri ieguva popularitāti un to sāka plaši izmantot akadēmiskajā vidē. Tomēr jau kopš pašiem pirmsākumiem daļa no zinātniskās kopienas (tajā skaitā pats Hiršs) kritizēja vispārīgu h-indeksa lietošanu, norādot, ka tas ir daudzējādā ziņā limitēts rādītājs. Pēdējos gados H-indeksa loma zinātniskā darba vērtēšanā ir īpaši strauji kritusies, to aizvietojot ar daudzveidīgākiem un uz kvalitāti vērstiem rādītājiem.

Mīti par Hirša indeksu

Lai cik pievilcīga būtu ideja, ka zinātniekus var objektīvi salīdzināt izmantojot vienu vienīgu skaitli, tā ir kļūdaina jau pašos pamatos. Iepazīstinot laikraksta “Zinātnes Vēstnesis” lasītājus ar Latvijas zinātnieku rangu pēc H-indeksa, R. Eglītis vilka paralēles ar sportu, apgalvojot, ka tāpat kā sportistus šahā vai tenisā, arī zinātniekus var sarindot topā, lai noteiktu, kurš ir visizcilākais (Eglītis, 2024). Bet visā šajā rangošanas spēlē tika aizmirsts fakts, ka sporta sacensībās šahisti nekonkurē vienā grupā ar tenisa spēlētājiem, jo šāda konkurence būtu netaisnīga atšķirīgo spēles noteikumu un sportistu prasmju dēļ.

Tāpat arī zinātnē atšķirīgā publicēšanās specifika un prasības dažādās pētniecības nozarēs rezultējās Latvijas zinātnieku rangā, kurā nospiedošā vairākumā dominē eksakto jomu zinātnieki, īpaši plaši pārstāvot biomedicīnas, fizikas un ķīmijas nozares. Topā atrodamas tikai divas sociālo nozaru zinātnieces, ierindojoties 36. un 40. vietā un neviens no humanitāro jomu pārstāvjiem. Vai tas nozīmē to, ka pat mūsu spējīgākie sociālo un humanitāro jomu zinātnieki ir tik būtiski vājāki par topā iekļuvušajiem eksakto jomu pārstāvjiem?

Šo apgalvojumu atļaušos apstrīdēt, ņemot vērā faktu, ka tieši prof. Inta Mieriņa, vadošā pētniece LU filozofijas un socioloģijas institūtā, pēc 10 gadu pārtraukuma Latvijā atkal ienesa prestižo Eiropas Pētniecības padomes (EPP) konsolidācijas grantu 2 miljonu apmērā. Šis ir nozīmīgs panākums ne tikai Latvijas, bet arī starptautiskā līmenī, jo konkurence uz EPP grantiem ir sīva un to piešķiršanu izvērtē starptautiski jomas eksperti, kā galveno kritēriju izvirzot tieši zinātnisko izcilību. Pirms prof. Mieriņas vienīgais Latvijas zinātnieks, kuram izdevies iegūt EPP grantu, bija prof. Andris Ambainis, kura pētniecisko devumu kvantu tehnoloģijās, līderību jomas ietvaros un starptautisko sadarbību tīklu neapšaubāmi var uzskatīt par panākumiem, kas raksturo izcilu zinātnieku.

Tāpēc, ja man ļauts spekulēt, varbūt skaidrojums sociālo un humanitāro zinātnieku iztrūkumam Latvijas zinātnieku rangā drīzāk meklējams pašā H-indeksa nekritiskā pielietojumā nevis izcilību neesamībā. H-indeksa izmantošanas problemātika un tā nepilnības nav noslēpums akadēmiskajā kopienā. Tieši otrādi – labi zināms, ka tas dod priekšrocības dažu specifisku jomu pārstāvjiem, privileģē zinātniekus, kas ir karjeras beigu posmā, veicina pašcitēšanos, krāpniecību ar autorību un citas negodīgas prakses kā arī rosina dzīšanos pēc kvantitātes tā vietā, lai tiektos uz kvalitāti zinātniskajā darbībā. Mīti, kas apvij H-indeksu var novest pie sagrozītas izpratnes par to, ko tas patiesībā rāda un kā to vajadzētu pielietot. Turpinājumā piedāvāju detalizētāk ieskatīties dažos no populārākajiem mītiem un dziļāk papētīt iemeslus, kāpēc H-indekss nav uzskatāms par universālu zinātniskās izcilības mērītāju.

Mīts nr. 1: Hirša indeksu var izmantot, lai salīdzinātu dažādu zinātnes jomu pārstāvjus

To, ka šis apgalvojums nav patiess, jau savā sākotnējā publikācijā atzina pats Hiršs, demonstrējot, ka H-indeksi biomedicīnas jomā ir būtiski lielāki nekā fizikā (Hirsch, 2005). Atšķirības kļūst vēl dramatiskākas, ja sacensībā iesaistām arī sociālās un humanitārās zinātnes. Hirša indekss neņem vērā dažādu zinātnes jomu specifiku. Piemēram, vēsturnieks var veltīt trīs gadus, lai uzrakstītu monogrāfiju par savu pētniecības tēmu, kamēr fiziķis tajā pašā laikā var publicēt trīsdesmit rakstus, kuros viņš vai viņa ir trīsdesmitais autors piecdesmit autoru kolektīvā. Tiešā veidā salīdzinot šo abu zinātnieku H-indeksus, tie atšķirsies par vairākiem desmitiem vai pat simtiem vienību fiziķa labā. Bet šajā gadījumā vēsturnieks būs tas, kura līderība virza uz priekšu nozares attīstību, jo fiziķa, kā trīsdesmitā līdzautora ieguldījums, pētījumu idejās visticamāk būs niecīgs. H-indekss neņem vērā autoru skaitu vai autorības pozīciju publikācijā, tādējādi radot sagrozītu priekšstatu par autoru reālo devumu zinātniskajā darbā. Tāpat arī vidējais citējamību skaits būtiski atšķiras dažādās nozarēs. Piemēram, biomedicīnā, kur vidējais citējamības daudzums ir ievērojami lielāks nekā filozofijā, iegūt augstu H-indeksu ir nesalīdzināmi vienkāršāk. Šīs tendences labi parādās R. Eglīša publicētajā viedokļrakstā laikrakstā “Zinātnes Vēstnesis” (“Latvijas zinātnieku rangs pēc H-indeksa” (Eglītis, 2024)), kur redzams, ka visi seši pasaules zinātnieku (precizēts papildinot ar pasaules zinātnieku (30.01.2024.)) ranga augšgalā esošie zinātnieki pārstāv vai nu fizikas vai arī biozinātņu/medicīnas jomas un vairums to publikāciju tapušas desmitiem un simtiem līdzautoru lielās grupās, kur viņi nav autoru saraksta augšgalā. Man personīgi pārlieku lieli H-indeksi liek uzdot tik pat daudz jautājumus kā neadekvāti mazi H-indeksi. Piemēram, šī ranga pirmās vietas ieguvējs H.J. Kim 2020. gadā bijis līdzautors 122 publikācijām (pēc Google Scholar datiem). Šāda ražība nozīmē vidēji vienu publikāciju katras trīs dienas, pieņemot, ka autors strādā septiņas dienas nedēļā, bez brīvdienām. Cik reālistiska ir varbūtība, ka autors devis intelektuālu ieguldījumu katrā no šīm publikācijām, vai pat tās izlasījis? Un, ja nav, vai to var uzskatīt par autorību?

Zemāk attēlā redzamie dati rāda, ka H-indekss ir zaudējis efektivitāti mērīt zinātnisko izcilību. Tie nāk no pētījuma, kurā salīdzināti fiziķu H-indeksi ar nozarē prestižu apbalvojumu iegūšanu, tādu kā, Nobela prēmija, Tūringa Balva un biedra statuss nacionālajās zinātņu apvienībās (Koltun and Hafner, 2021). Ja pirms 2010. gada korelācija variēja starp 0.33 un 0.36, tad līdz 2019. gadam tā ir kritusies līdz 0.00. Toties vidējais autoru skaita daudzums uz vienu rakstu šajā laikā ir būtiski pieaudzis atspoguļojot pārmaiņas nozares publicēšanās praksēs reaģējot uz prasībām pēc augsta H-indeksa.

Attels01 Declining efectivness of h index lv txt

Kvantitatīvo mērītāju korelācija ar zinātniskajiem apbalvojumiem fizikā (pēc Scopus datiem). h – h-indekss, c – kopējā citējamība, µ - vidējā citējamība uz vienu rakstu, g – g-indekss, o – o-indekss, m – vidējais citējamības daudzums, ko saņem zinātnieka visvairāk citētās publikācijas, vid. aut. sk. – vidējais autoru skaits uz rakstu (Koltun and Hafner, 2021).

Mīts nr. 2: Hirša indekss ir objektīvs un universāls zinātniskās izcilības mērītājs, ja pētniekus salīdzina vienas jomas ietvaros

Šis mīts akceptē H-indeksa limitācijas lielā mērogā starp nozarēm, tomēr ignorē faktu, ka arī mikromērogā var pastāvēt būtiskas nozaru atšķirības publikāciju radīšanas ātrumā un citējamībā. Jautājums ir par to, cik šauri definējam pētniecības nozari. Piemēram, ģeozinātnēs, kas ir mana specializācija, ģeoloģisko procesu matemātiskie modelētāji var samērā īsā laikā publicēt lielu rakstu skaitu, jo nozarei raksturīgs lielāks datu ievākšanas ātrums un matemātiskie modeļi ir pieprasīti visās ģeoloģijas apakšnozarēs, ļaujot viegli veidot sadarbības un iegūt līdzautorību uz visdažādāko tēmu publikācijām. Savukārt eksperimentālā vai lauka ģeologa publicēšanās tempi ir daudz lēnāki, jo datu ievākšana var ietvert mēnešus eksperimentālā darba vai kartējot lauka teritoriju. Pie tam šajās nozarēs vairumu no paraugu analīzēm laboratorijā arī veic galvenais autors, rezultējoties lielā darba apjomā uz publikāciju, ko paveic mazs autoru kolektīvs. Tāpat maldīgs priekšstats par pētnieka produktivitāti varētu rasties salīdzinot astronomu un planētu zinātnieku H-indeksus, kur astronomi saistāmi ar fizikas nozari un mēdz darboties lielos konsorcijos, bet planētu zinātnieki nāk no ģeozinātņu jomas un atbilstoši nozares specifikai strādā nelielās grupās. Gan astronomi, gan planētu zinātnieki mēdz konkurēt uz vieniem un tiem pašiem pētniecības grantiem. Ja grantu vērtētāji šādos gadījumos izmantotu H-indeksu kā galveno kritēriju, tad planētu zinātnieki nekad nespētu iegūt finansējumu.

Nākamā problēma jomas ietvaros ir tā, ka H-indekss lielā mērā atkarīgs no zinātnieka akadēmiskā vecuma. Citējamība pieaug laika gaitā, tādējādi H-indekss ir kumulatīvs rādītājs, dodot priekšrocību zinātniekiem, kas ir karjeras beigu posmā un pensijā, toties slikti atspoguļo izcilību agrīnajos karjeras posmos. Vēl sliktāk klājas sievietēm, jo H-indeksu lielā mērā nosaka agrīnajos karjeras posmos radītās publikācijas, kurām ir bijis vairāk laika akumulēt citējamību. Karjeras pārtraukumi šajā periodā (piemēram, bērnu kopšanas atvaļinājums) atstāj būtisku ietekmi uz H-indeksu. Tādējādi realitātē viens no svarīgiem augsta H-indeksa priekšnoteikumiem ir gara un nepārtraukta zinātniskā karjera, ne tikai produktīva un kvalitatīva pētniecība.

Mīts nr. 3: Ar Hirša indeksu nav iespējams manipulēt

Lai arī R. Eglītis atzina, ka nelielas manipulācijas ar H-indeksu ir iespējamas, viņš noliedza, ka ar negodīgu prakšu palīdzību var izveidot lielus H-indeksus. Tomēr dati rāda pretējo. Pārlieka fokusēšanās uz kvantitatīvajiem rādītājiem pēdējo 20 gadu laikā jau ir daudzējādā ziņā izmainījusi zinātniskās publicēšanās prakses.

Termins “spriedze uz zinātnisko publicēšanos” jeb “strain on scientific publishing” apzīmē novērojumu, ka pēdējās desmitgadēs ikgadējais pasaulē saražotais publikāciju un citējamības daudzuma pieaugums sāk atgādināt eksponenciālu tendenci (Hanson et al., 2024). Piemēram 2022. gadā iznākušo zinātnisko publikāciju skaits bija par 47% lielāks nekā 2016. gadā. Turpretī aktīvo pētnieku skaita pieaugums, kuri rada un recenzē publikācijas, šajā periodā bija salīdzinoši neliels, novedot pie riskiem sistēmas pārslodzes dēļ caur recenzijas procesu izlaist arvien vairāk zemas kvalitātes publikāciju.

Par daļu no šī fenomena atbildīgas tieši negodīgas publicēšanās prakses, piemēram, plēsoņžurnālu uzplaukums, kur zinātniskais raksts nav nekas vairāk kā biznesa darījums. Šādos žurnālos iespējams publicēt gandrīz jebko, jo žurnālu peļņas modelis balstās uz publicēto rakstu daudzuma, neuztraucoties par to kvalitāti. Daudzu šādu žurnālu lielie publicēšanas ātrumi un vieglais recenziju process ar zemām prasībām nav noslēpums akadēmiskajās aprindās, un dažkārt tieši šī iemesla dēļ tie ir pievilcīgi pētniekiem, kuri izmisuma vai auksta aprēķina vadīti cenšas celt savu H-indeksu. Plēsoņžurnāli mūsdienās vairs nav neliela niša, tie veido nozīmīgu daļu no zinātniskās publicēšanās vides. Piemēram, lielāko atvērtās pieejas akadēmisko izdevniecību “MDPI”, visā tās pastāvēšanas gaitā, pavada apsūdzības plēsonīgu prakšu piekopšanā. Salīdzinot ar tradicionālajām lielajām izdevniecībām, “MDPI” žurnāliem raksturīgs ievērojami straujāks recenzijas ātrums, lielāks pašcitēšanās daudzums, lielāks akceptēto publikāciju procents un lielāks atsaukto publikāciju daudzums (Crosetto, 2021; Oviedo-García, 2021).

Neskatoties uz “MDPI” žurnālu slikto reputāciju, tajā aktīvi publicējas arī Latvijas zinātnieki, jo šie žurnāli ir indeksēti Scopus. Nesen publicētais pētījums žurnālā Scientometrics (Csomós and Farkas, 2023) rāda, ka Latvija ir viena no nedaudzajām pasaules valstīm, kur zinātnisko rakstu daudzums, kas 2021. gadā tika publicēts “MDPI” žurnālos, tuvojās 30% (skat. nākamajā attēlā), bet skatoties uz rakstiem, kur visi autori ir vietējās izcelsmes, tas pārsniedza 40%. Pētījuma autori šo “MDPI” žurnālu dominanci A-Eiropas valstīs skaidro ar agrīnā evolūcijas stadijā esošo zinātnes vērtēšanas sistēmu, kas vēl joprojām prioritizē kvantitatīvos rādītājus pāri zinātniskajai reputācijai, kā arī pieaugošo spiedienu uz zinātniekiem publicēt arvien vairāk un vairāk rakstu.

Attels02 MDPI market share lv txt

MDPI žurnālos publicēto rakstu proporcija (Csomós and Farkas, 2023)

Tāpat arī publicēšanās karteļi, kas rada viltus publikācijas un pārdod tās pētniekiem, kuri vēlas celt savu akadēmisko profilu, ir atpazīta kā liela mēroga problēma. Žurnālā “Nature” ziņu slejā publicētais raksts (Van Noorden, 2023) demonstrē, ka iepriekšējo 20 gadu laikā vairāk nekā 400 000 zinātnisko rakstu uzrāda būtiskas tekstuālas līdzības ar rakstiem par kuriem zināms, ka tie nākuši no publicēšanās karteļiem. Šādu rakstu daudzums ik gadu pieaug un atsevišķās pētniecības nozarēs, piemēram medicīnā, bioloģijā, ķīmijā un materiālzinātnēs šī problēma ir vairāk izplatīta nekā citās.

Arī individuālā līmenī zinātnieki ir izgudrojuši dažādas metodes H-indeksa celšanai, reaģējot uz spiedienu publicēties un iegūt citējamību. Piemēram, termins “salami griešana” apzīmē tendenci sadalīt pētnieciskos datus nelielos gabaliņos un katru no tiem publicēt kā atsevišķu rakstu, palielinot publikāciju skaitu tā vietā, lai datus publicētu vienkopus apjomīgākā darbā. Bet vairumam jauno pētnieku droši vien arī būs kāds stāsts par nerakstītajiem likumiem, ko jāievēro saskaroties ar varas pozīcijās esošiem kolēģiem, piemēram: “Tev būs pievienot darba vadītāju/finansējuma devēju/laboratorijas vadītāju līdzautoru sarakstā, neskatoties uz to, ka viņa vai viņas intelektuālais ieguldījums projektā līdzinās nullei” vai arī: “Tev būs citēt potenciālos recenzentus un žurnālu redaktorus, lai nodrošinātu vieglāku recenzijas procesu.”

Kvantitatīvi rādītāji kā H-indekss ir viegli mērāmi, bet to ēnas puse ir dažādie veidi, kā ar tiem manipulēt. Atsaucoties uz Godhārta (Goodhart) likumu: “Kad mērinstruments kļūst par mērķi, tas pārstāj būt labs mērinstruments”.

H-indeksa alternatīvas un kā mērīt zinātnieka izcilību

Lai risinātu problēmas, kas saistītas ar H-indeksa lietojumu pēdējos gados ir piedāvāti dažādi atvasināti rādītāji, piemēram, “R-indekss”, kas iešķir lielāku svaru pirmā un pēdējā autora ieguldījumam (Romanovsky, 2012), “K-indekss”, kas izslēdz pašcitācijas (Kaptay, 2020), “i10-indekss”, kas ietver visas publikācijas, kuras citētas vismaz 10 reizes un citi.

Šobrīd arvien populārāks kļūst “jomas-svērtās citēšanas ietekmes faktors” (field-weighted citation impactFWCI), kas ir aizvietojis H-indeksu vadošajās R-Eiropas universitātēs. FWCI ņem vērā vidējo citējamības skaitu konkrētajā nozarē, publikācijas tipu un publicēšanas gadu (SciVal, n.d.). Tomēr arī šis rādītājs nav bez problēmām, jo tas neietver starpdisciplinārās publikācijas un nozarēs ar mazu vidējo citējamību viens augsti citēts darbs atstāj disproporcionāli lielu ietekmi uz pētnieka FWCI salīdzinājumā ar augsti citētu darbu jomās, kur vidējais citējamības daudzums ir liels. Tāpēc šobrīd daudzas no vadošajām Eiropas universitātēm un ar pētniecību saistītajām institūcijām ir parakstījušas DORA deklarāciju (https://sfdora.org) vai CoARA vienošanos (https://coara.eu/agreement/the-agreement-full-text/), kas dod vadlīnijas atbildīgai pētniecisko darbu izvērtēšanai, uzsverot, ka:

- publikāciju zinātniskais saturs ir svarīgāks nekā to performances rādītāji vai žurnālu ietekmes faktors, kurās tās publicētas;

- izvērtēšanā jāskatās uz visa veida pētniecisko devumu (grāmatas, datu kopas, programmatūras izstrāde, u. tml.) un ietekmi (t.sk. rīcībpolitikas veidošanā, zinātnes komunicēšanā ar sabiedrību, u. tml.), ne tikai publikācijām un citējamību;

- kvantitatīvo rādītāju izmantošanu viemēr rūpīgi jāizvērtē un ieteicamā prakse ir skatīties uz lielāku kopumu rādītāju, tajā skaitā kvalitatīvo.

Turpina pieaugt arī uzsvars uz naratīvo CV, kur no pētniekiem tiek prasīts kontekstualizēt pētniecisko devumu un niansēti ar dažādiem datiem skaidrot savu ieguldījumu jomas attīstībā, demonstrējot ekspertīzi, līderību un starptautisko atpazīstamību. Arī manā pieredzē vairāk nekā 10 gadus strādājot Norvēģijas, Austrālijas, Vācijas un Apvienotās Karalistes zinātniskajā vidē reti esmu sastapusi atzītus jomas līderus, kuri lielās ar saviem H-indeksiem. Tā vietā, viņi ar aizrautību runā par pētnieciskajām idejām.

Atsauces
Crosetto, P., 2021. Is MDPI a predatory publisher?, Paolo Crosetto. https://paolocrosetto.wordpress.com/2021/04/12/is-mdpi-a-predatory-publisher/
Eglītis, R., 2024. Latvijas zinātnieku rangs pēc Hirša indeksa. Zinātnes Vēstnesis 8, 1–4.
Hanson, M.A., Barreiro, P.G., Crosetto, P., Brockington, D., 2024. The strain on scientific publishing. Quantitative Science Studies 1–21. https://doi.org/10.1162/qss_a_00327
Hirsch, J.E., 2005. An index to quantify an individual’s scientific research output. Proceedings of the National Academy of Sciences 102, 16569–16572. https://doi.org/10.1073/pnas.0507655102
Kaptay, G., 2020. The k-index is introduced to replace the h-index to evaluate better the scientific excellence of individuals. Heliyon 6, e04415. https://doi.org/10.1016/j.heliyon.2020.e04415
Oviedo-García, M.Á., 2021. Journal citation reports and the definition of a predatory journal: The case of the Multidisciplinary Digital Publishing Institute (MDPI). Research Evaluation 30, 405–419a. https://doi.org/10.1093/reseval/rvab020
Romanovsky, A.A., 2012. Revised h index for biomedical research. Cell Cycle 11, 4118–4121. https://doi.org/10.4161/cc.22179
SciVal, n.d. Field-Weighted Citation Impact (FWCI) Metrics [WWW Document], Pure. URL https://helpcenter.pure.elsevier.com/data-sources-and-integrations/field-weighted-citation-impact-fwci-metrics (accessed 12.18.24).
Van Noorden, R., 2023. How big is science’s fake-paper problem? Nature 623, 466–467. https://doi.org/10.1038/d41586-023-03464-x

Laikrakstam “Zinātnes Vēstnesis”
sagatavoja Latvijas Jauno zinātnieku apvienības
valdes locekle Liene Spruženiece

Lasīts 1684 reizes
We use cookies
Informējam, ka šajā tīmekļa vietnē tiek izmantotas sīkdatnes (angļu val. "cookies")