|
|
1.26' C: V; `$ f+ ]2 V
知识分子
. t) O. x% v+ Y5 o# S/ y6 QThe Intellectual. h8 h, b& j0 U, L' y, y0 ^
( V. ^8 T* m/ m( T0 N- c: s& ?
. Q+ m% b) g# Y3 A9 L2 r; O" l/ v f
图源:Unsplash / Dan Dimmock
4 s0 n' g! Q/ L ` a$ x9 N# B* y撰文 | 张天祁
5 |0 F& f* t* F7 y( E2 h+ m9 }6 ~) Z7 x3 o" S, z
& |/ ~. |" l6 \% t- g: C ● ● ●
0 ~6 }7 o5 t# r- g# f/ m( y# a7 E9 E4 a' v
4 ]6 B. a: n, ?1 w在当下的学术评价体系中,中国科研机构的排名在各大榜单上不断攀升,这往往被视为科研实力跃进的印证。2025年的自然指数机构排名中,中国的研究机构甚至占据了前10名中的8位[1]。! f& e8 \. O6 c K6 j/ r$ }* u
8 F0 J1 T3 _: Z
" Z; g$ ?1 P; K: E- ?- `& T( e! B在最近荷兰莱顿大学科技研究中心的莱顿大学排名中,浙江大学已跃居首位,哈佛大学排名第三,另有七所中国高校进入前十[2]。中国高校在科研成果数量上的快速增长有目共睹[2]。8 w* f( [/ C/ L
- L: p5 E2 m# ~* G7 v# M
5 w$ r3 n! a5 i# J" W6 B0 f& U
然而,这是否意味着中国大学已经在全面领先?大学排名的评价逻辑本身就放大了规模效应,而中国科研机构最不缺的正是规模。再考虑近年来频发的学术不端事件,剔除那些由撤稿论文、过度自引和论文灌水所堆砌的虚假繁荣后,中国大学的水平究竟在什么位置?/ r# X- [, F0 C$ K
! I/ b8 _4 T. i1 X. [
+ N, g" z5 a) M/ G3 ^( J近日,斯坦福大学教授约翰·约安尼迪斯(John P.A. Ioannidis)及其团队最近发布的一项研究,给出了一个冷静甚至有点泼冷水的答案。0 U+ Z" W- |2 ^
# ~* t5 }1 r: f2 z$ x
( A, T8 b+ `$ ]8 K3 C3 u
018 E9 F: P9 R) F4 L1 ^! h
3 Y% z# Z1 c& j
足够大,但不够精2 a D9 e+ P- u' H9 M5 P( b
1 b3 A) O6 Y6 n1 v3 `8 c# S* I
7 A0 u( x' n" p& d9 M. H
对于经常关注科学计量学和元科学(MetaSCIence)的人来说,约安尼迪斯这个名字可谓熟悉。这位有着深厚流行病学和统计学背景的学者,长期致力于通过严谨的统计分析来审视科学研究的质量与可靠性。2005年,他发表了文章《为什么大多数发表的研究发现都是错误的》(Why Most Published Research Findings Are False),直接引爆了生物医学领域的可重复性危机 。! Q. b0 X2 d- p2 o$ o8 X: A
3 ?3 M3 m* }" m8 \8 [ r$ X* k% N) y: }8 Q1 C5 U
可以说,他是最擅长用统计技巧刺破学界泡沫的学者之一。这一次,约安尼迪斯将目光对准了全球近7000家科研机构,想要挤一挤科研机构排名的水分。他和爱思唯尔的研究者合作,设计了一套新的评判算法,减少了过去科研机构排名过于看重规模的弊端,并且专门惩罚那些通过学术不端和操纵指标来获取排名的行为[3]。! u" C! r3 N B* I6 V% j- L
0 p( Q( r; f; J5 p* h* h( O. P# i; i1 e) V
作者们在论文中直言,传统的科研机构排名系统存在严重的误导。它们往往被体量巨大的大型机构所主导,只要合并足够多的学院、招募足够多的员工,就能在排行榜上通过堆数量来获得高分 。这种逻辑不仅掩盖了许多小而美的研究机构(如独立研究所或科技公司)的卓越贡献,更助长了高校盲目扩张规模、通过合并来刷榜的投机风气 。( l2 J* j% A1 X/ a
4 @4 ]$ A/ w9 a9 x9 G+ @ c
! R( i4 e. r; ?0 |! Q+ e! A% K% k
因此,作者依据 2025 年全球前 2% 顶尖科学家榜单,计算各科研机构内部顶尖科学家所占的比例。与单纯追求规模不同,这一比例并不会因合并或扩张而自动抬升。如果新增人员并未进入高被引行列,机构的整体比例反而会被稀释。- ]6 Y% o1 o& Y4 p+ b. h9 {6 T
8 v( k' _& Y: L0 x3 k: A8 m
$ f/ F4 F/ g$ |* ~4 p! s* I
同时他们也承认,单纯看高被引科学家这一指标本身也存在缺陷,而且这一指标也容易受到操纵。正因为如此,这项研究才引入了撤稿、过度自引和问题期刊论文这三个惩罚因子。作者认为,只有经过这些修正后的排名,才能从而提供一个更透明、更具公信力的机构评估标准 。
% f% s6 T' W0 I
& Z. l$ P, U; X b; ?, B% R5 o) [- {$ W) t* B
如果依然沿用旧有的堆数量逻辑,中国高校的表现无疑是世界级的。在进入“主要分析”的2380家大型科研机构中,中国共有410家入围,数量上超过美国的344家,位居各国之首。* P* l6 r' b1 K8 n6 p& p
, I- _1 y& R! u9 ?* A
' n. i, u4 M( R/ H ?
在全球拥有超过一万名发文作者的116家大型科研机构中,中国占据了27家,仅次于美国的38家,处于全球前列。1 i. O& q; \; g. o9 o
; M' w* g! \# X( ?
; a2 B$ F f0 w0 ?% C7 Y
需要说明的是,这项研究并非简单统计机构在册人员,而是采用了一套筛选框架,只纳入那些处于职业生涯活跃阶段、且在科研中持续发挥实质性作用的研究人员。
' o( x5 f1 l+ i) r/ a4 X4 h/ _6 ~, c
+ d( W5 B' T& q( M
具体而言,这些作者需在1980年之后开始发表论文,并在 Scopus 数据库中累计发表至少40篇论文,其中至少5篇以单一作者、第一作者或最后作者身份完成。只有当一个机构拥有不少于100名满足这些条件的作者时,才会进入后续的百分位排名分析。. V7 f' A$ e" b q
9 E3 p3 d" x( V4 A9 o+ K& ^1 ^" h
9 N1 W: ]; a& P在规模这一维度上,中国高校更是展现了惊人的统治力。在拥有超过1万名资深作者的全球116家“超级机构”中,中国占据了27席,仅次于美国。上海交通大学、浙江大学、北京大学、清华大学等名校悉数在列,从这个角度看,中国毫无疑问是一个科研大国。
% U6 M& g2 p; a3 i! ?$ d b# \/ B
0 }# H5 X4 ?! w# T7 Q) c0 q, c% x5 {但当评价视角转向顶尖科学家时,情况开始发生变化。在以“前2%顶尖科学家绝对数量”为指标的榜单中,中国仅有5家机构进入全球前100名。进一步看,在规模最大的那一批机构中,有8家中国高校的顶尖人才比例低于6%。
* C' y% ]2 q; K" Z- ]5 b
+ S1 ?& O6 A8 t5 l: l: |6 {7 I7 _, u+ D0 p+ \
02
& } Q0 m+ k: l) T$ a; r& h3 Z! Q. @0 q
撤稿惩罚最严重的100家研究机构,75家来自中国3 L+ P, D6 P5 N! ?
! Q: E8 H5 J5 g/ u: I( ~) r3 c- m5 M- |0 c" T! X9 f
考虑作者设计的对于学术不端的惩罚机制,中国机构的排名跌落就更快。作者这套算法的核心,是机构的净得分,也就是用机构拥有的顶尖科学家数量,减去因学术不端产生的惩罚,再除以符合“主要分析”条件的资深作者总数。
; {) ?' W/ R9 l& m' o( _
+ e/ `& L1 i) r) X/ x4 L! C D" k/ P9 f0 g8 E1 f0 e, I) b
其中最严厉的惩罚来自撤稿。算法规定,凡因学术不端(而非出版社失误)导致的撤稿,其扣分按撤稿作者身份总数的一半计算。换句话说,每出现两个撤稿作者身份,就会在分子中抵消掉该机构一名顶尖科学家的加分。即便一所大学拥有 10 位全球前 2% 的顶尖学者,如果其他研究人员涉及 20 个撤稿身份,这 10 位学者的加分也会被完全抵消。9 B- E2 w! N( a9 j( G; T1 p
' u: t3 Q* Y5 Q
* O# L9 _8 L7 m& S9 o( k, v% \ [此外,算法还对过度自引和向低质量期刊灌水设定了 5% 的容忍上限。具体来说,先按领域统计每位顶尖科学家的自引率和在被 Scopus 中止收录期刊上的发文比例,如果某位科学家的指标超过所在领域的95%的同行,就被视为异常行为。对于每个机构来说,如果这类异常科学家的数量超过该机构顶尖科学家总数的5%,每多出一名,就会在分子中扣掉一相当于名顶尖科学家的加分。; s8 R, ?$ y. t- O$ w
; t8 w; y0 z: O7 Q
: G( ]/ q* D, a/ E( ]在按撤稿扣分排序的全球前 100 家机构中,中国机构占据 75 席,这75家机构占到了研究涉及的入围的中国机构的接近五分之一 。而其他国家最多的也只有印度尼西亚占据3席。
5 I M1 G7 r& z8 O7 D
* V: L& D; h# L* ]8 i2 a7 [4 [. g/ k4 s& e4 \; _
这一数据意味着,在样本涉及的全球科研机构中,中国几乎霸榜了撤稿这一负面指标。这些撤稿往往与近年来屡禁不止的“论文工厂”,以及以数量为导向、牺牲质量的激励机制相关。
% B9 T) W% N6 {4 I r% E, D; i9 H. n9 e3 A! v' Z0 e8 b5 X
0 n$ a8 u3 S. I& I* x' Z2 Y# ]/ k
除了直接的撤稿之外,通过过度自引人为推高引用指标,同样是一种常见的学术造假方式。自引本身并非异常,在研究主题连续、方法路径相近的情况下,本就难以避免。但当自引比例明显高于同行常态时,它就不再是学术积累的自然结果,而更可能源于违规操作,甚至演变为有组织的抱团互引。9 c& o' J6 F( Z% ]. y( U% t- ]
* G; c2 @; N* m, {# z/ L5 i" e/ x7 @6 S
在作者团队梳理的“过度自引”负面榜单中,中国机构同样显眼,在按自引调整排名的全球前100家机构中,中国占据了9席 。虽然这一数字低于俄罗斯(26席),在占比上(2%)也不算高,但依然显示出部分中国机构在这一方面并不健康。
9 U4 r% s; I x$ r6 B; D
) [5 K0 Q( W5 [. U! _( t
) `$ c+ x! t* F5 ^ B! G0 o此外,研究还关注了在“中止期刊”(Discontinued titles)上的发文情况。所谓“中止期刊”,往往是指那些因为掠夺性出版行为、质量控制缺失而被Scopus等数据库剔除收录的水刊。在这一指标上,中国也有12家机构进入了负面榜单的前100名,虽然在比例上也并不高,但数量上和印度并列第一 。
( p; a/ K/ X% p- P/ }. D j; ?6 W$ J7 Y. A. ?
. M( E2 n5 Y/ |计算撤稿论文、过度自引和问题期刊论文的惩罚后,美国、英国、瑞士等传统科研强国的高校在修正后的榜单上仍然表现出较强的稳定性,中位百分位排名普遍保持在80%以上。相比之下,中国机构中位排名仅为 14.3%,与上述国家形成了极为明显的差距。) Z% {( J' d' ?+ n
6 i5 Z" K9 E5 {( L U6 b) o& q# O% O2 p; T( `
在这套严格的评估标准下,中国高校的排名又显得尤其靠后。这主要源于研究者设计的评估标准对学术不端的惩罚力度较大,同时更强调机构内顶尖人才的密度,而非整体规模。它提醒我们,中国高校在传统排名中位居前列,是依照既有评价方式的结果。排名靠前或者靠后,有时候只需要换一个标准。
' }$ V6 i+ l) @7 k$ v) e0 J
1 T( c% ^% O l; t2 t& S1 E- L6 ]/ C$ X; \; B
参考文献:
: w1 J1 z: h3 {; Q# `2 V. r[1] Institution tables | Nature Index. (2025). Nature Index.
% m8 \ J& @7 Q( w: I9 g3 {% h[2] Arsenault, M. (2026, January 15). Chinese universities surge in global rankings as U.S. schools slip. The New York Times.9 v- f+ y" |9 \1 v8 O, F9 M& a
[3] Ioannidis, J. P. A., Baas, J., Boverhof, R., & Voyant, C. (2025). Science-wide mapping and ranking of institutions based on affiliated authors. bioRxiv. |
|