|
|
光明网评论员:2月24日,药学综合类学术刊物《中国药房》编辑部就近期部分审稿专家使用AI代审的现象发布声明,称学术期刊审稿工作有着科学性、严谨性与保密性等多重特殊要求,若随意采用未经保密性验证的AI平台代为审稿,极有可能无法保障稿件评审质量,更有可能泄露作者的原创学术成果。并要求若收到稿件内容确不属于自身研究专长,及时退审并说明理由;若部分审稿内容采用了外部AI工具作为辅助手段,说明工具名称及其在审稿过程中的具体用途。, K9 \' \, Z- q% \
这个声明之所以吸引眼球,是因为它第一次挑明了“用AI审论文”这件事。前不久,舆论还在密集讨论能不能用AI写论文,如何识别、处理AI论文云云,现在则进一步“升级”——别说写论文了,看论文也已经用上AI了。
/ Y. p q3 Y" Q3 O' o" @ 其实,看论文恰恰是AI最大的擅场。文献梳理、逻辑检查、方法比对、引用核验,在这些相对“机械”的领域,AI作为机器的优势不言而喻。对于审稿人而言,AI 可以迅速帮忙扫清显而易见的结构问题、统计错误或表述漏洞,提示与既有研究的相似之处,从“工具理性”的角度看,它几乎是为审稿量身定做的助手。
, A* ?% d2 ?1 f, q8 o" W5 y 这个问题不是国内独有。斯坦福大学曾经发表研究,对一些顶级AI会议的审稿意见进行了分析,发现在ChatGPT出现之后,这些同行评论的“AI含量”大增,最多的高达16.9%,而有ChatGPT之前这个比例大约是2%。4 H/ V, A6 }/ e" T$ R$ G( \$ I
这其实让很多学校“拒绝AI”的声明透出某种无奈。学生完全有理由相信,哪怕自己不用AI写论文,老师也会用AI看论文,AI已经事实上成为学术生态的一环了。
: k; P7 p- c1 O* Y 但AI的存在感增强是不是就“不好”,却又另当别论。人的判断一定优于AI吗?人的表达一定强过“AI味重”的语言吗?在AI大发展的当下,只怕很多人已经没有这样的自信了。AI也许不够“大胆”,但至少在逻辑一致性、细节核查和文献覆盖上更稳定、更克制。别说AI写论文、看论文了,用AI来进行分子描述、细胞研究等都已经极为常见。, b( j3 s7 x; {. J; r8 G9 r
在这个大背景下,拒绝AI怕是不可能了,重要的是重新找到人的学术生态位。AI把实验做完了,人如何下结论?AI把论文审完了,人如何给出通过与否的结果?某种程度上,人甚至有可能沦为AI的打工者,表面上仍是研究者、审稿人,实际上却只是为 AI 的输出盖章背书。
5 K. C8 Y& K; ?% M8 P- W, h 但是,人在学术中的存在意义,不是为“物种尊严”争口气,而是确保有价值的学术成果能够出现。人作为最后一道关口,也是唯一有可能“担责”的环节。做好最后的仲裁,可能是技术为人留下的最后一块领域。7 K8 J9 ~: i% s/ n; f: w3 D9 Q
所以眼下没必要拒绝AI,也没必要因为使用AI而有“耻感”。正像《中国药房》的声明所说的,“若部分审稿内容采用了外部AI工具作为辅助手段,请说明工具名称及其在审稿过程中的具体用途”,关键是明确AI怎么用。
^# D; k7 i7 h- M: L 论文要不要保密,人如何对最终结果负责,在哪些环节允许使用AI,这些都不妨清晰标记。只有当使用边界透明、责任归属明确时,AI 才会真正成为学术的工具;人也不会在AI面前进退失据,既不神化它、把一切判断轻易让渡,也不妖魔化它、徒增无谓的防备。
5 g9 Q- X! E+ U& M2 `7 c% L+ p (转载请注明来源“光明网”,作者“光明网评论员”) Q# V4 @0 R0 T; Z8 R( `
【上一篇】中国年再度“圈粉”全球
% P" v# E# V5 o& p% u7 M. P9 d. I- A8 J( o
[ 责编:金凌冰 ] |
|