共计 1323 个字符,预计需要花费 4 分钟才能阅读完成。
全球学术界与科研领域正经历着深刻变革,从研究伦理到资助体系,从出版模式到方法论,都面临着新的挑战与机遇。以下是近期部分值得关注的动态精选。
随着人工智能技术的普及,学术伦理与诚信正面临前所未有的新挑战。近期,香港大学一位教授因卷入“AI 生成参考文献丑闻”已辞去副院长职务,这一事件凸显了 AI 工具被滥用的风险。伪造的学术论文正被 AI 大量生成,甚至获得了真实期刊的引用,这动摇了学术出版的根基。有研究指出,大量粗制滥造的 AI 生成摘要正成为一种令人担忧的趋势。此外,神经科学家 Sylvain Lesne 于 2017 年发表在《科学信号》上的一篇论文已被撤回,该论文此前已受到期刊的持续关注,这再次提醒我们研究质量与诚信的重要性。
在研究资助与评估体系方面,变革正在发生。美国国家科学基金会(NSF)的一项新倡议旨在改变传统的资助模式,计划转而支持整个研究团队,而非仅仅资助个别教授,这有望促进更具协作性的科学研究。同时,学界有观点认为,如果采用文章级别指标而非期刊级别指标进行评估,大多数研究人员将获得更公允的认可。当前的评估体系被批评为过于迟缓,难以衡量在 AI 技术加速下的科研产出速度与质量。
科学争议与政策博弈始终是学术界的一部分。近期,一位美国参议员在指控科学家进行“导致冠状病毒产生的危险研究”后,要求《科学》杂志提供相关手稿与邮件。与此同时,美国疾病控制与预防中心(CDC)拨款 160 万美元,资助一位有争议的丹麦研究人员进行乙肝疫苗研究,此举引发了广泛的伦理讨论。此外,面对日益增长的反对声音,一项关于青春期阻滞剂研究的专家团队也公开阐述了“该试验必要的原因”。
出版和同行评审体系正受到 AI 的强烈冲击。当前,许多学术期刊的 AI 政策被指未能有效遏制 AI 辅助写作的激增。更严重的是,使用 AI 生成同行评审报告被视为“一个严重的问题”,且这类报告可能难以被期刊编辑检测出来。为此,一些学术会议组织者正在积极探讨“AI 作者与审稿人”的使用边界与伦理规范。出版商也被呼吁在 AI 时代通过创新内容、流程和服务等三种方式,来重塑自身的核心价值。
在数据共享、研究伦理与方法论领域,新的共识与建议正在形成。学界强烈呼吁,为更有效地检测数据不一致与潜在的学术欺诈,应要求作者常规性分享其汇总统计数据背后的原始数据。一项系统性回顾研究聚焦于全球健康期刊的“编辑委员会多样性”,探讨其作为知识守门人的关键角色。芬兰国家研究诚信委员会发布的最新报告则强调,“组织机构在发展研究伦理文化中扮演着关键角色”。此外,针对在线研究中的欺诈行为,业界已总结出有效的检测与预防经验。研究证实,已发表的同行评审报告通常比未发表的报告包含更高的信息量。同时,学界也愈发认识到,发表“负面”或未达预期的研究数据,对于“揭示世界真实运行规律”具有不可替代的重要价值。值得注意的是,复杂的机器人程序风险可能污染用于揭示人类行为的在线调查、游戏等研究方法,这为社会科学研究带来了新的方法论挑战。
最后,来自《英国医学杂志》圣诞特刊的一则轻松学术趣闻,为我们提供了一个有趣的思考角度:“‘近期’有多近?一项对学术论文中可疑的永恒引用的回顾性分析。”这提醒我们,即使在严谨的学术写作中,也存在着值得玩味的语言细节。