Nature重磅调查:1600余名科学家参与,仅4%认为AI工具当前是“必需品”
过去十年,关于人工智能(AI)的研究论文数量在各个领域都有显著增加。科学家们已经开始运用AI工具来协助总结和撰写研究论文和编写代码。一些研究者尝试借助生成式AI技术来探索新的领域,如蛋白质结构的发现、天气预报的改进以及医学诊断的创新等各种有前景的领域。
AI已然渗透到科学研究中。那么,科学家们是如何看待它们的?
近日,顶级期刊《自然》(Nature)对全球1600多名研究人员进行了一项调查。结果表明,AI工具在科学领域越来越常见,并且许多科学家预计它们将很快成为研究实践的核心。另外,超过一半的受访者认为AI工具将在未来十年内变得非常重要或必不可少。
相关调查结果以“AIandscience:what1,600researchersthink”为题,已发表在Nature上。
在这项调查中,有2/3的受访者认为AI提供了更快的数据处理方式,58%的人认为AI加速了以前不可行的计算,55%的人则提到AI节省了时间和金钱。
来自杜克大学的计算生物学家IreneKaplow表示:“AI让我能够在以前难以攻克的生物学问题中取得进展。”
然而,也有69%的研究人员表示,AI工具可能导致更多地依赖模式识别而不是深刻理解,58%的人认为AI可能会在数据中强化偏见或歧视,55%认为这些工具可能会增加欺诈的发生概率,53%的人指出草率使用可能会导致研究无法重现。
任职康涅狄格州的杰克逊实验室、从事癌症图像分析的JeffreyChuang表示:“主要问题在于AI正在挑战我们现有的证据和真相标准。”
科学家的担忧与兴奋
为了评估活跃研究人员的观点,《自然》杂志通过电子邮件联系了在2022年最后4个月内发表论文的4万多名科学家,并邀请《自然简报》的读者参与调查。
在这些受访者中,48%的人直接开发或研究AI,30%的人在研究中使用了AI,剩下的22%的人在科学中没有使用AI。
在那些在研究中使用AI的人中,超过1/4的人认为AI工具将在未来十年内变得必不可少,而认为AI工具现在是“必需品”的人只占4%。另有47%的人认为AI将变得非常有用。然而,不使用AI的研究人员对此并不太感兴趣。即便如此,仍然有9%的人认为这些技术将在未来十年内变得必不可少,另有34%的人表示它们将非常有用。
当被要求从可能的生成式AI负面影响列表中选择时,68%的研究人员担心信息传播不准确,另有68%的人认为这将使抄袭更容易,检测更难,66%的人担心会引入错误或不准确的内容到研究论文中。
此外,受访者还提到,如果用于医学诊断的AI工具是基于具有历史偏见的数据进行训练,他们担心会出现伪造研究、虚假信息和偏见。科学家们已经看到了这方面的证据:例如,美国的一个团队报告说,当他们要求GPT-4为临床案例研究提供诊断和治疗建议时,答案会根据患者的种族或性别而变化。
英国布里斯托尔大学攻读医学AI博士学位的软件工程师和前企业家IsabellaDegen表示:“大型语言模型(LLMs)被滥用,存在不准确和虚假但听起来专业的结果。在我看来,我们对于正确使用和滥用之间的界限认识还不够清晰。”
研究人员认为,最明显的好处是LLMs可以帮助非英语母语的研究人员,改进他们研究论文的语法和风格,总结或翻译其他工作。新加坡国立大学材料科学家KedarHippalgaonkar指出,“尽管存在一小部分恶意玩家,但学术界可以展示如何善用这些工具。”
即使在对AI感兴趣的研究人员中,经常在工作中使用LLMs的研究人员也仍占少数。那些学习AI的人中有28%表示每天或每周使用生成式AI产品,而仅使用AI的人中有13%这样做,而其他人中只有1%,尽管许多人至少尝试过这些工具。此外,所有群体中最流行的用途是与研究无关的创意娱乐;较少一部分人使用这些工具来编写代码、构思研究思路和帮助撰写研究论文。
另外,一些科学家对LLMs的输出并不满意。一位使用LLMs来帮助编辑论文的研究人员写道:“ChatGPT好像复制了人类的所有不良写作习惯。”芬兰图尔库大学的物理学家JohannesNiskanen则表示:“如果我们开始使用AI来阅读和撰写文章,科学很快就会从‘由人类为人类(forhumansbyhumans)’转变为‘由机器为机器(‘formachinesbymachines)’。”
AI发展面临困境
在这项调查中,大约一半的科学家表示他们在开发或使用AI方面遇到了阻碍。直接研究AI的研究人员最担心的问题包括计算资源不足、为其工作提供的融资不足以及获取运行AI所需的高质量数据不足。而那些在其他领域工作但在研究中使用AI的人则更担心缺乏熟练的科学家和训练资源,此外,他们还提到了安全和隐私方面的考虑。然而,不使用AI的研究人员表示他们不需要AI或认为它不实用,或者缺乏研究AI的经验和时间。
调查中出现的另一个主题是商业公司主导了AI的计算资源和AI工具的所有权。研究AI的科学家中有23%表示他们与开发这些工具的公司合作或在这些公司工作(其中最常提到的是Google和微软),而使用AI的人中只有7%这样做。总体而言,略多于一半的受访者认为,使用AI的研究人员与这些公司的科学家合作是非常重要或有些重要的。
此前,已有研究人员多次警告称,科学中对AI工具的天真使用可能导致错误、虚假阳性和无法重现的研究结果,从而潜在地浪费时间和精力。一些科学家表示,他们担心使用AI的论文中存在质量不佳的研究。
堪萨斯州立大学曼哈顿分校的计算机科学家LiorShamir表示,“机器学习有时可能有用,但AI引发的问题比帮助多。科学家在不了解自己在做什么的情况下使用AI,可能会导致虚假的发现。”
当问及期刊编辑和同行评审人是否能够充分审查使用AI的论文时,受访者意见不一。在那些使用AI进行工作但不直接开发AI的科学家中,大约一半表示不知道,1/4认为审查是充分的,1/4认为不充分。直接开发AI的人倾向于对编辑和审查过程持更积极的看法。
另外,《自然》还询问了受访者对于AI在社会的7种潜在影响的担忧程度,2/3的人表示他们对此非常担忧或很担忧。自动化AI武器和AI辅助监视也高居榜首,最不令人担忧的是AI可能对人类构成生存威胁的想法。
然而,许多研究人员表示,AI和LLMs已经成为不可回避的趋势。波士顿马萨诸塞州贝斯以色列圣救主医疗中心的肝病专家YuryPopov写道:“AI是具有变革性的,我们现在必须关注如何确保它带来更多的好处,而不是问题。”
踩一下[0]
顶一下[0]