ITBear旗下自媒体矩阵:

生成式AI学术使用,帮手还是帮凶?亟须关注!

   时间:2024-08-11 11:22:04 来源:ITBEAR作者:周琳编辑:瑞雪 发表评论无障碍通道

【ITBEAR】8月11日消息,随着生成式人工智能(AI)工具的迅速普及,其在学术写作领域的应用正呈现爆炸式增长。利用基于大语言模型(LLM)的AI工具,研究人员不仅能节省宝贵的时间,还能跨越语言障碍,使论文表达更加清晰流畅。然而,这一趋势也为学术诚信带来了新的挑战,尤其是剽窃问题的复杂化。

据《自然》网站近期报道,科研界亟需深入探讨并制定更为明确的学术写作AI使用指南,以明确利用AI写作是否构成剽窃,以及在何种情况下允许使用AI进行写作。这一呼吁反映了学术界对于LLM在学术写作中角色和界限的深刻关注。

据ITBEAR了解,一项由德国蒂宾根大学数据科学家德米特里·科巴克领导的研究团队进行的分析显示,2024年上半年,在学术数据库PubMed中发表的约7.5万篇生物医学论文摘要中,至少有10%使用了LLM进行写作。这一发现凸显了LLM作为“写作助理”对学术界产生的深远影响。

尽管许多研究人员视AI工具为学术写作的“得力助手”,认为它们能提升文本的清晰度,减少语言障碍,从而让科学家有更多时间专注于实验和思考,但AI工具的广泛应用也引发了关于剽窃行为的担忧。传统上,剽窃行为就难以察觉,而随着LLM的引入,这一问题变得更加复杂。LLM通过“消化”大量已发表文章来生成文本,可能导致无意的剽窃,如研究人员将AI生成的论文冒充为自己撰写的,或机器生成的论文与某人的论文高度相似但未注明来源。

此外,界定学术不诚信或剽窃行为,以及合理使用AI的边界,在AI时代变得尤为困难。特别是当LLM稍作措辞调整时,其剽窃人类撰写文本的情况很容易被掩盖。一项针对1600名研究人员的调查显示,68%的受访者认为,AI将使剽窃行为更难被发现。另一个核心争议点在于,使用完全由机器而非人类编写的未署名内容是否构成剽窃。

美国马里兰大学可靠人工智能实验室主任索海尔·菲兹副教授指出,使用LLM改写现有论文内容显然构成抄袭,但使用LLM来帮助表达想法,无论是根据详细提示生成文本还是编辑草稿,只要过程透明,就不应受到惩罚。科学界应允许研究人员利用LLM来轻松、清晰地表达他们的想法。

为了应对这一挑战,许多学术期刊已制定相关政策,允许投稿者在一定程度上使用LLM,并要求作者全面披露AI技术的使用情况。《科学》杂志和《自然》杂志均要求作者记录LLM的使用情况。截至2023年10月,一项对100家大型学术出版商和100家排名靠前的期刊的分析发现,24%的出版商和87%的期刊已制定了使用生成式AI的指导方针,几乎所有期刊都声明AI工具不能被列为作者。

尽管一些科学家正致力于开发检测LLM使用情况的工具,但现有工具的准确率参差不齐。沃尔夫及其同事评估的14种AI检测工具中,只有5款工具的准确率高于70%,且没有一款工具的得分超过80%。这凸显了提升AI检测工具准确性的紧迫性,以避免对无辜学者的错误指控,保护他们的声誉。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  网站留言  |  RSS订阅  |  违规举报  |  开放转载  |  滚动资讯  |  English Version