新华社北京7月31日电天生式人工智能工具能够根据干系提示天生文本,虽然提高了写作效率,但也模糊了学术不端行为的界线。
英国《自然》杂志日前揭橥的一篇文章说,随着ChatGPT等天生式人工智能工具的快速遍及,学术界正面临一场关于诚信的新寻衅。

生成式人工智能在学术界激发诚信争议_人工智能_对象 文字写作

根据《自然》杂志去年对环球1600名研究职员的调查,68%的受访者认为天生式人工智能工具将使抄袭变得更随意马虎且更难检测。

文章指出,天生式人工智能工具如ChatGPT基于大措辞模型,通过学习大量已揭橥的文本天生新内容。
这种办法可能导致类似抄袭的情形,例如研究职员将天生式人工智能工具天生的文本当作自己的作品,或者天生的文本与某人的作品非常相似却未注明来源。

文章提出一个核心问题:利用完备由机器(而不是人类)编写的未注明来源的内容是否算抄袭。

一些研究机构将未经授权利用天生式人工智能工具定义为“未经授权内容天生”,而非传统意义上的抄袭。
德国柏林运用科技大学的德博拉·韦伯-伍尔夫教授认为,传统意义上的抄袭常日指可归因于另一个详细作者的内容。

也有一些人认为,天生式人工智能工具陵犯了版权。
抄袭和陵犯版权都是对他人作品的不当利用,而抄袭违反了学术道德,未经授权利用受版权保护的作品则可能违反法律。
“毕竟,这些人工智能系统是建立在数百万乃至数亿人的事情之上的。
”美国密歇根大学打算机专家拉达·米哈尔恰说。

文章还指出,只管存在争议,天生式人工智能工具在学术写作中的利用量仍在增加。
一项研究显示,2024年上半年,至少10%的生物医学论文择要利用了大措辞模型。
人工智能工具不仅简化了写作过程,还能帮助非英语母语的研究职员战胜措辞障碍。

专家呼吁制订更明确的政策和辅导,以规范人工智能工具在学术写作中的利用,确保学术诚信。