发布时间:2024-11-14 17:32:51 来源: sp20241114
中新网 北京10月24日电(记者 孙自法)国际著名学术期刊《自然》最新发表一篇人工智能(AI)研究论文称,研究人员开发出一种能为AI大语言模型(LLM)生成的文本添加水印的工具,或能提高对合成内容的鉴别和追溯能力。
该论文介绍,大语言模型是广泛使用的人工智能工具,能为聊天机器人、写作支持和其他目的生成文本。不过,人们很难识别并追溯AI生成文本的来源,使信息的可靠性成疑。水印被认为能解决这一问题,但生产系统对质量和计算效率的严格要求阻碍了其规模化应用。
在本项研究中,知名人工智能企业谷歌DeepMind团队开发出一个利用一种全新采样算法给AI生成文本添加水印的系统,称为SynthID-Text。该工具利用一个采样算法对LLM的词汇选择进行巧妙偏移,插入一个能被相关检测软件识别的签名。这既可以通过一种“扭曲”路径实现——该路径能提高水印质量但会轻微影响输出质量,或是通过一种能保留文本质量的“非扭曲”路径。
论文作者团队在多个公开模型上评估了这些水印的可检测性,发现SynthID-Text的可检测性优于当前其他方法。该团队还用Gemini LLM的近2000万次在线对话回答评估了这些文本的质量,结果显示,非扭曲水印形式不会降低文本质量。同时,SynthID-Text的使用对LLM运行所需算力的影响可忽略不计,这也减少了其应用上的障碍。
论文作者总结说,虽然编辑文本或改写输出就能避免出现文本水印,但他们的研究表明,一个为AI生成内容的生成式文本添加水印的工具是可行的,继而有望提升LLM使用的责任制和透明度。(完) 【编辑:张子怡】