+
80
-

有没有什么技术可以判断内容是chatgpt等ai生成的?

有没有什么技术可以判断内容是chatgpt等ai生成的?

现在chatgpt为首的ai可以创作小说、图片、视频、三维、代码等内容,逼真程度让人无法相信这是电脑生成的,那么有没有什么技术可以判断内容是否是机器生成的,还是人类创作的。

网友回复

+
0
-

有一个网站专门检测文章是否是cchatgpt生成的叫GPTZero,只需要把相应的内容粘进去,几秒内就能分析出结果。

800_auto

+
0
-

通过模型水印识别是否是chatgpt生成的内容,人类无法看到模型水印,但是计算机可以。

这是一种现在被常用于大规模语言模型(LLM)中的方法,能让AI生成的文本带有“特殊标记”。即把信号嵌入到生成的文本中,让算法能从一小段token中检测出来。

最近,OpenAI方面也表示,考虑在ChatGPT中添加水印,以降低模型被滥用带来的负面影响。 这篇最新论文的作者,就想验证下这个想法到底靠不靠谱。他们通过给LLM中嵌入水印,然后再进行检测。其中水印的嵌入不会影响文本生成质量。 具体来说,大规模语言模型每次生成一个token,每个token将从包含大约5万个词汇的词汇表中进行选择。

在新token生成之前,该方法会从基于最近已生成的token为随机数生成器(RNG)提供“种子”,以此来压一个水印。

800_auto

然后使用RNG,能将词汇表分为黑名单和白名单,并要求LLM接下来只能从白名单中选择词汇。 如果整段文本中,白名单中的词汇越多,就意味着越有可能是AI生成的。 黑白名单的区分,基于一个原则: 人类使用词汇的随机性更强。 举例来说,如果在“美丽的”后面生成词汇,水印算法会将“花”列入白名单,将“兰花”列入黑名单。 论文作者认为,AI更可能使用“花”这个词汇,而不是“兰花”。

800_auto

然后,就能通过计算整段文本中白名单token出现的情况,来检测水印。 如果一共有生成了N个token,所有的token都使用了白名单词汇,那么这段文字只有2的N次方分之一概率是人类写的。 即便这段文字只有25个词组成,那么水印算法也能判断出它到底是不是AI生成的。 但作者也表示,水印有时候也不一定完全靠谱。 比如模型输出了“SpongeBob Square”,下一个单词一定会是“Pants”吧?但是Pants会被标记到黑名单里,即认为是只有人才会写的词。

这种情况会严重影响算法的准确性,因此作者将其定义为低熵token,因为模型几乎不会有更好的选择。 对应来看,也会有高熵token,比如“海绵宝宝感觉____”这个句式里,能填入的词汇太多了。 对于这一情况,作者选择针对高熵token制定更强的规则,同时保留低熵token,确保水印质量更好。 与此同时,他们还添加了波束搜索(Beam search),允许LLM能够排布一整个token序列,以避免黑名单词汇。 这么做,他们能确保LLM使用白名单词汇的概率在大约80%左右,而且不影响文本生成质量。

800_auto

举例来看,对于下面这段文字,水印算法认为它有99.999999999994%的可能是由AI生成的。 因为在这段文字中,包含36个token。如果是人类写的,那么文本中应该包含9±2.6个白名单词汇(白名单词汇的概率约为25%)。 但这段文字中,包含了28个白名单词汇。 计算来看,这段文字由人类写出的概率,仅有0.0000000000006% (6乘以10的-15次方)。

800_auto

如下标注的是文本中的黑名单token

800_auto

需要注意的是,如果想要水印正常发挥作用,并不受到攻击,就必须对文本进行一些标准化处理,并且需要检测某些类型的对抗性提示。 这一方法是对外公开的,将在2月15日开源代码。 加一个随机秘钥,也能变成保密模式并且托管到API上,这能保证水印不会被篡改。 论文中使用的模型是Meta开源的OPT-1.3B模型。 由于不用访问底层模型,所以该检测方法的速度很快,成本也不会很高。 而且可以使用标准语言模型生成带水印的文本,不用再重新训练。

+
0
-

还有一个在线检测内容是否是ai生成的网站:http://ai.sklccc.com/AIGC-X/#/try

800_auto

我知道答案,我要回答