你听说过这样一个说法吗?“水印可以用来识别由LLM生成的文本”?或者“水印可以帮助减少像AI生成的假信息这样的危害”?
在这篇文章中,我将引导你完成一系列的思维实验,以展示水印技术为何难以兑现这些承诺。在这趟旅程中,你不需要懂水印技术的专业知识,只需要你的常识和推理能力就可以了。
如果你是一位着急制定政策的决策者,并希望检验你对水印的理解是否正确,你可以直接拉到最后的“问题”部分,看看你是否能回答每个问题。
什么是水印呢?水印处理(特别是对LLM文本进行的统计水印处理)是在生成LLM(大型语言模型)响应时应用的一种过程。
一种人为的水印方案可能如下:在生成响应中的每个词时,如果前一个词的第一个字母是字母表中的偶数位置,比如 B、D、F,那么稍微偏向选择首字母为奇数位置的词,比如 A、C、E。然后,你可以用文本运行检测算法,它会相当有信心地告诉你这段文本是否带有这种特定的“水印”(一种词语模式)。
实际情况中的策略更复杂(操作令牌而非单词),但希望这能让你了解LLM如何生成看起来自然的文本给人类,一旦你知道了该寻找什么,就能识别出这些文本是‘合成’的。
那么,能否从LLM生成的文本中辨别出来?水印的基本思想是它‘能帮助识别大型语言模型生成的文本’。
这个单词“an”有些严重的歧义,根据你对“an LLM”的理解,你可能会觉得水印是实现了这两个目标中的一个。
- 识别由带有特定水印的__LLM生成的文本
- 分辨AI生成的文本和人类写的文本
水印处理了第一个问题,但却经常被谈论成好像解决了第二个问题。
第一个案例可能对LLM开发人员来说很有用。第二个案例对社会更有用,因为它理论上可以帮助保护公众免受各种AI带来的危害。
当我说水印“永远无法实现”时,我的意思是,它永远无法解决区分AI生成文本与人类生成文本的问题,由此,水印也无法防止AI生成文本造成社会危害的方法,水印也无法作为防止AI生成文本造成社会危害的一种手段。
你可能会怀疑这是否是一个稻草人论证。并不是。关于“水印有助于识别由LLM生成的文本”这一说法,在我读过的每一篇相关论文中都有提及(1,2,3,4,5,6)。而大多数这些论文进一步声称水印可以以某种方式减少危害,这一说法更强,但同样错误。这是研究人员传递的信息,同时如果我们关注媒体上有关最新水印技术的文章(例如,来自DeepMind并发表在《自然》杂志上的论文1),它们都提到了水印能够检测AI生成内容并减少危害的能力(1,2,3 ,4,5,6)。然而,这些文章都没有提到水印为什么永远不会奏效的原因。因此很明显,许多人对水印的潜力存在误解。
为什么不认为水印永远无法实现?为了让水印能区分AI生成的文字和人类写的文字,需要满足三个条件。我会在接下来的部分解释为什么每个条件都必不可少。
- 所有有能力的大语言模型都使用了水印
- 没有大语言模型提供商允许选择标记
- 没有开源模型
我们来仔细看看每个条件吧。
1. 所有功能齐全的大型语言模型都具备了水印功能通过“有能力”这个词,我指的是任何LLM,它们能够产生水印旨在防止的那种有害结果。
你可能会对“_永远不工作”这样的说法感到警惕(这是个很好的直觉!)。但我可以告诉你,这种情况在现实中是不可能的,因为已经存在一些没有水印的强大开源模型。像 Llama 3.1 405B 这样的大型语言模型已经下载了_数百万_次,而这些没有水印的模型也无法被卸载。
你可以在这里停下来了,真的。这一点就足以说明为什么水印标记永远不会奏效:那些有恶意的人总能找到未被水印标记的强大语言模型。
如果这还不够清楚,看看下面的图表可能会有所帮助。下面的图表说明了简化后的LLM领域中的三种情况(行)。列代表文本的来源,其中蓝色方块代表带有水印的内容。
顶部是我们当前的状态,有一个带有水印的LLM。第二行是我们能对水印达到的最佳未来状态(大多数LLM会被打上水印,但你无法为现有的开源模型添加水印)。第三行展示的是如何区分AI生成的内容和人类内容,但这在现实中是不可能的。
不幸的是,讨论水印时所使用的语言常常无法区分“一些”和“所有”的AI生成的文本,并且所有这些情况在技术上都可以被描述为“检测AI生成的文本”。
你可以说是语义上的问题。但检测AI生成的文字,你得对所有大规模语言模型都解决才行,否则就是没解决问题。
如果你有一栋房子,它有四个窗户,但你只锁了一个窗户,你会说这“有助于保护你的家”吗?如果你知道其他一些窗户根本不能上锁,那又会怎么样?如果小偷还提前知道哪些窗户没有上锁,那又会怎么样?
2. 没有 LLM 提供商允许用户选令牌.当我认真思考一个问题时,我喜欢使用这样的思考框架:“如果X为真,那么还必须是什么为真?”并让自己沉浸在一种假设的世界中,其中X为真。这有助于判断某个主张或目标是否合理。在这种情况下,我们可以说,在一个所有大型语言模型都被打上了水印的世界中,还必须是什么为真的事情?
想了一会儿,有了一些体会等等……
首先,在一个所有大规模语言模型输出都必须带有水印的世界里,语言模型提供商不能让用户把温度调到0。如果你不熟悉“温度”这一概念,可以将其理解为“随机性”的程度。简单来说,有时候一点随机性是好的,但在其他时候你需要将其设为零,比如你想要相同的输入总是得到相同的输出,或者生成需要严格格式的代码或数据时。你也需要知道,统计水印需要一定的随机性,如果温度为0,则无法实现统计水印。(同样的道理,‘top P’也是一样。)
另外,在一个所有输出都必须打上水印的世界里,一个LLM提供商不能让用户像OpenAI那样通过top_logprobs
参数来选择每个令牌的替代选项。即使你不知道top_logprobs
是什么也没关系,只需要知道这是一个很有用的功能,如果OpenAI希望所有输出都打上水印,这个功能就需要被去掉。
所以如果你想象一个所有由AI生成的文字都有水印标记的未来,那么你也必须想象一个无法使用 temperature
, top_p
, 或 top_logprobs
(这些是AI生成文本时的技术参数)的未来。
这确实是个大问题,因为现有的减害系统(内容审核、欺诈检测、漏洞检测系统等)可能会因此失去效力。因此,讽刺的是,如果你想要强制添加水印来减少危害,可能的一个副作用是现有系统被迫以更低效率运行,从而增加危害。
幸運地說,這種情況出現的概率大概接近零。
3. 目前没有开源模型。我在这里提到的“开源”,但更具体地说,我指的是那些可以在用户自己的硬件上下载并运行的模型,而不是通过API提供的模型。
水印是在生成时添加的。也就是说,这个过程发生在模型权重之外的黑盒子魔法处理中,在选择基于模型输出的常规代码中进行。因此,从开源模型中移除水印非常简单(只需删除添加水印的代码部分),这就意味着水印只有在通过API实施时才有实际意义,这样LLM提供商就可以强制执行水印。
(我怀疑很多人对图像水印或文本水印的看法还是基于所有当时有能力的大型语言模型都通过API提供的时候形成的,他们还没有更新他们的看法。也许他们在读这些文字时已经开始改变了……)
所以,如果你想有一个带水印的世界,你就得要就没有开源(可下载)的模型。
也要考虑到,技术高超的恶意用户会知道,如果他们通过API使用一个LLM,他们很可能会被监视。因此,OpenAI在其报告中提到被封锁的恶意账户的情况,并描述了不同科技公司如何共享信息以追踪恶意用户。所以,恶意用户更倾向于使用开源模型来保护隐私,而无论这些模型是否带有水印。然而,在开源模型中,水印技术的效果并不明显。
现在,有些人可能会声称开源模型没有专有模型那么好,因此潜在的危害也较小。或许只有未来的基于API的大型语言模型才足够强大,才能造成真正的危害,所以我们暂时不必担心为开源模型添加水印。即便如此,这并不能成为不给开源模型添加水印的理由,因为你可以用开源模型改写输出内容来移除更强大模型的水印。而且,即使更聪明的语言模型也无需更复杂的改写方法来移除水印,当今的模型总是足够用来移除水印,不管未来如何。
有些人可能会说,水印可以通过重新表述来绕过,但这仍然是一个威慑手段。我礼貌地请求对此进行量化:有多少怀有恶意的人会被威慑到,以及在生成那个统计数据时有多少基于愿望的假设?
其次,假如你对一个简单的“威慑”感到满意的话,那么我有一个水印方案要介绍给你!它的运作方式如下:在LLM输出中,只需将普通的空格字符替换为“En空格”字符。它们看起来一样,但实际上可以通过技术手段检测出来不同。这可能看起来像是一个微不足道的例子,但即使是最先进的水印技术,也不比替换空格更稳健。这样一来,供应商可以声称他们的内容可以被检测出是AI生成的,然而,恶意用户通常会找到绕过这些措施的方法,最终你几乎无法通过这些措施来实际减少伤害。
为了更清楚地说明,这个第三条件(不允许开源模型)与第一个条件(所有大规模语言模型都加水印)微妙地不同。第一个条件只是指出我们无法回到过去重来:我们已经有一些没有加水印的大规模语言模型,这是无法改变的事实。而第三个条件则表明我们不能允许用户随意下载和修改这些模型。
所以我阐述了为什么水印不能作为检测AI生成文本的有效手段,并希望你能清楚地看到这个想法的无法克服的难题。
这时,你可能想要停下来想一想:如果不使用水印,我们还可以研究哪些其他的技术手段来达到检测AI生成文本的目标?
这个问题值得思考,但我建议再进一步思考:检测由AI生成的文本的目标有意义吗?
检测由AI生成的文字有意义吗?
让我们来探索这一点问题,想象在一个另一个宇宙中,所有的生成文本的AI都加上了水印并且可以被检测到,没有例外的情况。这看起来像是一个胜利,不是吗?一个目标达成了,一个难题解决了。
但当你深思熟虑,就会发现这并没有解决任何问题,并且“检测AI生成的文本”也不是一个理想的目标。
我们得考虑两个问题。
- AI生成的文本和人类写的文本之间并没有明显的界限
- ‘由AI生成’并不等同于‘有害’
让我们仔细看看每一个。
1. 这不是一個非此即彼的问题一个人可以写一段文字,然后让大型语言模型帮忙整理一下(我希望更多人这样做)。一个大型语言模型可以总结几篇由人类撰写的资料,并报告其中的共同主题。一位科学家可以用爱沙尼亚语写一篇论文,然后让大型语言模型帮忙翻译成英语以便发表。
在所有这些情况下,底层的思想和概念都是人类的,只是由AI组织或重新安排。那么这算作“AI生成”的吗?(考虑一下这个问题,你个人的答案是什么,同时也要考虑到,并不是所有人都会同意这一点。)
随着大规模语言模型变得越来越好用,越来越多的人发现AI能帮助他们写作和创意,越来越多的内容将更多地受到AI的影响。
所以这并不是一个简单的是非题,只会变得越来越模糊。
这是糟糕解决方案的一个常见原因:将一个大部分情况下是二元系统的系统当作一个严格的二元系统来处理(通常是因为二元输出很方便——“如果提交的论文带有LLM水印,就直接拒绝它”)。这些解决方案乍一看似乎不错,但实际上对这些“例外”情况处理不当,会有未定义的结果。
所以,任何只关注检测AI生成文本而不考虑误报和漏检的人,这种思考方式本质上是存在问题的。你应该对那些未处理误报和漏检的人保持警惕。
2. 并不是所有的AI生成内容都有害对于任何想要检测AI文本的情况,思考你为什么这么做是有价值的。你的实际目标可能稍有不同,比如减少错误信息的传播或防止学生作弊。
人工智能生成的内容和我们想避免的有害内容之间的维恩图如下所示:
现在,在这篇帖子中,我提出了容易认同的观点(开源大规模语言模型的存在是不可否认的)。但我现在却给维恩图中的两个圆圈设定了大小,你可能认为我错了,觉得大多数AI生成的内容是有害的。这没问题。要继续讨论,我们只需要同意一个观点,即不是所有AI生成的内容都是有害的,也不是所有有害的内容都由AI生成。
所以,即使我们真的能够做到准确识别由AI生成的内容,我们还有两个重要的问题需要考虑。
- 我们如何只筛选出有害内容?
- 对于那些不是由AI生成的有害内容呢?
这个想法——“我们需要一种方法来检测由AI生成的内容”——是所谓的“目标转换”的结果。当我深入思考一个问题时,我会寻找目标转换的迹象,因为这通常意味着逻辑出了问题,以及无效的努力。
在这里,目标切换的工作原理是这样的:我们开始处理AI带来的一些新的危害(如传播错误信息、欺骗学生等行为)。真正的目标是防止或减轻这些危害的影响。这些危害都是由AI生成的内容引起的,所以这样做似乎很合理,即将目标切换到一个代理目标,即“检测AI生成的内容”。然后人们会致力于这个代理目标,具体来说就是通过添加水印来实现。
有时候改变目标是无害的。但在这种情况下,从减少伤害的真实目标转向检测AI生成内容的替代目标并不合适(如有限重叠的维恩图所示)。因此,即使我们实现了替代目标,实际上也没有减少任何伤害,未能实现真正目标。
作为一个旁注(这里有一个辛辣的观点),这也是任何针对“AI内容”的立法所犯的同一逻辑错误。初衷虽是减少伤害,但措辞很快从“减少伤害”转变为“由AI生成的内容的标示”,仿佛二者可以等同。
好的,刚才讨论了检测AI生成文本逻辑的抽象论点。现在让我们来看一下水印技术本应帮助解决的几个具体问题,并看看这些问题是如何被处理的。
具体减害措施(请继续想象一下,在一个所有由人工智能生成的文字都被加上了水印的平行世界中。)
大规模错误信息传播这里的风险在于,大型语言模型使得定向传播虚假信息的规模达到了前所未有的程度。乍一看,检测 AI 生成的文本似乎简单易行,但真正的目标是防止虚假信息的传播,无论它是通过 AI、内容农场还是个人产生的。
而且虚假信息只是所有AI生成文本的一部分,一旦你检测出一段文本是由AI生成的,你还需要判断它是否为虚假信息。在识别出AI文本和实际减少其潜在危害之间,还有一段距离。
当然,更好的解决方案是能识别假消息。
给社交媒体上的AI内容打标签有一种常见的看法认为,AI生成的文本本质上是“质量差的”。即使没有说明,任何以“透明度”之名要求标注的要求都暗含了这一点。
确实,社交媒体上有一些AI生成的内容可能不太好,但同样也存在着很多积极的可能性。任何产品公司都可以部署一个助手机器人来解答用户的问题(无论他们在哪里提问)。大学的海洋生物学系可以设立一个机器人来回答有关鲨鱼的问题。一个Snopes机器人可以主动打击虚假信息,用礼貌的方式纠正错误信息,让需要的人看到真相。(AI在这方面比人类更擅长以礼貌的方式澄清错误。)
随着时间的推移,人们将会依赖和享受由人类内容修改而成的由人工智能生成的内容。如果所有这些内容,不论是好是坏,都被标为“AI生成”,这样的标签很快就会变得毫无意义,因为它不再符合人们对质量、真相、教育和娱乐的期待。
与此同时,回到现实,别忘了那些心怀不轨的人会绕过水印,使得他们的文本自动带有“人类生成”的标签,从而帮助他们欺骗他人。
目前,这种目光短浅且不合逻辑的标记人工智能生成文本的想法只是暂时的,但情况可能会更糟。现行规定仅要求对人工智能生成的文本进行标注,但如果进一步尝试限制人工智能生成的文本,可能会阻碍有益的AI发展。因此,这种简单化的态度——“AI不好,人类好”——从长远来看可能会带来伤害。我们应该认真审视基于这种假设(无论明确还是隐含)的任何监管措施。
有些人会认为贴标签是为了让用户知道内容“不是人类写的”。有趣的是,想象一下有人告诉你我们有“知情权”,要知道内容是否由左撇子写的。你会觉得奇怪,为什么要知道这个?将这描述为一种“知情权”只是一种掩饰,认为机器人写的内容就不好,而人类写的就是好的。
顺便说一下:我认为在一个聊天环境中,知道你是跟真人聊天还是跟机器人聊天是有意义的。你不需要在对话中添加水印,只需确保聊天机器人不会自称是人类(在某些地区,这可能已经可以通过现有的虚假宣传法来规范)。需要注意的是,这样的区分会更明确,聊天时可以轻易分辨出是真人还是机器人。展望未来,如果机器人在像医疗建议这样的领域表现得比人类更好时,用户会希望知道是跟机器人聊天,以便获得最好的建议。这不仅合理,而且很有远见。
互动式电子邮件骗局一个严重的风险是利用AI进行电子邮件欺诈,这种欺诈可以以前所未有的规模操纵受害者,例如网络钓鱼、资金提取等。如果巧妙执行,这可能会造成严重的伤害(想象一个世界,那里诈骗不再是明目张胆的,骗子比你还聪明)。
检测由AI生成的文字似乎在这种情况很有用,但我们仍然面临与检测错误信息同样的问题;恶意生成的AI文字仅占所有AI生成文字的一小部分,那么我们该如何迈出从“检测AI文字”到“检测AI欺诈”这一步呢?
更好的解决方案是识别恶意或欺诈内容,无论这些内容是由谁写的或通过什么方式产生的。
现在,我承认,如果我和我的老板通过邮件交流,他们要求我从公司账户转账到比特币账户,并且每封邮件都被标记为由AI生成,这可能会让我犹豫不决。所以,如果假设骗子愿意使用加水印的文本,这倒是个不错的主意。但当然,他们不会这么做。他们会绕过水印,他们的诈骗邮件不会被标为AI生成。
学生抄袭作文这个例子更合适,可能是最强的水印案例(如果不能绕过它的话)。
如果老师让学生写作文,并且不许他们用大型语言模型,那么“AI写的文字”和“不当行为”几乎完全吻合。
但即使查出AI写的文字也能让你大部分时候正确地识别作弊者,你仍然会错过那些没有使用大型语言模型或绕过了水印的作弊者。而且,你还会错将学生误认为作弊者,特别是在当你对数百万学生进行测试且后果严重时,这将是一个大问题。
此外,我认为学生们应该利用大型语言模型来帮助他们思考和构建论点,挑战他们自己提出的观点,并帮助他们提升文笔水平。这已经成为一项非常有用的生活技能,因此需要小心,不要惩罚这种行为。
现在,如果你仔细思考这种作弊的情况,你就会发现水印系统又会发现结构上的漏洞。
每当谈到带有水印的内容时,就需要有一个公开可用的系统来检测这些水印。如果你是一个作弊的学生(在那个所有大型语言模型输出都被打上水印的平行世界)。你的目标是作弊并避免被检测出来。你会怎么做?你会让一个LLM写一篇(带有水印)的论文,修改一些字词,然后使用检测系统检查水印是否仍然可以被检测出来。如果被标记为AI生成的文本,你就会再修改一些内容并再次检查,如此反复。你不会被抓住,因为你不会提交一篇能够被检测到水印的论文。
在我们继续之前,我想先澄清一点,我想澄清一点,我并没有建议这些问题不存在简单的解决方案。我只是想说清楚,检测AI生成的文字并不是一个解决方案。
水印完全没有用吗?关于水印的讨论让我想起了区块链技术。两者都是有趣的技术成就,有很多关于它们如何解决各种社会问题的解释。但大多数这些解释都包含错误的逻辑或基于错误的假设。即使是权威来源也乐于重复那些不合逻辑的说法,因此要弄清楚什么实际上是真实的确实相当困难。
说起来,有许多聪明的人组成的大型团队在研究水印,所以可以合理地假设,水印确实有其正当的理由,只是可能不像宣传的那样有效减少危害。
据我了解,水印的主要用途是让开发大型语言模型(LLM)的人能够检测出由他们的LLM生成的内容,从而在用于未来训练的数据集中识别这些文本。
它还允许大规模语言模型的开发人员遵守诸如欧盟《人工智能法》第50(2)条这样的规定,这些规定要求添加水印。(希望这些规定不是基于错误地认为水印可以减少社会风险的假设)。
这给我们留下了一个小谜团。为什么这么多人把数字水印当作解决AI造成社会问题的解决方案来谈论,而稍微想一想就能发现它根本不是解药呢?谁被误导了,谁又在误导呢?
如果被迫猜测的话,我会假设撰写这些论文的研究人员了解水印所起的有限作用;他们希望检测由实现水印的大型语言模型(LLM)生成的文本,并且知道水印在某些条件下(比如温度为零时)不起作用。他们将研究结果撰写成论文,并在摘要中加以总结,添加一些减少危害的措辞,使论文更具吸引力。记者们报道这一话题时,添加了自己的修饰,将水印描绘成普通人也应关心的问题。到了信息传递到普通公众和政策制定者那里时,水印被描绘成一种区分AI生成文本和人类文本的方法,从而终结AI传播错误信息、作弊写作文等问题。
也许如果我们有更有效的系统来识别虚假信息,这些说法在传播之前就能被阻止。
说起来,如果我似乎特别反对水印技术,那其实并非如此。我认为这项技术本身是很有创意和巧妙的——谁不喜欢一点隐藏信息的技术呢?我的问题是关于水印能检测AI生成的文字的说法(这是误导性的),以及减少危害的说法(这是不准确的,几乎可以说是错误的)。
向正确方向迈出的一步?我让ChatGPT来挑战我在本文中提出的论点。它向我保证,虽然水印确实存在所有这些弱点,但这仍然是“正确的一步骤”。
我想象一个人站在悉尼海滩上,需要前往洛杉矶市。当他们走进海里,消失在波涛中时,他们声称自己是在“朝正确的方向迈出了一步”。从技术上说没错,但从本质上说却是错的。
如果我们目的是防止伤害(确实如此!),一个真正有效的措施应该专注于检测和减少有害内容,而不是纠结于“AI生成”的烟幕弹。
非文本媒介迄今为止,我所说的完全是关于AI生成的文本。但是,上述逻辑是否也适用于水印处理照片和视频?或者在减少潜在风险的背景下,这些形式在概念上是否存在差异?
说到底,文字始终只是对现实的解释,而照片和视频则常被视为现实的记录。因此,照片和视频更容易造成误导,因为它们可以被当作证据展示并被接受。
我承认有这种直觉,特别是对于视频水印,它有可能减少危害,尤其是。尤其是在这些高级视频生成模型仍然通过API访问时。每当我有这种感觉时,我喜欢再仔细思考一下。如果从恶意用户的角度来看,我可能会选择移除水印(通过翻转、裁剪、调整大小等方式),或者使用其他没有水印的方法,比如深度伪造。
说实话,我认为水印的效果在各种形式的内容中都是一样的:你都不会在恶意用户制作的内容中发现水印,因为他们总会想方设法绕过水印。
所以我觉得任何形式的水印都看不到美好的前景。
然而,与文本形式不同,分辨真实和合成图像的目标其实很有意义,因为它们在社会中的角色是作为证据,因此。但与其试图检测各种形式的伪造内容,更实际的方法是通过在图像被捕获时对其进行数字签名来识别真实内容。这叫作 内容来源。截至2024年11月,,一些相机已经支持这一功能,YouTube也开始为符合条件的内容打上“由相机捕获”的标签。
这解决了有人行为不当被摄像头拍到后却将其归因于深度伪造的问题。(图像作为证据的丢失带来的长期风险比少数人被假图像欺骗的风险更大。)通过内容来源验证,将会有数字签名的记录证明,该图像确实在特定的时间和地点直接由特定的数字相机拍摄。当然,犯错者仍然可以声称视频是通过非数字手段伪造的,而他们的忠实粉丝仍然会相信他们。
长远来看,检测真实内容似乎是一个更好的选择,而不是尝试给所有AI生成的内容添加水印。
针对上述建议修改后的翻译问题
最后,我将通过提问的形式,再次强调我对水印的主要观点,尤其是那些制定强制使用水印法规的人:
- 既然已经存在功能完备且未加水印的开源LLM,那么对部分LLM加水印如何能减少危害?您是否希望恶意用户不会利用未加水印的LLM?
- 您是否建议消除像将温度设置为零(这会防止加水印)这样的功能?那么,您打算如何处理这些在高温下无法正常工作的系统?
- 您是否建议全球禁用开源LLM?如果不是,您打算如何确保水印可以被不可移除地应用于开源LLM?
- 您是否建议提供一个公开可用的水印检测服务?如果是的话,恶意用户是否会利用这个服务来确保水印已被成功移除(例如,通过使用另一个LLM进行改写)?
- 如果您承认有多种方法可以生成未加水印的AI文本,但依然认为水印能起到“威慑”作用,请给出具体数量。您认为加水印可以威慑1%的恶意用户吗?99%?依据是什么?剩余的危害是否可以接受,或者您还有计划解决这个问题吗?
- 您如何区分AI生成的文本和人类撰写的文本?由ChatGPT编辑的新闻文章算不算AI生成的?通过LLM翻译的文章呢?由LLM为作者总结文章生成推文的算吗?
- 如果您已经知道如何直接识别有害内容,那么为什么还要先识别AI生成的文本呢?
就是这样,谢谢大家的阅读。
共同學習,寫下你的評論
評論加載中...
作者其他優質文章