找回密码
 立即注册
查看: 212|回复: 0

OpenAI官方推出AI生成内容识别器,但成功率只有26%,网友:还不如论文查重东西

[复制链接]

1

主题

0

回帖

19

积分

新手上路

积分
19
发表于 2023-5-8 09:51:28 | 显示全部楼层 |阅读模式
识别 ChatGPT 生成的内容,OpenAI 亲自上阵了。
机器之心报道,编纂:泽南、杜伟。
很多人也许已经忘记,ChatGPT 正式发布时间是去年 11 月底,到此刻才方才两个月,但它掀起的热潮却已引发科技公司纷纷跟进,催生了独角兽创业公司,还让学术界改削了论文接收的要求。
在 ChatGPT 引发 AI 范围「是否要禁用」大讨论之后,OpenAI 的真假分辩东西终于来了。
1 月 31 日,OpenAI 官宣了区分人类作品和 AI 生成文本的识别东西上线,该技术旨在识别自家的 ChatGPT、GPT-3 等模型生成的内容。然而分类器目前看起来准确性堪忧:OpenAI 在博客里指出 AI 识别 AI 高置信度正确率约为 26%。但该机构认为,当它与其他方式结合使用时,可以有助于防止 AI 文本生成器被滥用。
「我们提出分类器的目的是辅佐减少人工智能生成的文本造成的混淆。然而它仍然有一些局限性,因此它应该被用作其他确定文本来源方式的补充,而不是作为主要的决策东西,」OpenAI 发言人通过电子邮件对媒体介绍道。「我们正通过这个初始分类器获取有关此类东西是否有用的反馈,并但愿在未来分享改良的方式。」
比来科技范围随着围绕生成式 AI,尤其是文本生成 AI 的热情正在不竭增长,但相对的是人们对于滥用的担忧,批评者呼吁这些东西的缔造者应该采纳法子减轻其潜在的有害影响。
面对海量的 AI 生成内容,一些行业立刻作出了限制,美国一些最大的学区已禁止在其网络和设备上使用 ChatGPT,担忧会影响学生的学习和该东西生成的内容的准确性。包罗 Stack Overflow 在内的网站也已禁止用户共享 ChatGPT 生成的内容,称人工智能会让用户在正常的讨论中被无用内容覆没。


这些情况突出了 AI 识别东西的必要性。虽然效果不尽如人意,但 OpenAI AI 文本分类器(OpenAI AI Text Classifier)在架构上实现了和 GPT 系列的对标。它和 ChatGPT 一样是一种语言模型,是按照来自网络的许多公开文本示例进行训练的。与 ChatGPT 分歧的是,它颠末微调可以预测一段文本由 AI 生成的可能性 —— 不仅来自 ChatGPT,也包罗来自任何文本生成 AI 模型的内容。
具体来说,OpenAI 在来自五个分歧组织(包罗 OpenAI 本身)的 34 个文本生成系统的文本上训练了 AI 文本分类器。这些内容与维基百科中相似(但不完全不异)的人工文本、从 Reddit 上共享的链接中提取的网站以及为 OpenAI 文本生成系统收集的一组「人类演示」配对。
需要注意的是,OpenAI 文本分类器不适用于所有类型的文本。被检测的内容至少需要 1000 个字符,或大约 150 到 250 个单词。它没有论文检测平台那样的查重能力 —— 考虑到文本生成人工智能已被证明会照抄训练集里的「正确答案」,这是一个非常难受的限制。OpenAI 暗示,由于其英语前向数据集,它更有可能在儿童或非英语语言书写的文本上犯错。
在评估一段给定的文本是否由 AI 生成时,检测器不会正面回答是或否。按照其置信度,它会将文本标识表记标帜为「非常不成能」由 AI 生成(小于 10% 的可能性)、「不太可能」由 AI 生成(在 10% 到 45% 之间的可能性)、「不清楚它是否是」AI 生成(45% 到 90% 的机会)、「可能」由 AI 生成(90% 到 98% 的机会)或「很有可能」由 AI 生成(超过 98% 的机会)。
看起来和图像识此外 AI 很像,除了准确程度。按照 OpenAI 的说法,分类器错误地将人类编写的文本标识表记标帜为 AI 编写的文本的概率为 9%。
一番试用之后,效果的确不大行
OpenAI 传布鼓吹其 AI 文本分类器的成功率约为 26%,一些网友上手试用之后,发现识别效果果然不行。
知名 ML 和 AI 研究人员 Sebastian Raschka 试用之后,给出了「It does not work」的评价。他使用其 2015 年第一版的 Python ML 册本作为输入文本,成果显示如下。

  • Randy Olson 的 foreword 部门被识别为不清楚是否由 AI 生成(unclear)
  • 他本身的 preface 部门被识别为可能由 AI 生成(possibly AI)
  • 第一章的段落部门被识别为很可能由 AI 生成(likely AI)


Sebastian Raschka 对此暗示,这是一个有趣的例子,但本身已经为将来可能因离谱的论文识别成果而受到惩罚的学生感到难过了。
因此他提议,如果要部署这样的模型,请共享一个混淆矩阵。否则如果教育者采用这一模型进行评分,则可能会对现实世界造成伤害。此外还应该增加一些有关误报和漏报的透明度。
此外,Sebastian Raschka 输入了莎士比亚《麦克白》第一页的内容,OpenAI AI 文本分类器给出的成果竟然是很可能由 AI 生成。的确离谱!


还有人上传了 AI 写作东西 Easy-Peasy.AI 创作的内容,成果 OpenAI AI 文本分类器判定为由 AI 生成的可能性非常小。


最后,有人用上了反复翻译大法,把文本让 GPT3 重写一遍,也能骗过识别器。


总结一下的话就是正向识别不准,反向识别犯错,也无法识破一些改论文的技巧。看来,起码在 AI 文本内容识别这一范围,OpenAI 还需努力。
参考内容:https://techcrunch.com/2023/01/31/openai-releases-tool-to-detect-ai-generated-text-including-from-chatgpt/
https://openai.com/blog/chatgpt/

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|T9AI - 深度人工智能平台 ( 沪ICP备2023010006号 )

GMT+8, 2024-5-20 08:14 , Processed in 0.060647 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表