找回密码
 立即注册
查看: 232|回复: 0

如何识别【人工智能】生成的文章

[复制链接]

1

主题

0

回帖

7

积分

新手上路

积分
7
发表于 2023-5-8 10:09:19 | 显示全部楼层 |阅读模式


作者:Melissa Heikkilä

你正在阅读的这句话是由一个AI写的,当然,也有可能不是。
OpenAI近期发布的全新聊天机器人ChatGPT把一个问题抛到了我们眼前:我们如何去分辩我们在网上读到的东西是由人类还是机器所写?




自从本年11月底发布以来,已经有超100万的用户体验过它了。它让人工智能讨论社群沉迷,很明显,互联网正被越来越多的人工智能生成的文本所覆没。人们正在用它来缔造笑话,写儿童故事,以及书写更加专业的电子邮件。

ChatGPT是OpenAI的大型语言模型GPT-3的衍出产物,它能针对用户问的问题发生出非常人性化的答案。它出产的的句子看起来是正确的,因为AI以正确的挨次摆列正确的词汇种类。但它并不知道此中的含义。这些模型通过预测一个句子中最有可能呈现的下一个词来完成工作。它们完全不知道某件事情是正确的还是错误的,而且它会自信地编造一些信息以提高回答的可信度,即使那些信息并不是真实的。



在一个已经两极化的网络世界中,这些人工智能东西可能会进一步扭曲我们所接受的信息。如果它们被推广到现实世界的真实产物中,其后果可能是毁灭性的。
人工智能草创公司Hugging Face的政策主管Irene Solaiman说,我们迫切地需要区分人类和人工智能编写的文本的方式,以应对潜在的技术滥用,他曾经是OpenAI的人工智能研究员,为GPT-3的前身GPT-2研究人工智能输出检测。
新的东西对于执行对人工智能生成的文本和代码的封禁也将是至关重要的,就像比出处Stack Overflow颁布发表的那样,这是一个代码从业者可以寻求辅佐的网站。ChatGPT可以垂手可得地回答代码开发类的问题,但它并非万无一掉。错误的代码会导致软件的缝隙和崩溃,修复起来成本很高。



Stack Overflow的一位发言人说,该公司的技术人员正在 "通过一些东西,包罗探索法(Heuristics)和检测模型,对数以千计的来自社区成员所提交的陈述进行审查",但不愿意透露更多细节。
更现实一点的是,想做到这件事非常困难,封禁很可能几乎无法执行。
今天的检测东西
研究人员有各种方式检测人工智能生成的文本。一种常见的方式是使用软件来分析文本的分歧特征。例如,阅读时的流畅程度,某些词汇呈现的频率,以及标点符号或句子长度是否是参照了模式某种模式。



"如果你有足够的文章,一个非常容易发现的线索就是'the'这个词呈现的次数太多。“ Google Brain (谷歌的深度学习研究项目)” 的高级研究科学家Daphne Ippolito这样评论道。
因为大型语言模型通过预测句子中的下一个词来工作,它们更有可能使用 "the"、"it "或 "is "这样的常用词,而不是古怪、罕见的词。伊波利托和谷歌的一个研究团队在2019年发表的研究陈述中发现,这正是自动检测系统擅长的文本。
但伊波利托的研究还显示了一些有趣的事情:人类用户倾向于认为这种 "干净 "的文本看起来更好,包含的错误更少,因此认为它必然是由人写的。



在现实中,人类写的文本充满了错别字,而且变化无穷,还包含了分歧的写作风格和俚语,而 "语言模型非常、非常少地呈现错别字。他们更长于生成完美的文本,"伊波利托说到。
她补充说:"文本中呈现的错别字实际上是一个非常好的指标,表白它是人类写的,"。
大型语言模型本身也可用于检测人工智能生成的文本。加拿大不列颠哥伦比亚大学自然语言措置和机器学习研究主席穆罕默德-阿卜杜勒-马吉德(Muhammad Abdul-Mageed)说,最成功的方式之一是在一些由人类写的文本和其他由机器缔造的文本上从头训练模型,这样它就能学会区分这两种情况。



同时,德州大学的计算机科学家Scott Aaronson在OpenAI做了一年的研究员,他一直在为GPT-3等模型生成的较长的文本开发“水印“,"在AI的选词上有一个其他方面无法察觉的奥秘信号,你可以用它来证明,是的,这来自GPT,"他在博客中写道。
OpenAI的一位发言人证实,该公司正在研究水印问题,并暗示其政策规定,用户应该以一种没有人可以合理地误解的方式表白由人工智能发生的文本。
但这些技术上的修正都有很大的注意事项。他们中的大大都人在面对最新一代人工智能语言模型时都没有机会去发现缝隙,因为他们的东西是成立在GPT-2或其他早期模型上的。许多这些检测东西在有大量文本可用时效果最好;在一些具体的用例中,如聊天机器人或电子邮件助手,它们的效率会降低,因为它们依赖较短的对话,提供较少的数据来进行分析。而且使用大型语言模型进行检测还需要强大的计算机,以及对人工智能模型本身的访谒,而这是科技公司不允许的,Abdul-Mageed说。
索拉曼说,模型越大、越强大,就越难成立人工智能模型来检测哪些文本是人类写的,哪些不是。
"此刻令人担忧的是,ChatGPT有着非常令人印象深刻的输出。检测模型无法跟上,"她说。



依靠人类识别
索拉曼说,检测人工智能编写的文本没有“银弹“。她说:"一个检测模型不会成为你检测合成文本的答案,就像安全过滤器不会成为你减轻成见的答案一样。
为了有机会解决这个问题,我们将需要改良技术,并在人类与人工智能互动时提高透明度,人们将需要学会发现人工智能编写的句子的迹象。
"伊波利托说:"如果Chrome浏览器或你使用的任何网络浏览器有一个插件,能让你知道你的网页上的任何文本是机器生成的,那就真的太好了。
一些辅佐已经呈现了。哈佛大学和IBM的研究人员开发了一个名为 "巨型语言模型测试室"(GLTR)的东西,它通过突出可能由计算机法式生成的段落来撑持人类。
但人工智能已经在愚弄我们了。康奈尔大学的研究人员发现,人们发现由GPT-2生成的假新闻文章约有66%的时间是可信的。
另一项研究发现,未经训练的人类能够正确识别由GPT-3生成的文本,但其成功率基本上是随机的。
伊波利托说,好动静是,人们可以被训练得更长于发现人工智能生成的文本。她成立了一个游戏,测试在玩家发现它不是人类之前,计算机可以生成多少句子,并发现随着时间的推移,人们逐渐变得更好。



她说:"如果你看了很多生成的文本,并试图找出此中不合理的处所,你就能在这项任务中变得更好。一种方式是挑出不合理的语句,比如人工智能说做一杯咖啡需要60分钟。
GPT-3,ChatGPT的前身,从2020年才开始呈现。OpenAI公司说ChatGPT只是一个演示,但类似的强大模型被开发并推广到其它产物中只是时间问题,比如用于客户处事或医疗保健的聊天机器人。而这就是问题的关键地址:这一范围的成长速度意味着每一种检测AI生成的文本的方式城市很快过时。这就像是一场军备竞赛,此刻人类正在输掉这场比赛。
<hr/>数字传染打动生活,欢迎存眷上海白日梦科技,留下您评论和点赞吧~

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|T9AI - 深度人工智能平台 ( 沪ICP备2023010006号 )

GMT+8, 2024-5-20 08:51 , Processed in 0.062138 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表