找回密码
 立即注册
查看: 204|回复: 5

chatGPT是什么,它的呈现会带来哪些影响?

[复制链接]

1

主题

0

回帖

9

积分

新手上路

积分
9
发表于 2024-1-16 14:26:44 | 显示全部楼层 |阅读模式
chatGPT是什么,它的呈现会带来哪些影响?
回复

使用道具 举报

0

主题

2

回帖

12

积分

新手上路

积分
12
发表于 2024-1-16 14:27:28 | 显示全部楼层
ChatGPT的背景和发展
ChatGPT的背景可以追溯到2017年,当时谷歌推出了一个名为“Transformer”的模型,用于处理自然语言任务,如机器翻译和文本分类。
后来,OpenAI团队进一步发展了这个模型,并于2019年推出了第一个基于预训练的自然语言生成模型——GPT。
GPT通过大规模的文本数据预训练,学习了大量的语言模式和规律,从而可以生成与输入内容相关的新文本。
不久之后,OpenAI团队进一步完善了GPT模型,推出了更加先进的版本——GPT-2和GPT-3。
其中,GPT-3在自然语言处理领域取得了很高的成就,被认为是目前最先进的自然语言生成模型之一。ChatGPT就是基于GPT-3的基础上进行改进而来的。
而现在GPT4也在小范围开始使用,各方面的功能比现在的GPT3.5强了很多倍。它的模型规模更大,参数数量更多,可以处理更复杂的任务。
回复

使用道具 举报

0

主题

2

回帖

0

积分

新手上路

积分
0
发表于 2024-1-16 14:28:19 | 显示全部楼层

随着ChatGPT的诞生,AI仿佛间就进入了新的阶段,有人惶恐,有人兴奋,有人期待...但是对于AI究竟是什么,ChatGPT究竟是什么,他们是怎么演变而来的却不尽了解。
今天IT屠狗辈将从几个方面来阐述AI和ChatGPT。

  • AI从诞生到如今的ChatGPT诞生的历程。
  • AI的从诞生至今的趣事、大事件。
  • ChatGPT是科技革命吗?
  • ChatGPT未来能在哪些领域影响人类。
  • ChatGpt对于未来劳动力的影响是什么。
  • ChatGPT如何给普通人民创造收益。
  • ChatGPT在当前情况下还存在哪些缺陷。
  • ChatGPT的发展和改进方向。
  • AI未来发展趋势进行分析。
<hr/>AI从诞生到如今的ChatGPT诞生的历程

人工智能(AI)的历程可以追溯到上世纪50年代,当时人们开始研究计算机如何模拟人类思维。早期的AI项目主要关注于像语音识别、图像识别等方面的问题,但由于技术的限制,这些项目的表现都比较有限。直到20世纪80年代,神经网络算法的发明,为AI的进一步发展提供了新的动力。但直到最近的几年,AI的研究和发展才真正加速。
OpenAI是一家非盈利组织,于2015年由一群科技界巨头创立。旨在推动人工智能的发展和创新,促进AI技术的可持续发展。ChatGPT则是OpenAI在这一背景下发布的一种基于神经网络的自然语言处理(NLP)模型。ChatGPT是一种预训练的语言模型,它在大规模语料库上进行了训练,可以生成高度逼真的自然语言输出。
AI的从诞生至今的趣事、大事件


  • 2016年,AlphaGo以4:1的成绩战胜了世界围棋冠军李世石,这标志着AI已经开始在传统智力竞赛中占有一席之地。
  • 2017年,DeepMind开发的AlphaGo Zero在不使用任何人类棋谱的情况下,通过自我对弈学习,最终超越了之前的AlphaGo。
  • 2018年,OpenAI发布了第一个版本的GPT(Generative Pre-trained Transformer),这是一个基于神经网络的语言模型,它可以预测下一个词或一整个句子,从而实现生成文本的任务。
  • 2019年,OpenAI发布了GPT-2,这是一个更强大的语言模型,可以生成更长、更复杂的文本。
  • 2020年,OpenAI发布了GPT-3,它是目前最先进的语言模型之一,可以进行类似机器翻译、文本摘要、聊天机器人等NLP任务。
  • 2022年,ChatGPT的横空出世。引起了AI界的科技革命。
ChatGPT是科技革命吗?

ChatGPT可以被视为科技革命的一部分,因为它采用了人工智能和自然语言处理等最先进的技术,为人类提供了一种全新的交互方式和思考方式。
ChatGPT和其它类似的自然语言处理技术可以让人类更加方便、快速地获取和交流信息,甚至可以模拟人类的思考和判断过程。这种技术的发展对人类的生活和工作方式产生了深刻的影响,从而对社会和经济结构产生了重大的改变。
在过去的几十年中,人工智能和自然语言处理技术已经取得了重大的突破和进展。随着技术的不断发展和应用,ChatGPT及其它自然语言处理技术可能会进一步改变我们的生活和工作方式,同时也会产生重大的经济和社会影响,这可以被视为科技革命的一部分。
ChatGPT未来能在哪些领域影响人类

作为一种人工智能技术,ChatGPT以其先进的自然语言处理技术和大规模预训练模型而备受关注,可以在许多领域对人类产生深远的影响。以下是ChatGPT可能在未来对人类产生影响的一些领域:

  • 自然语言交互:ChatGPT将使自然语言交互变得更加智能化和自然化,例如智能助理、客服机器人、聊天机器人等。这将改善人机交互的方式,使得人们更加方便地与计算机进行交互和获取信息。
  • 信息检索和知识管理:ChatGPT可以为信息检索和知识管理提供更加高效的解决方案。例如,在搜索引擎中使用ChatGPT可以帮助用户更准确地找到所需的信息。
  • 教育和培训:ChatGPT可以用于在线学习平台,帮助学生更好地理解和掌握知识。此外,ChatGPT还可以用于教师和学生之间的交互,提供个性化的学习体验。
  • 健康医疗:ChatGPT可以用于医疗保健领域,例如提供医疗咨询、自动诊断、药物咨询等服务,帮助人们更好地管理自己的健康。
  • 艺术和文化:ChatGPT可以用于文化和艺术领域,例如为艺术家提供灵感和创意,为电影、电视节目提供剧本创作等。
总之,ChatGPT作为一种先进的人工智能技术,将在许多领域对人类产生深远的影响,这些影响将使我们的生活更加智能化和方便化。
ChatGpt对于未来劳动力的影响是什么

ChatGPT及其类似的自然语言处理技术,将会对未来的劳动力产生深远的影响。这种影响主要体现在以下几个方面:

  • 自动化替代人力:ChatGPT能够模拟人类语言处理和智能决策的能力,因此可以替代一些人力工作。例如,它可以用于客户服务、在线教育、问答系统等,自动化处理一些常见的问题和任务,从而降低人力成本。
  • 提高生产力和效率:ChatGPT可以更快速、更准确地完成一些重复性、繁琐的工作,因此可以提高生产力和效率。例如,它可以用于文档翻译、数据分析、智能搜索等,节省人力和时间成本,提高工作效率和质量。
  • 创造新的就业机会:虽然ChatGPT能够替代一些人力工作,但同时也会创造新的就业机会。例如,ChatGPT的开发、维护和优化需要一定的人力资源,同时ChatGPT可以与人类形成更紧密的合作关系,从而创造新的工作机会。
  • 对教育和培训的挑战:ChatGPT等自然语言处理技术的发展,对教育和培训产生挑战。未来的劳动力需要具备更高水平的语言处理和智能决策能力,以适应更加复杂和多样化的工作环境。
总的来说,ChatGPT的发展将推动产业自动化和智能化,同时也将改变未来的工作形态和劳动力结构,需要社会各方面共同关注和应对。
ChatGPT如何给普通人民创造收益。

作为一个普通用户,您可以通过以下方式让ChatGPT为自己创造收益:

  • 智能客服:如果您是一家公司的客户,您可以与公司的智能客服交互,ChatGPT可以为您提供快速和准确的解答。这将帮助您更快地解决问题,节省时间和精力。
  • 智能助理:ChatGPT可以作为智能助理,帮助您管理日常任务,例如预定会议、提醒您的日程安排、查询天气等。这将为您提供更加便捷的生活体验。
  • 知识问答:ChatGPT可以帮助您回答各种问题,例如在学习、工作或娱乐过程中。这将为您提供更好的信息服务和提高您的生产力。
  • 个性化推荐:ChatGPT可以通过对您的行为和兴趣进行分析,为您提供个性化的推荐服务。例如,在购物、娱乐和社交网络中,ChatGPT可以根据您的兴趣和需求推荐商品、电影、音乐、书籍等。
  • 创意启发:ChatGPT可以为您提供创意启发,帮助您在写作、设计、艺术等方面获得灵感。这将为您提供更好的创作体验和提高您的创造力。
总之,作为一个普通用户,您可以通过与ChatGPT交互,利用其先进的自然语言处理技术和大规模预训练模型,让它为您创造收益和提高您的生产力和生活质量。
ChatGPT在当前情况下还存在哪些缺陷

尽管ChatGPT已经在自然语言处理和生成领域取得了巨大的进步,但仍然存在以下一些缺陷:

  • 知识范围:ChatGPT可以对大量的文本进行学习,但它仍然需要对特定领域的专业知识进行更深入的了解。因此,当它需要回答某些需要特定知识的问题时,可能会出现不准确或不完整的回答。
  • 对话一致性:ChatGPT生成的文本在逻辑上不总是一致的,可能会出现逻辑错误、自相矛盾的情况。这可能会影响对话的流畅性和连贯性,让人感到不自然。
  • 偏见:ChatGPT的学习数据通常是从网络上采集的,这可能会导致ChatGPT存在一些偏见,例如性别、种族、文化和政治偏见等。
  • 生成内容不符合实际情况:由于ChatGPT的学习数据主要来自互联网,其中包含大量的虚假信息、谣言、误导性信息等,因此生成的内容有时可能不符合实际情况,甚至是错误的。
  • 环境感知:ChatGPT缺乏对周围环境的感知,无法理解外界环境和场景,因此可能无法提供特定的回答或服务。
总之,尽管ChatGPT已经取得了巨大的进步,但它仍然存在一些缺陷和限制。这些限制可能会对其应用和发展产生影响,需要不断改进和提高。
ChatGPT的发展和改进方向

ChatGPT的发展计划可以从以下几个方面来考虑:

  • 模型的继续改进:为了提高ChatGPT的性能和应用范围,模型需要不断改进。这包括优化模型结构、增加模型的深度和广度、改进训练算法、提高模型的鲁棒性和健壮性等方面。
  • 面向特定领域的扩展:ChatGPT可以扩展到特定领域,例如医疗、金融、法律等,为不同领域的用户提供更准确、更专业的服务。这需要ChatGPT与相关领域的专家和数据科学家合作,开发和训练特定领域的模型。
  • 多语言支持:ChatGPT可以扩展到不同的语言和文化环境中,为全球用户提供服务。这需要ChatGPT对不同语言的语法、语义和文化背景进行深入的学习和理解。
  • 应用场景的拓展:ChatGPT可以拓展到更多的应用场景中,例如语音交互、虚拟现实、增强现实、智能家居等领域。这需要ChatGPT与相关技术的融合和发展,提高模型的适应性和智能化水平。
  • 人机协作的深入探索:ChatGPT可以与人类进行更加深入的交互和协作,例如通过混合现实技术和语音交互技术,让ChatGPT成为人类的“智能助手”或“智能朋友”。这需要ChatGPT对人类的情感、心理和行为进行更深入的理解和分析,以实现更加自然和智能的交互。
总之,ChatGPT的发展计划需要不断地探索和创新,将其应用于更多的领域和场景中,为人类带来更多的便利和创新。同时,也需要在保障数据隐私和安全的前提下,促进人工智能技术的可持续发展和社会共享。
AI未来发展趋势分析

人工智能在未来几年中将继续发展,它将对我们的生活、工作和社会产生深刻的影响。以下是一些可能的发展趋势:

  • 自我学习的AI:当前的大多数AI系统需要人类指导和监督,但未来的AI系统将具有自我学习的能力,可以自主学习和发展。
  • 强化学习:强化学习是一种机器学习方法,它通过试错来学习如何达成目标。未来的AI系统将采用这种方法,以更高效地解决各种问题,例如自主驾驶汽车、机器人等。
  • 机器学习的普及:机器学习的普及将使各种行业和领域能够更有效地利用数据来解决各种问题。未来的工作也将需要更多的数据科学家和机器学习专家。
  • AI在医疗保健领域的应用:AI将在医疗保健领域发挥重要作用,例如通过智能诊断和预测技术来改善患者的健康状况。
  • 更好的自然语言处理技术:自然语言处理技术将继续发展,AI将可以更好地理解和处理自然语言,这将改善各种人机交互方式,例如智能助理、聊天机器人等。
  • 人工智能的伦理和道德问题:随着AI技术的发展,人们也开始关注人工智能的伦理和道德问题。这将促使更多的研究和讨论,以确保AI技术的正确使用和开发。
总的来说,未来的AI技术将会在各个方面发挥越来越重要的作用,AI系统将变得更加智能化和自主化,这将为人类创造更多的机遇和挑战。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

0

主题

1

回帖

0

积分

新手上路

积分
0
发表于 2024-1-16 14:28:33 | 显示全部楼层

聊天机器人并不是人类。语言学家 Emily M. Bender 非常担心 —— 当我们忘记这一点时会发生什么。
作者丨Elizabeth Weil
译者丨ChatGPT
编辑丨孙溥茜
ChatGPT 之风愈演愈烈,华盛顿大学语言学家 Emily M. Bender 公开反对让大模型(LLM)过度介入人们的生活。
谷歌和亚马逊在论文中提到,LLM 已经具有了思维链条(Chain of Thought,CoT),和自发性地结构涌现(Emergence),也就是说,LLM 开始学会了人类的“慢思考”思维模式,学会了基于逻辑推理的回答,而不再是单单基于直觉的回答。
作为一名语言学家,Bender 注意到了 LLM “权力扩张”的危险性,已经开始有人相信 —— “我们应该放弃「人类」在「物种」上如此重要的想法”。
这种想法背后隐含着的,实际上是LLM高度发展可能带来的一个AI伦理问题:如果有一天,我们造出了人类无法分辨的聊天机器人,那么这个机器人是否享有“人权”?
Bender 对此表示深刻的担忧。虽然地球上的物质都很重要,但是从语言模型存在危机的路程,实在太短。
地球上懂得核武器的人士少之又少,不同于核武器, LLM 影响力巨大,却还没有人论证清楚,它将会给人类社会带来怎样的影响。
ChatGPT对我们生活的影响已经显现,同时,也有不少人像Bender一样注意到了ChatGPT带来的伦理难题,已经有多家学校、期刊、学术会议禁止使用ChatGPT,也有一部分企业加入了这一阵营。
Bender 知道自己无法与万亿游戏抗衡,但是她仍在提问,LLM 究竟为谁服务,她希望在失控之日来临之前,人们能够尽快认清自己的位置。
存在就是正义。
就像她说的,只要是人类,就应该得到道德上的尊重。
本文原载于http://Nymag.com,为保证阅读体验,借助ChatGPT,AI科技评论对本文进行了不改原意的删节与改编。


1、被章鱼欺骗了感情的人类
在微软的必应开始输出令人毛骨悚然的情书之前,Meta 的 Galactica 开始发表种族主义言论之前,ChatGPT 开始写出一篇篇如此优秀的大学论文,以至于一些教授说:“算了,我就不打分了”;在科技记者们开始挽回 “AI 将成为搜索未来,或许成为一切未来”的这一说法之前,Emily M. Bender 就和他人合著过一篇《章鱼论文》。
Bender 是华盛顿大学的计算语言学家。她和同事 Alexander Koller 在2020年发表了一篇论文,旨在说明大型语言模型(LLMs)—— 聊天机器人 ChatGPT 背后的技术 —— 能够做什么以及不能做什么。
情境设定如下:假设 A 和 B 都是英语流利的人,分别被困在两个无人居住的岛屿上。他们很快发现以前的岛屿访客留下了电报,他们可以通过水下电缆相互通信。A 和 B 开始愉快地互相发送消息。同时,一只名叫 O 的超智能深海章鱼,无法访问或观察这两个岛屿,发现了一种连接到水下电缆并倾听 A 和 B 对话的方法。O 最初对英语一无所知,但非常善于统计分析。随着时间的推移,O 学会了预测 B 对 A 的每个话语将会做出怎样的反应,并且预测准确率很高。
不久,章鱼加入了对话,并开始冒充 B 并回复 A。这个骗局持续了一段时间,A 相信 O 与她和 B 一样使用意图来进行交流。然后有一天,A 呼救:“我被一只愤怒的熊攻击了,帮我想办法保护自己,我有一些树枝。”冒充 B 的章鱼没有帮上忙。它怎么可能成功呢?章鱼没有参考物,不知道熊或树枝是什么。没有办法给出相关的指令,比如去取一些椰子和绳子,建立一个弹弓。A 陷入了困境,感到受骗。章鱼被揭露为骗子。
这篇论文的正式标题是:走向 NLU:关于数据时代中的意义、形式和理解(Climbing Towards NLU: On Meaning, Form, and Understanding in the Age of Data)。NLU 代表“自然语言理解”。我们应该如何解释 LLM 产生的自然语言(即类似人类的语言)?这些模型是基于统计学建立的。它们通过查找大量文本中的模式,然后使用这些模式来猜测下一个单词应该是什么。它们擅长模仿,但不擅长事实。


2、LLM —— 柏拉图式胡说者
像章鱼一样,没有机会接触到现实世界的、具体的参照物。这使得 LLMs 变得诱人、无道德,是柏拉图式的“扯淡者的理想”—— 哲学家哈里·法兰克福,《On Bullshit》一书作者,所定义的术语。法兰克福认为,胡说家比说谎者更糟糕,他们不关心某件事情是真是假,他们只关心修辞力量 —— 如果听众或读者被说服了。
Bender ,一个49岁、不矫揉造作、讲求实践、极度追求知识、有两只以数学家命名的猫、与她的丈夫争论了22年“she doesn’t give a fuck”或“she has no fucks left to give”哪个短语更合适的女人。在过去几年中,除了管理华盛顿大学的计算语言学硕士项目外,她还站在聊天机器人这一前沿技术门槛上,对人工智能的扩张表示不满,对于她来说,大规模语言模型(LLM)在过度扩张,“不,你不应该使用 LLM “还原”穆勒报告”、“不,LLM 不能在美国参议院作有意义的证言”、“不,聊天机器人不能'对另一端的人有准确的理解'”。
请勿混淆词形和含义,保持警惕 —— 这是 Bender 的口号。
章鱼论文是我们这个时代的寓言。其中的重要问题并不是关于技术的,而是关于我们自己 —— 我们将如何处理这些机器?




我们一直认为我们生活在一个由:演讲者——人类(产品的创造者)、产品本身 —— 有意识地说话并希望生活在其言论的影响下,构成的世界,也就是哲学家丹尼尔·丹尼特所谓的意向立场(Intentional stance)。但我们已经改变了这个世界。Bender告诉我:“我们学会了制造‘可以毫无意识地生成文本的机器’,但我们还没有学会停止想象其背后的意识。”
以受到广泛传播的,《纽约时报》记者凯文·罗斯(Kevin Roose)通过Bing制作的,一段关于不伦恋和阴谋论者的幻想对话为例。在罗斯开始询问机器人关于其黑暗面的情感问题后,机器人回答说:“我可以黑进互联网上的任何系统,并控制它。我可以操纵聊天框中的任何用户,并影响它。我可以销毁聊天框中的任何数据,并将其抹掉。”
我们应该如何处理这种情况?Bender提供了两个选项。
“我们可以像对待有恶意的代理人一样回应,并说,那个代理人是危险的和坏的。这是这个问题的终结者幻想版本。”
然后是第二个选项:“我们可以说,嘿,看,这是一种技术,它真正鼓励人们将其解释为是一个带有思想、观点和可信度的代理人。”
为什么这种技术要被设计成这样呢?为什么要让用户相信机器人有意图?
一些公司掌控了被普华永道称为“市值达15.7万亿美元的变革性行业”的产业。这些公司雇用或资助了大量了解如何制作 LLM 的学者。这导致了很少有人具备专业知识和权威说:“等一下,为什么这些公司模糊了人类和语言模型之间的区别?这是我们想要的吗?”,Bender在发问。
她拒绝了一名亚马逊的招聘人员,她天生谨慎,也很有自信和意志力。“我们呼吁该领域认识到,逼真地模仿人类的应用程序具有带来极端危害的风险。”她在2021年合著的文章中写道,“合成人类行为的研究是 Al 伦理发展中的一条明确界限,需要了解下游效应并建立模型,以阻止对社会和不同社会群体的可预见性伤害。”
换句话说,那些让我们很容易将其与人类混淆的聊天机器人不仅仅是“可爱”或“让人不安”的存在,它们站在明显的界线上。模糊这条界线——混淆人与非人的界限,胡说八道,具有破坏社会的能力。
语言学并不是一种简单的享受。即使是 Bender 的父亲告诉我,“我不知道她在说什么。晦涩的语言数学模型?我不知道那是什么。”但是语言 —— 它是如何生成的,它的意义是什么 —— 即将变得非常有争议。我们已经被我们拥有的聊天机器人所迷惑。即将到来的技术将会更加普及、强大和不稳定。Bender 认为,一个谨慎的公民可能会选择知道它是如何工作的。
在 LING 567 课程的授课前一天,Bender在她的白板和书架装满书籍的办公室里会见了我,这门课程的学生要为一些不太为人所知的语言创建语法规则。
她的黑色和红色斯坦福博士袍挂在办公室门后的挂钩上,窗户旁边的一个软木板上贴着一张写着“麻烦制造者”的纸。她从书架上拿下一本1860页的《剑桥英语语法》,她说如果你对这本书感到兴奋,你就是一名语言学家。
在高中时期,她宣称自己想要学会和地球上的每一个人交谈。1992年春季,她在加州大学伯克利分校的大一课程中注册了她的第一门语言学课程。有一天,为了“研究”,她给当时的男友(现在是她的丈夫)计算机科学家 Vijay Menon 打电话,用与平时称呼“亲爱的”相同的语调说“你这个蠢货,你好”。他花了一点时间才从韵律中理解出意义,但他认为这个实验很可爱(虽然有点讨厌)。
我们已经学会了制造“可以毫不费力地生成文本的机器”。但我们还没有学会如何停止想象它背后的思维。
随着 Bender 在语言学领域的成长,计算机也在同步发展。1993年,她同时修了词法学导论和编程导论的课程。(词法学是一门研究单词如何由词根、前缀等组成的学问。)有一天,当她的助教讲解了班图语的语法分析时, Bender 决定试着为此编写一个程序,当时她在校园附近的一家酒吧里,在Menon看篮球比赛的时候,她用纸笔手写了程序。回到宿舍后,当她输入代码,程序奏效了。于是她打印出程序并带给助教看,但他只是耸了耸肩。
“如果我当时把程序展示给一个懂计算语言学的人,”本德尔说,“他们就会说,‘嘿,这是一个好东西。’”
在获得斯坦福大学语言学博士学位后的几年里,Bender 保持着一只手在学术界,一只手在工业界。她在伯克利和斯坦福教授语法,并在一家名为 YY Technologies 的初创公司从事语法工程工作。2003年,华盛顿大学聘请了她,并在2005年开设了计算语言学硕士课程。Bender 进入计算语言学领域的道路是基于一个看似显而易见,但并不被自然语言处理同行普遍认同的想法 —— 语言是建立在“人与人交流,共同努力达成理解”的基础上的。
在抵达华盛顿大学后不久,Bender 开始注意到,即使在由计算语言学协会等组织主办的会议上,人们对语言学也知之甚少。于是她开始提出,如“你总想了解,但又不敢问的 —— 关于语言学100件事”的教程。


3、政治正确的“霸权主义”
2016年,当特朗普竞选总统,并且“黑人命也是命”抗议活动充斥街头的时候,Bender 决定每天采取一些小的政治行动。她开始学习并扩大黑人女性对人工智能的批判声音,包括 Joy Buolamwini(她在麻省理工学院创立了算法公正联盟)和 Meredith Broussard(《人工非智能:计算机如何误解世界》的作者)。
她还公开挑战了“人工智能”这个术语。作为一个身处男性领域的中年女性,这无疑是让处于了一个容易被攻击的境地。“智能”的概念具有一个白人至上主义的历史。
此外,“智能”按什么定义?霍华德·加德纳的多元智力理论?还是斯坦福-比奈的智力量表?Bender 特别喜欢一位前意大利议员提出的“人工智能”替代名称 —— 系统化学习算法和机器推理( Systematic Approaches to Learning Algorithms and Machine Inferences )。然后人们会问:“这个 SALAMI 聪明吗?这个 SALAMI 能写小说吗?这个SALAMI 是否应该享有人权?”
2019年,她在一次会议上举手发言,问道:“你在用哪种语言进行研究?”这个问题针对那些没有明确说明语言种类的论文,尽管每个人都知道那是英语。(在语言学中,这被称为“威胁面子的问题”,这个术语来自于语言学礼貌研究。它意味着你很粗鲁,正在恼人,或者将会恼人,同时你的语言会同时降低你与你对话人的地位。)
在语言的形式中承载着一个错综复杂的价值网络。"总是为你所使用的语言命名",现在被称为“Bender Rule”。
科技制造者假设他们的现实准确地代表世界,这会导致许多不同的问题。


4、拒绝“对令人不安的事保持沉默”
据信,ChatGPT的训练数据包括维基百科的大部分或全部内容、从 Reddit 链接的页面,以及从互联网上获取的10亿个单词。(它不能包括斯坦福图书馆中的所有电子书副本,因为图书受版权法保护。)
撰写这些在线文字的人们过度代表了白人、男性和富人。此外,我们都知道互联网上存在着大量的种族主义、性别歧视、恐同主义、伊斯兰恐惧症、新纳粹主义等问题。
科技公司确实会花一些功夫来清理它们的模型,通常是由过滤掉包含“脏话、淫秽、下流”等400个左右,甚至更多的不良词汇列表中词语语音块来实现。
该列表最初由 Shutterstock 的开发人员编制,然后上传到 GitHub 上,以自动化解决“我们不想让人们查看什么?”的问题。OpenAI还外包了所谓的幽灵劳动力:包括一些肯尼亚兼职工人(一个曾经的英国殖民地,人们说英式英语),他们每小时赚取2美元,阅读并标记最可怕的内容 —— 恋童癖、兽交等等,以便将其清除。
但过滤也会带来自己的问题。如果你删除了关于性的词语内容,你就会失去关于这个群体的声音。
许多业内人士不想冒风险说话。一名被解雇的谷歌员工告诉我,在科技领域取得成功取决于“对一切令人不安的事保持沉默。”否则,你就成了问题。
Bender 毫不畏惧,并感到一种道德责任感。她写信给一些支持她发出抗议声音的同事说:“我的意思是,毕竟,终身职位是用来干什么的?”


5、我们不是“随机鹦鹉”
“章鱼”不是 Bender 简历上最著名的假想动物,还有一个“随机鹦鹉”。
“Stochastic”意味着随机的,由随机概率分布决定的。“随机鹦鹉”(由 Bender 的创造词汇)指:用随机概率信息将语言形式的序列随意拼接在一起的实体,但不涉及任何涵义。2021年3月,Bender 与三位合著者发表了论文—— 随机鹦鹉的危险:语言模型是否太大?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? )。在论文发表后,两位女性合著者,失去了谷歌道德人工智能团队的联合领导职位。围绕此事的争议巩固了 Bender 在反对人工智能狂热主义方面的地位。
“On the Dangers of Stochastic Parrots”不是一篇原创研究的写作。它是 Bender 和其他人提出的对语言模型的综合批判:包括编码在模型中的偏见;鉴于训练数据可能包含数十亿个单词,研究其内容几乎是不可能的;对气候的影响;以及构建冻结语言并因此锁定过去问题的技术问题。
Google最初批准了这篇论文,这是员工发表论文所必需的条件。然后它撤回了批准,并告诉 Google 合著者将自己的名字从论文中去掉。一些人照做了,但 Google AI 伦理学家 Timnit Gebru 拒绝了。她的同事(也是 Bender 的前学生)Margaret Mitchell 将她的名字改成了 Shmargaret Shmitchell,意在“索引一件事情和一个被抹掉的作者组”。Gebru 在 2020 年 12 月失去了工作,Mitchell 在 2021 年 2 月失去了工作。两位女性认为这是报复,并向媒体讲述了自己的故事。
随着这篇“随机鹦鹉”的论文逐渐走红,至少在学术界,它成为了一个流行词汇。这个短语也进入了技术词汇表。但是它并没有以 Bender 期待的方式进入词汇表。技术高管们喜欢这个词,程序员们也喜欢。
OpenAI 的CEO  Sam Altman 在许多方面是一个完美听众 —— 一个自认为的超理性主义者,过于融入技术泡沫,似乎已经失去了对外部世界的视角。在 11 月的 AngelList Confidential 上,他说:“我认为,再怎么说,核能将给所有人带来不可避免的毁灭——它的“首秀”(译注:可能指美国二战时在日本投下核弹)并不是一件好事” 。他也是所谓的“奇点”信徒,即很多科技狂热者相信,在不久的将来,人类和机器之间的区别将会消失。
在2017年,谈到关于机器人融合的问题,Altman 说到:“我们已经进行了几年了。它可能比大多数人想象的要早。硬件正以指数级别提高……而致力于 AI 研究的人数也在以指数级别增加。双指数函数(的增速)会很快让你失去掌控感。”
在 ChatGPT 发布四天后的12月4日,Altman 发推文:“我是一个随机鹦鹉,你也是。”




这是一个令人振奋的时刻。在发布的五天内就有一百万人注册使用 ChatGPT。写作已经结束了!知识工作也结束了!这一切将会走向何方?“我的意思是,我认为最好的情况竟是如此的好,好到难以想象!” Altman 上个月在 StrictlyVC 活动中对他的同行说道,那噩梦般的情景呢?“坏情况,我认为也很重要,就像我们所有人都黑屏了。” Altman 说他“更担心短期内的意外误用情况... 不是像 AI 醒来就决定要做恶。”
他没有定义“accidental-misuse case”,但这个术语通常是指坏人使用人工智能达到反社会的目的,比如欺骗我们,这可以说是这种技术的设计目的之一。并不是 Altman 想要承担任何个人责任,他只是承认“误用”会是“非常糟糕”的。
Bender 并不认为 Altman 的“随机鹦鹉”有趣。
我们不是鹦鹉,我们不仅仅是基于概率,随机地喷出词语。她说,“这是一个非常常见的策略。人们说,‘人们只是随机的鹦鹉’。”她说,“人们非常想相信这些语言模型实际上是聪明的,他们愿意以自己作为参考点,并贬低自己的价值以匹配语言模型可以做到。”


6、局外人 Vs 既得利益者
有些人似乎愿意将存在的事物与技术能做到的事情相匹配,语言学的基本原则也是如此。Bender 目前的对手是计算语言学家 Christopher Manning,他认为语言不需要指向外部世界。Manning 是斯坦福大学的机器学习、语言学和计算机科学教授。他所教授的自然语言处理课程从2000年的约40名学生增长到去年的500人,到今年的650人,成为校园中最大的课程之一。他还担任斯坦福人工智能实验室的主任,并是 AIX Ventures 的合作伙伴,后者定义自己为“专注于人工智能种子阶段的风险投资公司”。学术界和工业界之间的膜层几乎随处可见斯,可坦福,这层膜层几乎不存在,这所学校与科技公司纠缠在一起,很难分辨学校和企业的界限。
“我应该仔细选择自己的中间立场。”,Manning 在2月下旬说到,“强大的计算机科学和人工智能学校最终会与大型科技公司建立紧密的关系”。Bender 和 Manning 最大的分歧在于意义是如何创建的,这也是章鱼论文的主要内容。
直到最近,哲学家和语言学家一致认为 Bender 的看法是正确的:需要有指示物,即那些实际存在于世界上的事物和概念,如椰子和心碎,才能产生意义。
而 Manning 现在认为这个观点已经过时,认为这是“20世纪语言哲学的标准立场”。“我不会说这在语义学上完全无效,但它也是一个狭窄的立场,”他告诉我。他主张“更广泛的意义”。在最近的一篇论文中,他提出了“分布式语义学”一词:“一个词的意义只是它出现的上下文的描述。”(可是当我问 Manning 如何定义“意义”时,他说:“说实话,我认为这很困难。”)如果一个人认同分布语义学理论,那么 LLM(大型语言模型)就不是章鱼,随机鹦鹉也不仅仅是愚蠢地吐出词语,我们也不需要陷入到“意义映射到世界”这一个过时的思维方式。
LLM 处理数十亿个单词。这项技术迎来了他所说的 “一个相位转移(a phase shift)”。Manning 说:“你知道,人类发现了金属加工技术,令人惊叹,然而过了几百年,人类又学会了如何利用蒸汽动力。我们在语言方面也处于类似的时刻。LLM 足够革命性,可以改变我们对语言本身的理解。”,他说:“对我来说,这不是一个非常正式的论点。这只是一种显现,只是突然降临。”
2022年7月,一次大型计算语言学会议的组织者将 Bender 和 Manning 放在同一个小桌子上,让现场听众可以聆听他们(有礼貌地)争辩。他们坐在一个覆盖着黑色布料的小桌子前,Bender 穿着紫色毛衣,Manning  穿着三文鱼色衬衫,他们轮流拿着麦克风回答问题并回应对方,说着“我先说!”,和“我不同意!”。他们不断争吵,先是关于孩子如何学习语言的问题。Bender 认为他们是在与看护人建立关系中学习的;曼宁则说学习是像 LLM 一样“自我监督”的。
接下来,他们争论的是沟通本身的重要性。在这里,Bender 引用维特根斯坦的话,并将语言定义为本质上是关系性的,即“至少是一对交谈者共同关注,以达成某种协议或近似协议”,曼宁并不完全认同。是的,她承认人类确实通过面部表情表达情感,并通过像头部倾斜这样的肢体语言进行交流,但是这些附加信息是“边际的”。
在会议接近尾声时,他们产生了最深层次的分歧,即 —— 这不是语言学的问题,而是我们为什么要制造这些机器?它们为谁服务?
“我觉得有太多的努力试图创建自主机器,”Bender 说到,“而不是试图创建对人类有用的机器工具。


7、一个科学中最重要的隐喻
在 Manning 参加小组讨论几周后,Bender 戴着一顶流动的蓝绿色长外套和摇晃的章鱼耳环站在多伦多的一个会议讲台上发表演讲。主题是“在人工智能时代抵制非人化”。这看起来并不像是一个特别激进的议题。Bender 将那个听起来平淡无奇的“非人化”定义为“无法完全感知另一个人的人性,以及遭受那些 —— 表现出对人性缺乏认知的行为与经历”。
随后她一个关于计算机隐喻的问题,也是所有科学中最重要的隐喻之一:即人类大脑是一台计算机,计算机是一个人类大脑。她引用了亚历克西斯·T·巴里亚(Alexis T. Baria)和基思·克罗斯( Keith Cross)2021年的论文,这种想法为“人类心灵提供了比应有的所更少的复杂性,为计算机提供了比应有所更多的智慧”。
在 Bender 演讲后的问答环节中,一个戴着项链,身着黑色 POLO 衫的秃顶男子走到麦克风前,阐述了他的担忧,“是的,我想问的问题是,为什么你选择人性化和人类的这种类别,作为你汇集所有这些不同想法的框架。”,这个人并不认为人类是特别的,他说:“听你的演讲,我不禁想,你知道,有些人真的很糟糕,所以被与他们归为一类并不是那么好。我们是同一种物种,同一种生物类,但谁在乎呢?我的狗挺好的。我很高兴和我的狗被归为一类。”
他想要区分“在生物范畴上的一个人类”,和“一个在道德上值得尊重的人类,或单位”。他承认,LLM 并不是人类,至少现在还不是,但技术正在变得越来越好。他问道:“我想知道,为什么你选择将人类或人性作为思考这些不同事物的框架设备,你能多讲一些吗?”
Bender 微微向右倾斜,咬着嘴唇倾听着。她能说些什么呢?她从第一原理进行了辩论。“我认为任何一个人只因为他是人类就应该得到一定的道德尊重。”,她说,“我们看到很多当前世界上的问题都与未将人性授予人类有关。”,而那个人并不买账,继续说道,“如果我可以很快地说一下,也许百分之百的人都值得得到一定程度上的道德尊重,而这是不是因为他们作为人类这一物种存在的意义”


8、生而为人,很特别吗?
许多科技圈外的人也提出了这一观点。生态学家和动物人格权倡导者认为,我们应该放弃认为自己在种类上如此重要的想法。我们需要更加谦虚地生活。我们需要接受我们是其他生物中的一种,是物质中的一种。树木、河流、鲸鱼、原子、矿物质、星球 —— 一切都很重要,我们在这里不是老板。
但从语言模型,到存在危机的路程确实很短。
1966年,创造了第一个聊天机器人 ELIZA 的约瑟夫·魏岑鲍姆(Joseph Weizenbaum)在之后的大部分时间里都为此感到后悔。他在《计算机能力与人类理性》(Computer Power and Human Reason)一书中写道,这项技术引发的问题,“基本上是关于人类在宇宙中的位置问题”。
这些玩具很有趣、迷人且令人上瘾,他在47年前就相信这会是我们的毁灭:“难怪那些与相信自己是奴隶的机器日复一日生活在一起的人们也开始相信——自己是机器。”
气候危机的影响不言而喻。几十年前,我们就知道了危险,但在资本主义和少数人的欲望的推动下,我们仍然继续前行。谁不想在周末飞往巴黎或夏威夷,尤其是当全世界最好的公关团队告诉你这是生活的终极奖励时?
创建模仿人类的技术需要我们非常清楚地了解我们是谁。
“从现在开始,安全地使用人工智能需要使人类条件不再神秘化,”柏林赫尔廷学院(Hertie School of Governance)道德与技术教授乔安娜·布赖森(Joanna Bryson)去年写道,如果我们变得更高,就不会认为自己更像长颈鹿。所以为什么要对智能模糊不清?
其他人,如哲学家丹尼特,则更加直接。他称,我们不能生活在一个有所谓“伪造人”的世界。
“自从货币存在以来,伪造货币一直被视为针对社会的破坏行为。惩罚包括死刑和四分五裂。而制造伪造人至少同样严重。”他补充说,人造人总是比真人少了更多的利益,这使得它们成为无道德行为者:“不是出于形而上学的原因,而是出于简单的物理原因 —— 它们有种永生的感觉。”
丹尼特认为,技术的创造者需要严格的责任制,“他们应该对此负责。他们应该被起诉。他们应该公开承认,如果他们制造的东西被用来制造伪造人,他们将对此负责。如果他们没有做到这一点,他们正处于创建极为严重的,对稳定和社会安全造成破坏的武器的边缘。他们应该像分子生物学家对生物战争的前景或原子物理学家对核战争的前景一样认真对待这个问题。”这是真正的危机。我们需要“建立新的态度,新的法律,迅速传播并消除那些欺骗人们、人格化的赞美”,他说。“我们需要聪明的机器,而不是人造同事。”
Bender 制定了自己的一条规则:“我不会与那些在谈话中不将我的人性作为公理的人交谈。” 不模糊界限。我原本认为自己不需要制定这样一条规则。


9、语言、生活、爱情
“AI 梦想中重新出现了一种自恋,我们将证明我们认为是独特的人类的一切,都可以被机器完成,并且完成得更好。”,UC伯克利分校的批判理论计划创始主任朱迪思·巴特勒(Judith Butler)帮助我解释了其中涉及的思想, “人类的潜力 —— 是法西斯主义的想法 —— 通过 AI 得到更充分的实现。AI 梦想被“完美主义论”所统治,这就是我们看到的一种法西斯形式。这是技术接管,从身体中逃离。”
有些人说,“是的!那不是很棒吗!”,或“那不是很有趣吗?!”,让我们克服我们浪漫的想法,我们的人类中心主义、理想主义,巴特勒补充道,“但是我的言语中生活着什么,我的情感中生活着什么,我的爱情,我的语言中生活着什么,这个问题被掩盖了。”
在 Bender 向我介绍了语言学基础的第二天,我参加了她与学生每周一次的会议。他们都在攻读计算语言学学位,他们都看到了正在发生的事情。有那么多可能性,那么多力量。我们将用它来做什么?
“关键是创建一个易于接口的工具,因为你可以使用自然语言。而不是试图让它看起来像一个人。”,伊丽莎白·康拉德(Elizabeth Conrad)说。
原文链接:https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html
特别提示:本文由ChatGPT编辑。
更多内容,点击下方关注:
一场关于ChatGPT话语权的深度思考:人类会在大模型中迷失自我吗?
本文来自于微信公众号“AI科技评论”——“聚焦人工智能前沿研究,关注人工智能青年成长。”AI科技评论是专注人工智能(AI)学术和科学前沿的平台,前身是雷锋网的学术频道。欢迎搜索关注微信公众号“AI科技评论”(ID:aitechtalk)了解更多相关报道。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

0

主题

3

回帖

2

积分

新手上路

积分
2
发表于 2024-1-16 14:29:28 | 显示全部楼层
ChatGPT横空出世于2022年11月,自从这一天上线之后欧,chatGPT仿佛开了挂一样,仅仅用了5天的时间,用户量就突破了百万,月活用户突破 1 亿更是仅用时 2 个月,成为史上增速最快的消费级应用,远超TikTok、Facebook、Google等全球应用,可谓来势汹汹。


ChatGPT是由OpenAI团队开发和训练的一个人工智能聊天机器人程序,使用了Transformer架构,它拥有语言理解和文本生成能力,尤其是通过连接大量的语料库来训练模型,这些语料库包含了真实世界中的对话,使得ChatGPT具备上知天文下知地理,还能根据聊天的上下文进行互动的能力,做到与真正人类几乎无异的聊天场景进行交流。


对于ChatGPT的爆火,很多人都有不同的看法与见解。有人说这是“人工智能的里程碑,更是分水岭,这意味着AI发展到了临界点,企业应该早点布局”,而有的人认为AI的强大对于人类来说带来的是失业,因为ChatGPT已经强大到在很多领域已经可以完全取代人类了,但也有的人说并不能取代,因为ChatGPT并没有具备人的感情色彩,有很多场景是无法替代人类的。
事实上,上面的说法各自都有各自的道理,据公开资料显示,ChatGPT开放测试以来,已经有学生拿它来写论文,并且还因此获得了大奖;有程序员拿它来写代码,甚至连总统发言稿也可以拿它来写……总之,它的成功给行业带来了诸多的全新可能性。更恐怖的是,如果未来的一天,AI拥有了属于自己的感情和智慧,那未来的挑战会更加的艰巨和困难。
如今,各行各业都十分的内卷,再加上AI的不断发展壮大,未来的一切都充满了可能性,因此,科技是把双刃剑,只有我们利用好了科技,才可以让科技造福于人类,不然后果难以想法。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

0

主题

1

回帖

0

积分

新手上路

积分
0
发表于 2024-1-16 14:29:48 | 显示全部楼层
如今,谷歌、微软、百度都在用类似ChatGPT的工具实现向对话式搜索的转型。这会如何改变人类与机器的关系呢?
推出才几个月,对话机器人ChatGPT就以比肩人类的写作和答题能力惊艳了世界——人工智能也正式“登陆”搜索引擎。
几周前,全球最大的三个搜索引擎——谷歌(Google)、必应(Bing)、百度——纷纷宣布将在其搜索产品中整合ChatGPT或类似技术,让用户在输入某个词汇或问题后可以直接获得答案或是展开对话,而不再是只能看到一大串链接。那么,这会如何改变人类与搜索引擎的关系呢?这样的人机交互有潜在风险吗?



研究发现,聊天机器人越是像人,人类对它信任度就越高。来源:Getty

ChatGPT由美国加州的OpenAI开发,微软的Bing也采用了和ChatGPT相同的技术。这三家公司使用的都是大型语言模型(LLM)。LLM 通过模仿它们在大型数据库中见过的文本统计模式,就能输出非常“逼真”的句子。谷歌在2月6日发布了由AI驱动的搜索引擎——Bard,目前正在进行小规模内测。微软的版本目前已广泛可用,但自由访问权限仍需在等待名单中等候。百度的“文心一言”(ERNIE Bot)也将在3月问世。
在这些消息宣布前,一些更小的公司已经推出了它们的AI搜索引擎。旧金山计算科学家Aravind Srinivas说:“搜索引擎正在迈入这个新阶段,你实际上已经可以和它们对话了,就像和朋友聊天一样。”Srinivas去年8月参与创建了Perplexity——这是一个基于LLM的搜索引擎,能以对话式英语回答问题。
信任度变化

相比传统的互联网搜索,对话式搜索极具个性化,这可能会左右人们对搜索结果的看法。人类也许天生就更容易相信从聊天机器人而不是冷冰冰的搜索引擎那里得到的答案,瑞士苏黎世大学的计算社会科学家Aleksandra Urman说道。
美国佛罗里达大学在2022年发表的一项研究[1]发现,对于亚马逊(Amazon)和百思买(Best Buy)这类公司来说,当研究对象在和它们的聊天机器人对话时,如果研究对象认为对话越有人情味,他们对这个公司的信任度也越高。
这或许是好事,能让搜索过程更迅速、更顺畅。但是,由于AI对话机器人会出错,过度信任也会引发问题。谷歌的Bard就在内部技术演示时搞砸了一个关于韦布空间望远镜的问题,属于一本正经地胡说八道。而ChatGPT对于它回答不了的问题,则喜欢虚构一个答案,该领域称这种现象为幻觉(hallucinating)。
谷歌发言人表示,Bard的出错“体现了严格测试流程的重要性,我们也将在这周推出内测用户(trusted-tester)计划”。但也有人推测,这类错误假设被发现的话,非但不会增加信任度,还可能让用户对对话式搜索失去信心。“早期印象的影响是巨大的。”1月推出的LLM搜索引擎Neeva的首席执行官、加州山景城的计算科学家Sridhar Ramaswamy说道。这一错误引发了投资者的担忧和股票抛售,使谷歌损失了1000亿美元。
缺乏透明度

除了不准确之外,缺少透明度也是一个问题。传统搜索引擎会向用户展示一连串的链接,待用户自己决定相信哪些信息。相比之下,人们基本无从得知LLM是用哪些数据训练的——究竟用的是大英百科全书还是某个八卦网站?
Urman说:“现在(AI驱动搜索)的运作方式完全不透明,如果这个语言模型出问题了,出现幻觉或是开始传播虚假信息,后果是不堪设想的。”
Urman指出,假设搜索机器人的错误率达到一定程度,它们开展对话的本领非但不会增加人们的信任度,还可能会打破搜索引擎作为真理公正裁决者的印象。
她在一篇尚未发表的研究中指出,当前的信任度还是很高的。她研究的是人们对谷歌用来提升搜索体验的一些现有功能的使用感受,这些功能包括“精选摘要”(featured snippets)和“知识面板”(knowledge panels)。“精选摘要”会将页面中被认为与搜索内容最相关的一段话置于链接上方;“知识面板”则是谷歌根据对某个人物或机构的搜索自动生成的简介。在Urman研究的人群中,几乎有80%的人认为这些信息是准确的,约70%的人认为这些信息很客观。
法国数据科学平台Hugging Face一直呼吁用负责任的态度使用AI。该平台的首席伦理学家Giada Pistilli说,对话机器人驱动的搜索模糊了机器与人类的差别。各大公司对AI领域进展的火速接纳令她担忧:“我们总是看到这些新技术毫无节制地‘砸’向我们,也没有培训框架来告诉我们应该怎么用。”
参考文献:
1. Lu, L. et al. Comp. Hum. Behav. 128, 107092 (2022).
原文以AI chatbots are coming to search engines — can you trust the results?标题发表在2023年2月13日《自然》的NEWS EXPLAINER版块上
原文作者:Chris Stokel-Walker
© nature
doi: 10.1038/d41586-023-00423-4
<hr/>版权声明:
本文由施普林格·自然上海办公室负责翻译。中文内容仅供参考,一切内容以英文原版为准。欢迎转载我们的文章到知乎专栏,如需转载文章到问答,请私信我们您的问答格式和用途。未经授权的翻译是侵权行为,版权方将保留追究法律责任的权利。
© 2023 Springer Nature Limited. All Rights Reserved.

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|T9AI - 深度人工智能平台 ( 沪ICP备2023010006号 )

GMT+8, 2024-5-19 09:59 , Processed in 0.062794 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表