找回密码
 立即注册
查看: 168|回复: 1

一文带你了解爆火的ChatGPT

[复制链接]

1

主题

0

回帖

16

积分

新手上路

积分
16
发表于 2024-3-19 10:08:16 | 显示全部楼层 |阅读模式
* 导读
OpenAI近期发布聊天机器人模型ChatGPT,迅速出圈全网。它以对话方式进行交互。以更贴近人的对话方式与使用者互动,可以回答问题、承认错误、挑战不正确的前提、拒绝不适当的请求。高质量的回答、上瘾式的交互体验,圈表里都纷纷惊呼。
为什么有如此高的评价?理论支撑是什么?背后的技术道理是什么?待解决的问题和方案有哪些?成本怎么对待这件事?本文的方针是将这些问题详细的给大师讲清楚。
1 ChatGPT是什么?
ChatGPT本质是一个应用在对话场景的语言模型,基于GPT3.5通过人类反馈的强化学习微调而来,能够回答后续问题、承认错误、质疑不正确的前提以及拒绝不适当的请求。首先让我们今天的主角ChatGPT来亲自介绍本身。
1.1 让ChatGPT介绍本身
ChatGPT是什么?既然ChatGPT是语言模型,语言模型是什么?通过强化学习训练,强化学习又是什么?








1.2 全球范围的兴起和爆发
OpenAI 11月30号发布,首先在北美、欧洲等已经引发了热烈的讨论。随后在国内开始火起来。全球用户争相晒出本身极具创意的与ChatGPT交流的成果。ChatGPT在大量网友的疯狂测试中表示出各种惊人的能力,如流畅对答、写代码、写剧本、纠错等,甚至让记者编纂、法式员等从业者都感到感染到了威胁,更不乏其将代替谷歌搜索引擎之说。继AlphaGo击败李世石、AI绘画大火之后,ChatGPT成为又一新晋网红。下面是谷歌全球指数,我们可以看到火爆的程度。




国内对比各大平台,最先火起来是在微信上,通过微信指数我们可以看到,97.48%来自于公众号,开始于科技圈,迅速拓展到投资圈等。我最先了解到ChatGPT相关信息的也是在存眷的科技公众号上,随后看到各大公众号呈现关于介绍ChatGPT各种震惊体关键词地震、杀疯了、毁灭人类等。随后各行各业都参与进来有趣的整活,问数学题,问历史,还有写小说,写日报,写代码找BUG......




1.3 背后的金主OpenAI
OpenAI是一个人工智能研究尝试室,目的是促进和成长友好的人工智能,使人类整体受益。OpenAI原长短营利机构,但为了更好地实现产研结合,2019年3月成立OpenAI LP子公司,目的为营利所用。
2019年7月微软投资双方将携手合作,2020年6月颁布发表了GPT-3语言模型,刷新了人们对AI的认知。GPT系列语言模型让我们不竭对通用人工智能(AGI)充满了等候。
OpenAI方针之初就很远大,解决通用人工智能问题,主要涉及强化学习和生成模型。
强化学习最早被认为是实现人类通用智能重要手段,2016年DeepMind开发的AlphaGo Zero 使用强化学习训练,让人类围棋的历史经验成为了「Zero」,标识表记标帜着人类向通用型的人工智能迈出了重要一步。2019年OpenAI 在《Dota2》的比赛中战胜了人类世界冠军。OpenAI在强化学习有很多深入的研究,Dactyl也是一款OpenAI通过强化强化学习训练能够高精度独霸物体的机器人手,OpenAI Gym是一款用于研发和斗劲强化学习算法的东西包,所以ChatGPT中使用强化学习也是顺理成章。
生成模型方面,为我们熟知的是GPT-3,这是一个强大的语言模型能够生成人类一样流畅的语言。DellE 2是比来很火的AI绘画按照文本描述生成图片。Codex是和微软合作通过github代码训练而来,可以生成代码和Debug,已经商业化。
作为OpenAI曾经的创始人伊隆·马斯克也发表了对ChatGPT的评价!




看看ChatGPT是怎么介绍自家公司的?




2 ChatGPT一些有趣的体验
作为一个聊天机器人,我们体验发现对比传统的机器人在连贯性问答中更加流畅自然。微信上已经有很多的小法式可以体验,或者直接讲ChatGPT接入了微信中,下面体验一下已经接入到企业微信的ChatGPT。
1)公司一向注重价值不雅观,第一道题回答对一半,公司规定应第一时间退回,特殊情况无法退回,无论价值多少都需要进行申报,所以ChatGPT应该入职不了我司。第二道经典问题的回答还蛮符合公司正直的价值不雅观的,哈哈。






2)公司协会活动总又人放鸽子,我来问问ChatGPT这些人啥心态。看到辅佐想的理由和放鸽子的人说的一样,我有点怀疑他们的心态了。




3)职场东西人看看能不能通过ChatGPT代庖,可以看到案牍写作还是不错的。回答的这个提纲有一点小问题但不影响大局。讲故事编剧本也是不错的,先帮中国足球写好参加世界杯的案牍,就是不知道能不能用的上了。






4)身边同事很重视娃的教育,那么从娃娃抓起先看看ChatGPT能不能带娃学习。文化常识题回答正确,数学题这推理能力,我担忧娃考不上初中,可以用但是家长给把把关啊!同时也考察了一下他脑筋急转弯怎么样,这个傻瓜没答对。






5)号称编程神器可写代码、修bug,考察一下Leetcode中等难度的都没问题。虽然它自谦不会编程,但按照测试和网友的验证能力确实强。




6)考察一下互联网常识储蓄,挑战掉败!如ChatGPT本身所述,他还有很多局限性比如给出看起来没问题其实挺离谱的答案,例如回答本身公司的成果还夹杂私人感情,把竞争对手DeepMind的AlphaGo功劳都据为己有。




做一个小节,其实网上有出格多有趣的案例,这里篇幅有限只是简单了列举几个。通过体验结合网友的反馈,ChatGPT的确掌握了一些常识体系和回答技巧。我们看到对比传统的聊天机器人,ChatGPT在连贯性问答中更加流畅自然,什么话都能接住。除了好玩的聊天神器外还有很多实用的价值,比如解答专业概念、编程类问题、从日常邮件、写请假条、广告案牍等等,都可以通过ChatGPT代庖。看完这些有趣的案例,那么ChatGPT究竟如何实现的,我们接下来将讲解关于ChatGPT的哪些技术道理。
3 ChatGPT之前技术沿袭
ChatGPT是基于GPT3.5语言模型,人类反馈的强化学习微调而来。本节将对涉及语言模型和强化学习两个重要技术做一个科普,已经熟悉的可直接跳过本节。
3.1 语言模型的技术演进
语言模型通俗讲是判断这句话是否通顺、正确。数学函数表达为给定前N个词,预测第N+1 个词概率,将概率序列分化成条件概率乘积的形式,这个函数就可以实现语言模型去生成句子。那么是什么样的语言模型如此强大,本小节梳理了深度学习开始的语言模型演技过程,如下图所示:




第一次开始用神经网络做语言模型是2003年Bengio提出的NNLM的网络布局,随着图像范围预训练的取得的打破迅速迁移到NLP范围,有了我们熟知的word2vec,凡是做NLP任务句子中每个单词Onehot形式输入,使用预训练好的word embedding初始化网络的第一层,进行下游任务。word2vec的短处是word embedding静态的,后续代表性工作中ELMo通过采用双层双向LSTM实现了按照当前上下文对Word Embedding动态调整。
ELMo非常明显的错误谬误在特征抽取器LSTM布局带来的,17年Google在机器翻译Transformer取得了效果的打破,NLP各种任务开始验证Transformer特征提取的能力比LSTM强很多。自此NLP开启了Transformer时代。
2018年OpenAI采用Transformer Decoder布局在大规模语料上训练 GPT1模型横扫了各项NLP任务,自此迈入大规模预训练时代NLP任务尺度的预训练+微调范式。由于GPT采用Decoder的单向布局天然缺陷是无法感知上下文,Google很快提出了Encoder布局的Bert模型可以感知上下文效果上也明显有提升。随后2019年OpenAI提出了GPT2,GPT2拥有和GPT1一样的模型布局,但得益于更高的数据质量和更大的数据规模有了惊人的生成能力。同年Google采用了Encoder-Decoder布局,提出了T5模型。从此大规模预训练语言模型兵分三路,开始了一系列延续的工作。
2020年OpenAI提出GPT3将GPT模型提升到全新的高度,其训练参数达到了1750亿,自此超大模型时代开启。技术路线上摒弃了之前预训练+微调的范式,通过输入自然语言当作指示生成答案,开始了NLP任务新的范式预训练+提示学习。由于GPT3可以发生通顺的句子但是准确性等问题一直存在,呈现WebGPT、InstructGPT、ChatGPT等后续优化的工作,实现了模型可以理解人类指令的含义,会甄别高水准答案,质疑错误问题和拒绝不适当的请求。
3.2 深度强化学习技术演进
深度强化学习(deep reinforcement learning,DRL)是强化学习一个分支,基于深度学习强大的感知能力来措置复杂的、高维的环境特征,并结合强化学习的思想与环境进行交互,完成决策过程。DRL在游戏场景这种封锁、静态和确定性环境可以达到甚至超越人类的决策程度。斗劲著名的事件是2017年DeepMind 按照深度学习和策略搜索的 AlphaGo 击败了围棋世界冠军李世石。2018 年OpenAI 团队基于多智能体 DRL推出的OpenAI Five 在Dota2游戏中击败了人类玩家。DRL算法主要分为以下两类:
值函数算法:值函数算法通过迭代更新值函数来间接得到智能体的策略,智能体的最优策略通过最优值函数得到。基于值函数的 DRL 算法采用深度神经网络对值函数或者动作值函数进行近似,通过时间差分学习或者 Q 学习的方式分袂对值函数或者动作值函数进行更新。代表性的是2015 年 DeepMind 团队提出深度Q网络(DQN),及其后的各种变种DDQN、Dueling DQN、分布式DQN等。
策略梯度算法:策略梯度算法直接采用函数近似的方式成立策略网络,通过策略网络拔取动作得到奖励值,并沿梯度标的目的对策略网络参数进行优化,得到优化的策略最大化奖励值。可以用来措置持续动作。在实际应用中风行的做法是将值函数算法和策略梯度算法结合得到的执行器‒评价器(AC)布局。代表性工作有策略梯度算法、AC 算法以及各种变种DDPG、A3C、PPO等。ChatGPT使用的就是策略梯度算法PPO。
4 ChatGPT背后的技术道理
ChatGPT整体技术方案是基于 GPT-3.5 大规模语言模型通过人工反馈强化学习来微调模型,让模型一方面学习人的指令,另一方面学习回答的好不好。
本节首先阐述ChatGPT提升的效果及背后对应的技术,然后介绍ChatGPT的整体训练流程,其次介绍提升涉及几个技术细节。
4.1 核心提升了什么?
ChatGPT在对话场景核心提升了以下三方面:
1)更好的理解用户的提问,提升模型和人类意图的一致性,同时具备持续多轮对话能力。
2)大幅提升成果的准确性,主要表示在回答的更加的全面,同时可以承认错误、发现无法回答的问题。
3)具备识别犯警和成见的机制,针对不合理提问提示并拒绝回答。
ChatGPT的提升主要涉及以下三方面技术:
1)性能强大的预训练语言模型GPT3.5,使得模型具备了博学的基础。
2)webGPT等工作验证了监督学习信号可大幅提升模型准确性。
3)InstructGPT等工作引入强化学习验证了对齐模型和用户意图的能力。
4.1 整体技术流程
ChatGPT的训练过程分为微调GPT3.5模型、训练回报模型、强化学习来增强微调模型三步:




第一步:微调GPT3.5模型。让GPT 3.5在对话场景初步具备理解人类的的意图,从用户的prompt调集中采样,人工标注prompt对应的答案,然后将标注好的prompt和对应的答案去Fine-tune GPT3.5,颠末微调的模型具备了必然理解人类意图的能力。
第二步:训练回报模型。第一步微调的模型显然不够好,至少他不知道本身答的好不好,这一步通过人工标注数据训练一个回报模型,让回报模型来辅佐评估回答的好不好。具体做法是采样用户提交的prompt,先通过第一步微调的模型生成n个分歧的答案,比如A、B、C、D。接下来人工对A、B、C、D按照相关性、有害性等尺度尺度并进行综合打分。有了这个人工尺度数据,采纳pair-wise 损掉函数来训练回报模型RM。这一步实现了模型判别答案的好坏。
第三步:强化学习来增强微调模型。使用第一步微调GPT3.5模型初始化PPO模型,采样一批和前面用户提交prompt分歧的调集,使用PPO模型生成答案,使用第二步回报模型对答案打分。通过发生的策略梯度去更新PPO模型。这一步操作强化学习来鼓励PPO模型生成更符合RM模型判别高质量的答案。
通过第二和第三步的迭代训练并彼此促进,使得PPO模型能力越来越强。
4.3 主要涉及的技术细节
4.3.1 GPT3.5理解能力提升
ChatGPT是在GPT3.5模型技术长进行微调的,这里对GPT-3.5在GPT3基础上做的工作进行梳理,官方列举了以下GPT-3.5系列几个型号:
code-davinci-002 是一个基础模型,对于纯代码补全任务。这也是ChatGPT具备超强代码生成能力的原因。
text-davinci-002 是在code-davinci-002基础上训练的InstructGPT模型,训练策略是instructGPT+FeedRM。
text-davinci-003 是基于text-davinci-002模型的增强版本,训练策略是instructGPT+PPO。
按照如下图官方发布的模型时间线和文档,我们可以了解到ChatGPT是在text-davinci-003 基础上微调而来,这也是ChatGPT模型性能如此强大的核心要素。因为GPT-3.5系列模型是在2021年第四季度之前的文本和代码样本上训练,所以我们体验ChatGPT时候同样无法回答训练样本日期之后的问题。



4.3.2 监督信号提升效果显著
GPT3之前在预训练+微调已经是NLP任务中尺度范式,GPT3模型的训练是纯自监督学习并以API的形式发布,用户不具备微调的能力,官方也是主打预训练+提示学习的能力。Prompt方式本质是挖掘语言模型本身具备的常识,得当的提示去激发语言模型的补全能力。监督信号微调可以理解为改变了语言模型的理解能力,InstructGPT的工作可以理解为对GPT3-SFT做了数据增强提升,使得模型在理解人类指令方面更超卓。但这并不影响监督信号对最终效果的价值。
在InstructGPT的工作中,我们可以看到GPT3-SFT和InstructGPT在毒性、幻觉、理解客户能力上,监督学习微调已经和强化学习对比有很大的竞争力,甚至在幻觉角度比基于强化学习的InstructGPT提升很明显。




4.3.3 人类反馈强化微调效果
ChatGPT通过人类反馈强化学习(RLHF)来让模型理解人类的指令。人类反馈强化学习(RLHF)是DeepMind早期提出的,使用少量的人类反馈来解决现代RL任务。RLHF的思想在很多工作中都有浮现,例如OpenAI的webGPT、DeepMind中Sparrow等都通过人类的反馈进一步提升大模型的效果。
RLHF整个训练过程如下图所示:




方针是实现后空翻的任务,智能体Agent在环境中随机步履,每隔一段时间,两个行为的视频片段给一个人,人判断两个视频哪个更接近方针。通过人的反馈数据,学习一个最能解释人类判断的奖励模型Reward Model,然后使用RL来学习如何实现方针。随着人类继续提供模型无法判断时候的反馈,实现了进一步完善它对方针的理解。智能体Agent从人类反馈中学习最终在许多环境中有时甚至是超过人类的表示。
4.4 步履驱动的大语言模型
尽管学术界一直无法真正定义AGI,本年大型语言模型(LLM)的表示让我们对通用人工智能有了等候,通过OpenAI的ChatGPT、Google的PaLM、DeepMind的Sparrow取得的成功,人工智能的未来应该是步履驱动的,一个步履驱动的LLM看起来很像AGI,如下图所示:




模型的行为就像一个智能体Agent选择步履。在中间,我们有开箱即用的基础模型LLM。用户通过Prompt询问模型成果。
左边是外部可操作的资源,这些可以是任何将文本作为输入并提供文本作为输出的函数,包罗搜索、数据库、代码解释器和与人聊天等,它可以增强模型的能力。
右边是我们有任务导向的训练,如instruction tuning、RLHF等。instruction tuning相对好实现,RLHF需要调整PPO算法相对较难。整体上RL操作使用日志等专有数据,通过创建强大的反馈回路,训练模型使其更加符合任务需求并迭代优化。
5 总结与展望
5.1 技术创新:待解决问题和改良
ChatGPT一个问题是只能回答2021年前的问题。模型无法获取近期的常识,将ChatGPT+webGPT结合是一个可以想到的方案。DeepMind提出的Sparrow就是一个参考,Sparrow model针对对话内容模型生成成果并判断是否搜索互联网,以提供更多的正确参考答案,用强化学习算法去优化Sparrow的输出成果。整体流程如下图所示:




5.2 技术应用:能否代替搜索引擎
应该不会代替,按照目前体验的效果,距离搜索引擎还有很长的路要走,主要基于几个方面。
首先ChatGPT本质是语言模型,当前的训练技术模型不具备或者说很弱的推理能力,一些推理问题比如小学生问题完败。按照当前体验看擅长创作类案牍,其他问题经常呈现一些事实错误情况。而搜索引擎技术的核心索引、检索和排序是给到用户Top相关性内容,用户自主多了一层推理、对比筛选、总结。
其次目前的ChatGPT不能够回答21年之后的问题,新常识的获取是通过增加标注数据实现。如果要撑持获取社会热点新闻等,就需要改变底层技术方案。尽管这个问题WebGPT、Sparrow通过搜索引擎解决,能否替代本身就有了答案。
最后就是成本问题,ChatGPT火的原因之一就是免费体验,之前超大模型GPT3收费模式底子没有发生这么大的反映。商业化一直是大模型的痛,模型效果和模型参数成正比。搜索引擎索引、检索、排序的成本和ChatGPT这种模型计算成本不在一个量级上。
5.3 未来预期:成本市场怎么看
和负责投资和战略的同学聊,近期都在讨论AI。AI赛道无疑是投资界“本年最大的热点之一”。ChatGPT和本年大火的AI绘画都属于泛AIGC范围,AIGC 是继 PGC、UGC 后的新内容出产形态。AI投资人看来,从语音、文字、图像的内容生成都将呈现增长,而对话可能是此中最重要的杀手级应用。按照 Gartner 预计,到 2025 年,生成式人工智能将占所有生成数据的 10%,而当前占比小于 1%。
回顾一下OpenAI,作为AIGC顶级技术公司已经做了不少商业化的测验考试,通过API方式来敦促GPT-3的技术商业化,将GPT3作为一项付费处事来推广。Codex也是已经商业化的产物。GPT-3历经两年商业化测验考试,如今并未代替记者编纂或码农的职业生涯,OpenAI也从中发现,将GPT系列作为辅助出产力东西对商业化更为合适。此次ChatGPT采纳免费试用可能是OpenAI筹备继续打磨这款产物,按照用户的反馈辅佐模型改良从而作出更得当的反映。等产物打磨好可能为GPT-4商业化铺路。
回顾国内行业巨头和高校科研机构大规模预训练模型军备竞赛一直持续。百度发布了财富级常识增强大模型“文心”(参数规模达2600亿),并基于“文心”模型形成了财富全景图。华为联合鹏程尝试室发布“盘古”大模型,阿里巴巴达摩院发布的中文语言模型 PLUG。智源人工智能研究院的超大规模预训练模型“悟道”(悟道2.0参数规模达1.75万亿)。回顾国内创业公司,按照睿兽分析显示2022年以来大规模预训练模型赛道呈现多笔融资,此中不乏联想创投、君联成本、启明创投、创新工场等知名投资机构。澜舟科技、聆心智能、小冰等这些企业均将商业落地作为融资后的发力重点。
2022 年以来 AIGC 应用多点开花,伴随着深度学习模型不竭完善、开源模式的敦促、大模型探索商业化的可能,AIGC 有望加速成长,让人们对通用人工智能有了更多的等候。
6 参考材料
ChatGPT: Optimizing Language Models for Dialogue
Aligning Language Models to Follow Instructions
WebGPT: Improving the Factual Accuracy of Language Models through Web Browsing
Aligning Language Models to Follow Instructions
Learning from Human Preferences
Proximal Policy Optimization
https://gpt.Chatapi.art/?
Building safer dialogue agents
https://jmcdonnell.substack.com/p/the-near-future-of-ai-is-action-driven
https://mp.weixin.qq.com/s/OO03dHMStOV8tVdRwzEkLA
https://36kr.com/p/2033972476849410
https://easyai.tech/ai-definition/reinforcement-learning/

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

0

主题

4

回帖

15

积分

新手上路

积分
15
发表于 2024-3-19 10:09:11 | 显示全部楼层
那个三角形问题是我没想到的,他居然在数学方面还有欠缺[发呆],但是不得不说,编程方面是真的屌
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|T9AI - 深度人工智能平台 ( 沪ICP备2023010006号 )

GMT+8, 2024-5-4 15:44 , Processed in 0.070466 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表