ChatGPT:历史、现状与未来冲击

需积分: 5 1 下载量 151 浏览量 更新于2024-06-26 收藏 24.9MB PDF 举报
ChatGPT过去现在与未来 ChatGPT是2022年11月由美国人工智能公司OpenAI推出的开创性生成式对话预训练模型。这款模型的出现引起了全球范围内的热议,业界巨头如微软创始人比尔·盖茨和SpaceX、特斯拉总裁埃隆·马斯克对其持有截然不同的观点。比尔·盖茨认为ChatGPT具有划时代的意义,可能如同个人电脑或互联网一样重要,而马斯克则表达了担忧,担心强大的人工智能可能带来潜在风险。 ChatGPT的设计理念在于通过对话形式交互,使其能够回答后续问题、自我纠正错误、质疑不正确前提并拒绝不合适请求,展现出高度的互动性和适应性。这种对话式的通用人工智能模型预示着人工智能技术正在加速发展,有可能推动通用人工智能的实现。 关于智能的定义,尼尔逊引用的斯坦福大学的观点强调了智能行为涉及感知、推理、学习、交流等多方面的能力,这些能力是人类和动物历经亿万年自然选择和进化所形成的。而人工智能正是试图通过模仿和扩展这些能力,创造出可以执行复杂任务的机器。 ChatGPT的出现颠覆了人们对人工智能的传统认知,它展现了一种生成式人工智能的力量,能够进行自然语言理解和生成,这在一定程度上挑战了现有的技术界限。然而,Meta首席科学家杨立昆指出,尽管ChatGPT在公众看来是革命性的,但从技术层面来看,它的创新更多的是在现有技术的整合上。 对于社会影响,有人如作家加里·马库斯警告,生成式人工智能可能会对社会结构产生深远且紧迫的威胁。另一方面,英伟达总裁黄仁勋将其比喻为AI领域的iPhone,预示着一个更大规模变革的开端。 ChatGPT的过去是作为一个创新的起点,现在正在引发行业的深刻讨论和重新评估,而未来则可能引领人工智能的前沿发展,同时也带来了一系列关于技术伦理、隐私保护以及工作市场转型的考量。随着ChatGPT及其类似技术的进步,我们需要持续关注其对社会、经济和科技发展的深远影响。
2023-05-22 上传
ChatGPT是一种由OpenAI开发的预训练语言模型,它是基于Transformer架构并使用了大量的文本数据训练而成。 首先,2017年,谷歌大脑团队发表了论文《Attention is all you need》,提出Transformer模型,打下了GPT的基础; 2018年,基于Transformer 架构,OpenAI发布了GPT-1模型,基于Transformer的生成式预训练语言模型。它有1.17亿个参数,用于回答给定的问题 ; 2019年,OpenAI发布了GPT-2模型,具有1.5亿个参数,可以生成一些简单的文本,但是不够强大,对于很多问题无法做出处理; 2020年,OpenAI发布了GPT-3模型,具有1.75万亿个参数,相对于GPT-2模型,功能更加强大,可以流畅的生成一些文本,可称为人工智能的划时代标志; 2022年,OpenAI推出ChatGPT,基于GPT-3的基础上开发出来的人工智能对话机器人,发布的那一刻,瞬间席卷全球,功能基本达到完善,已经可以独立处理多个领域的日常问题,满足了人们对于未来智能机器人的幻想,更有甚者,产生了“人工智能是否会取代人类日常工作”的恐惧心理。 ChatGPT语言底层框架: Transformer是一个由深度神经网络组成的多层网络,其模型的结构类似于神经元,Transformer 模型主要分为两大部分,分别是 Encoder 和 Decoder,建立了词与词之间的复杂关系,其参数之多,可以说其本身的语言模型已经接近人类,Transformer的训练时并行的,大大增加了效率; ChatGPT的训练过程: 首先进行监督学习,就是是指利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程,简单说就是在已知“答案”的情况下,训练机器输出的答案和标准答案的差距,通过不断的调整参数,达到训练效果的一种学习方式; 其次,奖励模型,针对一个问题,机器生成多个不同的回答,人工进行打分排序,训练奖励模型; 最后,强化学习,又称再励学习、评价学习或增强学习,使训练对象与环境不断进行交互,得到环境的反馈信息并调整自己的策略,最终完成特定的目标或者使得某个行为利益最大化,ChatGPT就是结合奖励奖励模型,不断的通过强化学习,更新预训练模型参数。