科技部人才与科学普及司揭秘让人既好奇又害怕的ChatGPT之谜

科技部人才与科学普及司揭秘让人既好奇又害怕的ChatGPT之谜

对于ChatGPT的出现及火爆,你的感受是什么呢?本文作者的心情是“好奇又害怕”。为什么ChatGPT能引起如此大的震动呢?以后会对人类产生什么影响?本文作者从ChatGPT的相关概念、背后的技术、商业前景,对ChatGPT进行了深入分析,并分享了自己的一些独到的观点,一起来探索一下吧。

ChatGPT是一款基于大型语言模型(LLM)的聊天机器人,它通过理解用户输入的句子含义,掌握世界知识,生成语言和代码,以及上下文学习等能力,为我们提供了一种与自然语言处理技术交互的新方式。这些功能使得ChatGPT能够模拟人类对话,从而在我们的日常生活中扮演着越来越重要的角色。

其背后的发展时间线可以追溯到几年前,当时神经网络结构设计技术逐渐成熟并趋于收敛,想要通过优化神经网络结构从而打破精度局限非常困难。但随着数据规模和模型规模不断增大,模型精度也得到了进一步提升。研究表明,当模型尺寸足够大时,其性能将显著提高并超越比例曲线。

目前,大型语言模型(LLM)已成为NLP领域的一个热门话题。大型语言模型包含多个层次处理单元,每一层都接收来自上一层输出作为带权重的输入参数,不同信息输入后经过网络处理可能得到各自不同的结果。这种模仿人类神经系统工作原理的大型计算机程序,使得它们能够理解复杂的人类语境,并以一种更加符合逻辑推理的人类思考模式进行回答。

然而,这些巨大的进步并不意味着没有挑战。在微调预训练的大型语言模型过程中,由于需要调整大量参数,这项任务变得异常复杂。此时,科学家们提出了一个高效方法:Prompting。这项技术不仅避免了对大量微调参数工作量,还省去了传统方法依赖专业语料标注所需时间和资源,只需给予预训练好的模型一些提示即可提升其能力,就像为一个妻管严的人看几个不是妻管严的人的一些故事,然后他就能摆脱妻管严的情况一样。

Prompting 的优势在于它不会改变预训练好的任何参数,只是根据特定的提示词指导它如何生成更合适、更有意义或更准确地回答问题。而这个过程通常分为三个步骤:首先收集示范数据并训练监督策略;其次收集比较数据并训练奖励模式(RM);最后使用概率加权随机策略搜索算法PPO优化该奖励模式以获得最佳答案。这样的循环迭代过程不断提升整个系统,最终实现了一个既了解人的期望,又能有效执行这些期望的大型语言模型。

尽管这样,我们还需要关注思维链这一重要功能,它是一种离散式提示学习,在大型语言学习中的上下文学习增加了思考过程。当使用思维链进行提示时,大型言论在复杂推理上的表现远胜过传统微调,而在知识推理方面也有很强竞争力。此外,它具有分布鲁棒性潜力,但要达到这种效果只需要少数示例,即8个左右。这正是为什么人们认为这种范式转移可能发生的时候,是两个数字:62B 和 175B。只有当最小值达到62B 时,可以说思维链才开始发挥作用,而175B以上则是真正让思维链超越普通提示词之举。如果继续保持当前发展速度,我们相信未来的chatbot将会更加智能,更贴近人心,让我们一起期待这场革命性的变化吧!

猜你喜欢