可以看看李宏毅的公开课,B站有,我理解的主要原理是通过一种新的预训练(pre-train)算法360问答大大增加了AI训练素材的广度,使得AI的参数量变大了很多,跟你说的话主要以词语接龙的形式产生,比如你问它“你好么?”大量训练素材产生的参数会让他以很高的机率输出第一个字“我”,然后再以此类推,下一个字很大概率是“很”→”好“,于是”我很好“这句回复就出现了。因此也有很小很小的几率前言不搭后语,一般来讲训练素材越多,参数量越大,回答错误率就越低
GPT-3.5和GPT-4等大型语言模型的工作原理基于深度学习和自然语言处理技术。这些模型通过对大量文本数据进行分析和学习,构建出一个复杂的神经网络,以理解语言的语法、语义和上下文信息。 在训练过程中,模型会接收大量的文本球掌兴马板更有数据,并通过反向传播算法不断调整神经网络的权重,以使得模型能够更准确地预测给定文本的下一步内容。通过训练,模型可以逐渐学会体征培龙策联问生成类似于人类语言的文室占硫纪益妒范北极本。 当使用模型进行文本生成时,模型会根据输入记类款的文本和上下文信息,通过前向传播计算出每个单词的概率分布,然后根据这些概率肥教孙为究连可制谓率等进行采样,生成类似于人类语言的文本。
3 个回答
手握青春
赞同来自 :
可以看看李宏毅的公开课,B站有,我理解的主要原理是通过一种新的预训练(pre-train)算法360问答大大增加了AI训练素材的广度,使得AI的参数量变大了很多,跟你说的话主要以词语接龙的形式产生,比如你问它“你好么?”大量训练素材产生的参数会让他以很高的机率输出第一个字“我”,然后再以此类推,下一个字很大概率是“很”→”好“,于是”我很好“这句回复就出现了。因此也有很小很小的几率前言不搭后语,一般来讲训练素材越多,参数量越大,回答错误率就越低
耀阳星辰 让一切都变得如此简单。对一个情绪低落的人来说,朋友的一句鼓励,甚至比世上所有的良药都有用。
赞同来自 :
GPT-3.5和GPT-4等大型语言模型的工作原理基于深度学习和自然语言处理技术。这些模型通过对大量文本数据进行分析和学习,构建出一个复杂的神经网络,以理解语言的语法、语义和上下文信息。
在训练过程中,模型会接收大量的文本球掌兴马板更有数据,并通过反向传播算法不断调整神经网络的权重,以使得模型能够更准确地预测给定文本的下一步内容。通过训练,模型可以逐渐学会体征培龙策联问生成类似于人类语言的文室占硫纪益妒范北极本。
当使用模型进行文本生成时,模型会根据输入记类款的文本和上下文信息,通过前向传播计算出每个单词的概率分布,然后根据这些概率肥教孙为究连可制谓率等进行采样,生成类似于人类语言的文本。
桔梗kikyo
赞同来自 :
提问者
威望
粉丝
感谢
积分
赞同
提问
文章
回复
私信 问Ta
关注问题人数 4 人
相关问题