![](https://csdnimg.cn/release/download_crawler_static/88213676/bg5.jpg)
这样的效果很惊艳,在此先挖个坑,待下文讲完基础原理后,再对 ChatGPT 这种能力的技
术原理进行一下推测。
BTW:这里解释一个概念”prompting”,中文意思是“提示”。上述过程中,构建输入
文字内容的过程都叫做”prompting”。比如问模型“如果我是 DJ,你还会爱我吗?”,就
是在 prompting。
关于 ChatGPT 接口的收费问题,这里先做一个简要的总结。
从算力上来讲,模型要想根据你的输入做预测,首先要逐个 token 逐个 token 地将你的输
入灌给模型,灌一个 token 就需要进行一波模型推理计算,直到模型收到“张口”信号以后
开始输出 token,输出 token 也是一个一个地输出,每输出一个也是需要进行一波模型推理
计算。因此模型在一个 context window 内 inference 的算力分配既包括对输入 token 的处理
也包括对输出 token 的处理。正因如此,OpenAI 的 API 在收费策略上也是按照 context window
内的总 token 数量(输入+输出)来收费的。这对应于其投入的算力,不多挣你的,也不少挣你
的,很公平。
记忆的本质
(程序员可读)
在讲接下来的内容之前,我先插一段技术性的阐述,这对理解后面很多内容都很重要。
不妨先思考一个问题,当你和 ChatGPT 对话时,模型关于你的“记忆”从哪里来?
提到“记忆”这个词,为了避免大家混淆,小编在这里定义两个概念:“固有记忆”与