第 1 阶段 - 提示设计(Prompt Engineering)
在开发新的大语言模型应用原型时,通常首先构建一个围绕特定提示的简单应用。我们利用 API 调用这个简单提示,并将结果返回给用户。这是一种基础实践,帮助我们评估对用户的价值。然而,这一阶段容易被竞争对手复制。
第 2 阶段 - 提示架构(Prompt Architecture)
例如,思维链(Chain of Thought)、自洽提示(Self-consistency prompting)、退后提示(Step-back prompting)和验证链(Chain of Verification)等,是一些先进的提示技术。这些技术需要多步骤的执行。其核心理念是接收用户请求,并通过一系列的推理过程进行处理。
第 3 阶段 - 知识管理平台(Knowledge Management Platform)
此阶段,我们引入了 RAG(Retrieval-Augmented Generation,检索增强生成)、记忆和知识库。我们的应用通过提供外部信息或实时信息并能够记忆之前的交互,从而得到增强。这可以被视作是一个具备状态记忆的大语言模型应用,但其实远不止于此。通过为知识库创建和整理内容,我们为用户提供了更高层次的价值,并为竞争者设置了进入障碍。
第 4 阶段 - 智能体流程(Agent Pipeline)
大语言模型智能体是一个系统,它通过推理来决定执行哪些操作和使用哪些工具来完成当前的任务。这与基于角色的提示设计(例如:“你是律师,请回答这个问题 - ”)相比,智能体拥有更大的差异。从我的观察来看,为了解决一个任务,我们通常需要构建多个智能体,并将它们按照处理流程进行组织。这种流程可以类比为带有中间件的 Web 请求处理流程。