术语表
基本概念
提示词: 提示词是用户提供给AI模型以引发响应的输入,通常以问题、指令或陈述的形式出现。提示词的质量和结构对模型的输出有重大影响,因此,提示工程是有效使用AI的关键技能。
上下文窗口: 上下文窗口是指人工智能模型一次可以处理的token的最大数量,包括输入及其生成的输出。这个固定大小的窗口是一个关键的限制因素,因为窗口外的信息会被忽略,而更大的窗口则允许进行更复杂的对话和文档分析。
上下文学习: 上下文学习是指智能体能够直接从提示中提供的示例中学习新任务的能力,而无需重新训练。这一强大功能使得一个通用模型能够即时适应无数特定的任务。
零样本、单样本与少样本提示: 这些是提示技术,其中模型被提供零个、一个或少数几个任务的示例来引导其响应。提供更多示例通常有助于模型更好地理解用户的意图,并提高其在特定任务上的准确性。
多模态性: 多模态性是指智能体理解和处理多种数据类型(如文本、图像和音频)信息的能力。这允许智能体进行更灵活、更类似人类的交互,例如描述一张图片或回答一个口头问题。
归一化: 归一化是将模型输出与可验证的、真实世界的信息源相连接的过程,以确保事实准确性并减少幻觉。这通常通过使用如RAG(检索增强生成)等技术来实现,以提高AI系统的可信度。
核心人工智能模型架构
Transformer模型: Transformer是大多数现代大型语言模型的基础神经网络架构。其关键创新是自注意力机制,该机制能够高效地处理长文本序列,并捕捉词语之间的复杂关系。
循环神经网络(RNN): 循环神经网络是一种先于Transformer出现的基石架构。RNN按顺序处理信息,使用循环来维持对先前输入的“记忆”,这使得它们适用于文本和语音处理等任务。
专家混合模型(MoE):专家混合模型是一种高效的模型架构,其中“路由器”网络动态选择一小部分“专家”网络来处理任何给定的输入。这使得模型可以在保持计算成本可控的同时拥有大量的参数。
扩散模型: 扩散模型是一种生成模型,擅长创建高质量的图像。它们通过向数据中添加随机噪声,然后训练一个模型来精确地逆转这个过程,从而允许它们从随机的起点生成新的数据。
Mamba: Mamba 是一种使用选择性状态空间模型(SSM)的近期人工智能架构,能够以高效率处理序列,尤其是在处理非常长的上下文时。其选择性机制允许它聚焦于相关信息,同时过滤掉噪声,使其成为 Transformer 的潜在替代品。
大型语言模型(LLM)开发生命周期
一个强大语言模型的发展遵循一个明确的顺序。它始于预训练阶段,通过在庞大的通用互联网文本数据集上训练,构建一个基础模型,使其学习语言、推理和世界知识。接下来是微调阶段,这是一个专业化的阶段,其中通用模型在更小、任务特定的数据集上进行进一步训练,以适应特定目的的能力。最后是校准阶段,在这一阶段,对专业模型的行为进行调整,以确保其输出是有益的、无害的,并与人类价值观保持一致。
预训练技术: 预训练是模型从大量数据中学习一般知识的初始阶段。这一阶段最常用的技术涉及模型学习的不同目标。其中最常见的是因果语言建模(CLM),其中模型预测句子中的下一个单词。另一种是掩码语言建模(MLM),其中模型填充文本中故意隐藏的单词。其他重要方法包括去噪目标,模型学习将损坏的输入恢复到原始状态,对比学习,模型学习区分相似和不相似的数据片段,以及下一句预测(NSP),确定两个句子是否逻辑上相互跟随。
微调技术: 微调是指通过使用较小的、专门的训练数据集,将一个通用的预训练模型调整到特定任务的过程。最常见的方法是监督式微调(SFT),其中模型在正确输入输出对的标记示例上进行训练。一个流行的变体是指令微调,它侧重于训练模型更好地遵循用户指令。为了使这一过程更高效,使用了参数高效微调(PEFT)方法,其中顶级技术包括LoRA(低秩适应),它仅更新少量参数,以及其内存优化版本QLoRA。另一种技术是检索增强生成(RAG),通过在微调或推理阶段将模型连接到外部知识源来增强模型。
对齐与安全技术: 对齐是指确保人工智能模型的行为与人类价值观和期望相一致,使其有益无害的过程。最突出的技术是来自人类反馈的强化学习(RLHF),其中基于人类偏好的“奖励模型”指导人工智能的学习过程,通常使用近端策略优化(PPO)等算法来保证稳定性。出现了更简单的替代方案,例如直接偏好优化(DPO),它绕过了需要单独奖励模型的需求,以及卡尼曼-特弗斯优化(KTO),它进一步简化了数据收集。为确保安全部署,实施安全护栏作为最终的安全层,以实时过滤输出并阻止有害行为。
提升人工智能智能体能力
人工智能智能体是能够感知其环境并采取自主行动以实现目标的系统。其有效性通过强大的推理框架得到提升。
思维链(CoT):这种提示技术鼓励模型在给出最终答案之前,逐步解释其推理过程。这种“大声思考”的过程通常会导致在复杂推理任务上获得更准确的结果。
思维树(ToT):思维树是一种高级推理框架,其中智能体可以同时探索多个推理路径,就像树上的枝条一样。它允许智能体自我评估不同的思维路线,并选择最有前途的一条进行深入,使其在复杂问题解决方面更加高效。
ReAct (推理与行动): ReAct是一个智能体框架,它将推理和行动结合在一个循环中。智能体首先“思考”要做什么,然后使用工具采取“行动”,并利用产生的观察结果来指导其下一次思考,这使得它在解决复杂任务方面非常有效。
规划: 这是智能体将高级目标分解为一系列较小、可管理的子任务的能力。智能体随后创建一个计划,按顺序执行这些步骤,使其能够处理复杂的多步骤任务。
深度研究:深度研究指的是智能体通过迭代地搜索信息、综合发现和识别新问题,自主深入探索一个主题的能力。这使得智能体能够对某一主题建立全面的理解,远超单个搜索查询的范畴。
批判模型: 批判模型是一种专门训练的AI模型,用于审查、评估并提供对另一个AI模型输出的反馈。它充当自动化的评论家,帮助识别错误、改进推理,并确保最终输出达到期望的质量标准。