写在前面

  本篇文章用来记录在了解学习大模型的过程中遇到的一些名词缩写,好记性不如烂笔头,记录下来,也供大家参考。如有不正确的,欢迎指正。



名词扫盲

分类 缩写 英文全程 中文 备注
- - - - -
智能体通信协议 A2A Agent to Agent 智能体间的点对点协作
AAMS Attention-aware Multi-stroke Style Transfer 任意风格图像风格转移的[注意力感知]多笔触模型 计算机视觉模型
ADB Android Debug Bridge 是一种命令行工具,用于在开发者电脑与 Android 设备之间建立通信
Agent ADK Agent Development Kit 智能体开发工具
Agent Agent 智能体 让大模型“代理/模拟”「人」的行为,使用某些“工具/功能”来完成某些“任务”的能力
AI AGI artificial general intelligence 强人工智能 通用人工智能,是具备与人类同等智能、或超越人类的人工智能
AI AI Artificial Intelligence 人工智能
AI AI Hallucinations AI幻觉
AIGC AIGC Artificial Intelligence Generated Content 人工智能生成内容
AIME American Invitational Mathematics Examination 美国数学邀请赛
AI ANI Artificial Narrow Intelligence 弱人工智能
智能体通信协议 ANP Agent Network Protocol 智能体网络协议 用于构建大规模智能体网络
PE APE Automatic Prompt Engineering 自动提示工程
AI ASI Artificial Super Intelligence 超人工智能
AZR Absolute Zero Reasoner 绝对零点推理器 能够训练大型语言模型而无需任何外部人工标注数据
Transformer BAAI General Embedding Beijing Academy of Artificial Intelligence 北京智源人工智能研究院 稠密向量
LLM Base Model 基座模型 基座模型是一个通用的语言模型,通常经过大量文本数据的预训练
LLM Base LLM 基础语言模型
RAG Basic semantic similarity 基本语义相似度 检索技术
Evaluation benchmark 基准测试
Transformer BERT Bidirectional Encoder Representation from Transformers 双向编码器表示 在2018年提出的一种预训练语言表示的方法
BLEU Bilingual Evaluation Understudy 双语评估替换 BLEU是一种用于评估机器翻译结果质量的指标。它主要侧重于衡量机器翻译输出与参考翻译之间的相似程度,着重于句子的准确性和精确匹配。
BPE Byte Pair Encoding 基于字节对编码 主流的子词切分算法,用于进行tokennization(将输入文本拆分为token)
CBOW continuous bag of words 连续词袋模型 给定上下文,来预测input word
Chat Model 聊天模型 聊天模型是在基座模型的基础上,特别针对对话生成进行了优化
Claude Anthropic 开发的一系列高性能且智能的AI 模型。强调模型行为的安全性和可控性
CE Compaction 压缩整合 当对话接近上下文上限时,对其进行高保真总结,并用该摘要重启一个新的上下文窗口,以维持长程连贯性。适合需要长对话连续性的任务,强调上下文的“接力”。
CLIP Contrastive Language-Image Pretraining 图文对比学习预训练 多模态模型
CNN Convolutional Neural Network 卷积神经网络
codeforces 一个提供在线评测系统的俄罗斯网站
COT Chain Of Thought 链式思维
CPU Central Processing Unit 中央处理器 处理器
dify 是一个开源的LLM 应用开发平台(画布、工作流)
DAPO Decoupled Clip and Dynamic Sampling Policy Optimization 解耦裁剪与动态采样
Transformer Decoder 解码器塔 #3.解码器单层(N层堆叠,通常N=6),同样由 N 个堆叠层组成,比编码器多了一层掩码多头自注意力(Masked Multi-Head Attention)。作用是基于上下文向量 + 已生成序列,逐词生成目标文本
DOM Document Object Model 文档对象模型
DPU Deep learning Processing Unit 深度学习处理器 处理器
DSL Domain Specific Language 领域特定语言
DPO Direct Preference Optimization 直接偏好优化 跳过RM直接对齐人类喜好
Transformer Encoder 编码器塔 #2.编码器单层(N层堆叠,通常N=6),由 N 个相同的堆叠层组成,每层包含 “多头自注意力 + 残差连接 & 层归一化 + 前馈神经网络”。作用是对输入序列进行特征提取,输出包含全局语义信息的上下文向量
ETL Extract-Transform-Load 提取、转换和加载
AI Embodied AI 具身智能
Few-shot 小样本 少样本提示应至少使用三到五个示例
Function Calling 函数调用
Transformer FFN Feed-Forward Neural Network 前馈神经网络 编码器和解码器每层都包含,是独立的两层全连接网络,作用是对注意力输出的特征做进一步非线性变换,增强模型的拟合能力。
FRCRN frequency recurrence Convolutional Recurrent Network 频率递归卷积循环网络 语音模型,用于降噪
Gemini Google开发的生成式人工智能聊天机器人
GGUF GPT-Generated Unified Format Georgi Gerganov定义发布的一种大模型文件格式(预训练结果的二进制格式)
GLUE General Language Understanding Evaluation 通用语言理解评估 基于已有的 9 种英文语言理解任务,涵盖多种数据集大小/文本类型和难度。终极目标是推动研究,开发通用和强大的自然语言理解系统
GLM Generalized Linear Model 广义线性模型 是一种用于描述响应变量与一组解释变量之间关系的统计模型
Goal-Based Agent 基于目标的智能体 比如:导航
GoT Graph of Thoughts 思维图 将思维链构建成图结构,支持循环、分支和整合
GPU Graphics Processing Unit 图形处理器 处理器
GPT Generative Pre-trained Transformer 生成式预训练变换器
GPQA Grade-Level Problems in Question Answering 专家级推理能力的问答基准
GQA Grouped-Query Attention 分组查询注意力
GRPO Group Relative Policy Optimization 组相关策略优化 是一种强化学习算法
CE GSSC Gather-Select-Structure-Compress 1.【Gathe】r: 从多源收集候选信息(历史、记忆、RAG、工具结果)2. 【Select】: 基于优先级、相关性、多样性筛选 3. 【Structure】: 组织成结构化上下文模板 4. 【Compress】: 在预算内压缩与规范化 上下文构建流程
LLM GRU Gate Recurrent Unit 门控循环单元
GSPO Group Sequence Policy Optimization 群组序列策略优化 在序列级别进行裁剪优化,比 PPO 更稳
HITL Human-in-the-loop 人机交互 是一种将人类判断和监督整合到AI系统决策过程中的设计理念
RAG HyDE Hypothetical Document Embeddings 假设性文档嵌入 它的核心思想是"用答案找答案"。HyDE通过让LLM先生成一个假设性的答案段落,然后用这个答案段落去检索真实文档,从而缩小了查询和文档之间的语义鸿沟。
Including Metadata 使用元数据 检索技术
Instruction Model 指令模型 指令模型是在基座模型上进行进一步训练,以理解和执行用户的具体指令
Instruction Tunned 指令微调 通过专门的训练,可以更好地理解并遵循指令
KL Kullback-Leibler Divergence KL散度 约束训练模型不偏离原始模型
LCEL LangChain Core Execution Layer langChain的新实现层
Learning Agent 学习型智能体
LIME Local Interpretable Model-agnostic Explanations 局部可解释性模型诊断解释
LoRA Low-Rank Adaptation of Large Language Models 大语言模型的低阶自适应
LLM Large Language Model 大语言模型
Transformer Layer Normalization 层归一化 层归一化是对单个样本的某一层所有神经元输出做 “标准化”
LLM Aided Retrieval LLM辅助检索 检索技术
llama Large Language Model Meta AI Meta AI公司于2023年2月发布的大型语言模型
LLM LSTM Long-Short Term Memory 长期短期记忆
Transformer MHA Multi-Head Attention 多头注意力 并行捕捉多重语义关联。这是自注意力机制的升级版,把注意力拆分成多个 “头”,每个头专注捕捉不同维度的语义关联(比如语法关系、指代关系),最后拼接结果,让模型更全面地理解文本。
MAS Multi-Agent System 多智能体系统
MBRA Model-Based Reflex Agent 基于模型的反射智能体
智能体通信协议 MCP Model Context Protocol 模型上下文协议 由Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。
CE MVTS Minimum Viable Tool Set 最小可行工具集
RAG mqe Multi-Query Expansion 多查询扩展 是一种通过生成语义等价的多样化查询来提高检索召回率的技术
MLA Multi-Head Latent Attention 多头潜在注意力 架构
Transformer MMHA Masked Multi-Head Attention 掩码多头自注意力 防止模型在生成时 “偷看” 未来的词
MLM Masked Language Model 掩码语言模型 是一种自监督学习任务,主要用于训练基于Transformer架构的模型(如BERT、RoBERTa等)
MMLU Massive Multitask Language Understanding 大规模的多任务测试
MMR Maximum marginal relevance 最大边际相关性 是一种用于优化信息检索、推荐系统和文本摘要生成的算法。它通过在“相关性”和“多样性”之间取得平衡,选择既与查询相关又不重复的内容,从而提升结果的质量和实用性。MMR 的核心目标是同时优化两个关键因素:【相关性】和【多样性】。相关性确保结果与用户查询高度匹配,而多样性避免内容重复,提供更全面的信息。
MoE Mixture of Experts 混合专家模型 架构
MQA Multi-Query Attention 多查询注意力 共享KV头,加速推理省显存
MSE Microservices Engine 微服务引擎MSE
MTP Multi-Token Prediction 多Token预测技术
NLP NLP Natural Language Processing 自然语言处理
Neo4jGraph 图存储
NPU Neural network Processing Unit 神经网络处理器 处理器
ollama Ollama是大语言模型便捷的管理和运维工具
one-hot 独热码 将离散的分类标签转换为二进制向量
One-shot 单样本
ORA Objective(目标)-Requirements(要求)-Actions(关键动作) 长期计划的核心方法 示例:第一轮提问:【目标】:你希望这个情报分析伙伴主要关注哪个领域或主题?(比如:特定行业、技术趋势、市场竞争、投资机会等)【要求】:你期望的交付频率是怎样的?是每天、每周还是按需生成?你偏好深度分析报告还是简洁的要点摘要?
【关键动作】:除了常规的信息收集,你希望分析报告包含哪些特定元素?(比如:趋势预测、竞争对标、风险预警、机会识别等)
Transformer #4.输出层(Output Layer) 功能:线性层+Softmax → 输出每个词的概率分布 → 选概率最高词输出
Paraformer 达摩院语音团队提出的一种高效的非自回归端到端语音识别框架 语音模型
PDDL Planning Domain Definition Language 规划领域定义语言
PEAS Performance性能、Environment环境、Actuators执行器、Sensors传感器 用于描述一个任务环境的规约
Transformer Positional Encoding 位置编码 #1.输入层:位置编码会给每个词向量添加位置信息,让模型知道词语在句子中的先后顺序,保证语义理解的准确性
Prompt 提示词,即给大模型的输入 将大模型返回的输出称为Completion
PE PE Prompt Engineering 提示工程
PPO Proximal Policy Optimization 近端策略优化 主流的强化学习微调算法
Prompt Rejection 提示词注入
Precision 精确率 又叫查准率,但不等同于准确率,精准率代表对正样本结果中的预测准确程度;而准确率则代表整体的预测准确程度,既包括正样本,也包括负样本
Transformer Pretrain-Finetune 预训练-微调
Prompt Stuffing 提示词填充
Qdrant quadrant Rust编写的开源向量数据库与相似度搜索引擎 同类产品:Milvus/Go,C++编写;FAISS/适合离线批量处理;
RAG RAG Retrieval-Augmented Generation 检索增强生成
ReAct Reasoning and Action 融合了Reasoning和Acting的一种范式,推理过程是浅显易懂,仅仅包含thought-action-observation步骤
Recall 召回率 实际为正的样本中被预测为正样本的概率
Transformer Residual Connection 残差连接 梯度可以通过这条「捷径」直接反向传播到前层,避免梯度消失
Retrieval 检索 指根据用户的问题去向量数据库中搜索与问题相关的文档内容
RL Reinforcement Learning 强化学习
RL RLAIF Reinforcement Learning from AI Feedback AI 反馈强化学习 用强 AI 代替人类给模型打分,降低成本
RL RLHF Reinforcement Learning from Human Feedback 基于人类反馈对语言模型进行强化学习
RM Reward Model 奖励模型 模拟人类偏好给回答打分
ROUGE Recall-Oriented Understudy for Gisting Evaluation 面向召回的要点评估替补 主要关注机器生成的摘要中是否捕捉到了参考摘要的信息
ROPE Rotary Positional Embeddings 旋转位置编码 它旨在解决 Transformer 模型如何理解序列中 token 顺序(位置信息)的问题
RPA Robotic Process Automation 机器人流程自动化
RRF Reciprocal Rank Fusion 倒数排名融合
RWKV Recurrent Weighted Key Value 基于RNN的加权键值
LLM RNN Recurrent Neural Network 循环神经网络 【特点】:具有“记忆”功能。在处理当前输入时,它不仅考虑当前时刻的信息,还结合了上一时刻的隐藏状态(即之前的记忆)像人阅读一样,逐字逐词地按顺序处理信息。【局限】:1、无法并行计算:因为必须等上一步计算完才能算这一步,速度较慢;2、长距离依赖问题:当序列很长时,开头的记忆很容易在后面丢失(即“梯度消失/爆炸”问题)。【代表模型】:LSTM, GRU
LLM SA Self-Attention 自注意力机制 它允许模型在处理序列中的某个元素时,同时关注序列中的其他所有元素,以计算它们之间的相关性。【特点】1、并行计算:可以一次性处理整个序列,速度极快;2、捕捉长距离依赖:无论两个词距离多远,它们之间的计算路径长度都是 1,能够完美捕捉长距离的上下文关系。【代表模型】:Transformer, BERT, GPT
SAE Serverless App Engine Serverless 应用引擎
SAM Self-Attention-Mechanism 用于文本到语音的生成
SC self consistency 自我一致性
SDD Spec-Driven Development (SDD) for AI coding assistants 规约驱动开发
SFT Supervised Fine-Tuning 监督微调
SHAP SHapley Additive exPlanations 沙普利加和解释 比较全能的模型可解释性的方法
Skip-Gram 给定input word来预测上下文
Softmax 归一化指数函数 应用于多分类问题
spaCy 工业级 自然语言处理 (NLP)功能的Python软件包
SPLADE Sparse Lexical and Expansion Model for First Stage Ranking 是一个基于BERT的稀疏编码模型
SRA Simple Reflex Agent 反射智能体 condition action rule,达到条件触发规则
SSE Server Sent Events 服务器发送事件 是Cline和MCP Server之间的一种通信方式,仅支持服务器 → 客户端消息
SSM State Space Model 状态空间模型 Mamba 的核心架构,推理速度快,长文本强
STDIO Standard Input Output 标准输入/输出 是Cline和MCP Server之间的一种通信方式
CE Sub-agent architectures 子代理架构 由主代理负责高层规划与综合,多个专长子代理在“干净的上下文窗口”中各自深挖、调用工具并探索,最后仅回传凝练摘要。适合复杂研究与分析,能从并行探索中获益。
CE Structured note-taking 结构化笔记 也称“智能体记忆”。智能体以固定频率将关键信息写入上下文外的持久化存储,在后续阶段按需拉回。以极低的上下文开销维持持久状态与依赖关系。例如维护 TODO 列表、项目 NOTES.md关键结论/依赖/阻塞项的索引。适合有里程碑/阶段性成果的迭代式开发与研究。
SuperGLUE Super General-Purpose Language Understanding Evaluation 超(级)通用语言理解评估
SVM Support Vector Machine 支持向量机
SWE-bench Verified Software Engineering 软件工程基准测试
SWIFT Scalable lightWeight Infrastructure for Fine-Tuning 轻量级训练和推理框架 旨在帮助开发者高效地微调和部署大模型
TAO Thought(思考)->Action(行动)->观察(Observation)
temperature 温度系数 用于控制文本生成的随机性和多样性。值越大,多样性越大,值越小,输出约倾向高概率文本
TF-IDF Term Frequency-Inverse Document Frequency 词频逆文档频率 评估一个词对整篇文档的重要程度。1.TF(t,d)理解:一个词在文档中出现的越多,理论上越重要。 2.IDF(t,D):某个词在整个文档集中的罕见程度。一个词在所有文档里出现得越少,区分度越高 3.TF-IDF=TF(t,d) x IDF(t,D): 词在文档中越常见 + 在全库中越罕见 -> TF-IDF越高 -> 该文档越重要
tiktoken tiktoken 是一个为 OpenAI 模型设计的高性能 BPE(Byte Pair Encoding)分词器。 它能够快速将文本转换为模型可以理解的数字序列(称为 tokens),并且支持多种编码方式。
ToT Tree Of Thoughs 思维树
Tokenizer 分词器
TPOT Time Per Output Token 平均每个输出Token的生成时间(解码阶段) 衡量内容生成流畅度
TPU Tensor Processing Unit 张量处理器 处理器
Transformer 变换器 架构
TTFT Time To First Token 从请求发送到收到第一个输出Token的时间 衡量系统初始响应速度
TTS Text To Speech 文本转语音
Utility-Based Agent 基于效用的智能体
Vertex AI Vertex AI 是一个机器学习 (ML) 平台,可让您训练和部署机器学习模型和人工智能应用
LLM vLLM Vectorized Large Language Model serving engine/Virtual LLM 向量/虚拟大模型 伯克利大学LMSYS组织开源的大语言模型高速推理框架。引入了PagedAttention技术类似于操作系统的虚拟内存管理
VLM VLM Vision-Language Models 视觉语言模型
VQA Visual Question Answering 视觉问答 理解图像内容回答文本问题
WAF Web Application Firewall 防火墙
Word2Vec 用于生成词嵌入(word embeddings)的高效方法
YOLO You Only Look Once YOLO是一种基于深度学习的实时目标检测算法,其核心理念是将目标检测任务转化为一个单一的回归问题。
Zero-shot 零样本
- - - -

写在后面

  如果本文内容对您有价值或者有启发的话,欢迎点赞、关注、评论和转发。您的反馈和陪伴将促进我们共同进步和成长。

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐