Skip to content

10 - 大语言模型

本模块系统讲解大语言模型(LLM)的核心技术,从Transformer架构到实际应用。

模块结构

10-large-language-models/
├── 01-llm-fundamentals/        # LLM基础
├── 02-pretrained-models/       # 预训练模型
├── 03-fine-tuning/             # 微调技术
├── 04-prompt-engineering/      # 提示工程
├── 05-rag/                     # 检索增强生成
├── 06-agents/                  # Agent系统
└── 07-alignment/               # 对齐训练

核心内容

01 - LLM基础

主题内容
Transformer架构自注意力机制、位置编码、多头注意力
TokenizerBPE、WordPiece、SentencePiece
预训练目标语言建模、掩码语言建模

02 - 预训练模型

模型特点
GPT系列自回归生成、因果注意力
BERT双向编码、掩码预测
LLaMA高效架构、开源可用

03 - 微调技术

技术说明
全参数微调更新所有参数
LoRA低秩适配,参数高效
QLoRA量化+LoRA,显存友好
Adapter插入适配层

04 - 提示工程

技术应用
Zero-shot无示例推理
Few-shot少样本学习
Chain-of-Thought思维链推理
ReAct推理+行动

05 - 检索增强生成 (RAG)

组件功能
文档切分文本分块策略
向量嵌入文本向量化
向量数据库FAISS、Chroma
检索策略相似度检索、混合检索

06 - Agent系统

组件功能
工具调用Function Calling
记忆管理上下文管理
任务规划任务分解与执行

07 - 对齐训练

技术说明
RLHF人类反馈强化学习
DPO直接偏好优化
Constitutional AI宪法AI

学习路线

LLM基础 → 预训练模型 → 微调技术 → 提示工程 → RAG → Agent → 对齐

依赖库

python
transformers>=4.30.0
peft>=0.5.0
accelerate>=0.21.0
langchain>=0.1.0
chromadb>=0.4.0
sentence-transformers>=2.2.0

Released under the MIT License.