汀的知识碎片
Search
Search
Dark mode
Light mode
文章导航
Home
❯
LLM
❯
LLM原理
Folder: LLM/LLM原理
9 items under this folder.
Mar 04, 2026
LLM 原理 专栏导览
LLM
Transformer
注意力机制
预训练
RLHF
推理优化
大语言模型
Mar 04, 2026
从 RNN 到 Transformer——注意力机制的革命
LLM
Transformer
注意力机制
Self-Attention
RNN
LSTM
位置编码
深度学习
Mar 04, 2026
GPT 架构——Decoder-Only 的自回归语言模型
LLM
GPT
Decoder-Only
自回归
Tokenizer
BPE
RoPE
Embedding
Causal-Mask
Mar 04, 2026
预训练——数据、算力与 Scaling Law
LLM
预训练
Scaling-Law
分布式训练
数据并行
张量并行
流水线并行
ZeRO
混合精度
Mar 04, 2026
指令微调与 RLHF——从基座模型到对话助手
LLM
SFT
RLHF
DPO
指令微调
对齐
Reward-Model
PPO
人类反馈
Mar 04, 2026
参数高效微调——LoRA、QLoRA 与 Adapter
LLM
LoRA
QLoRA
PEFT
Adapter
微调
低秩分解
量化
P-Tuning
Mar 04, 2026
推理优化——KV Cache、量化与投机解码
LLM
推理优化
KV-Cache
量化
GPTQ
AWQ
投机解码
Continuous-Batching
PagedAttention
Mar 04, 2026
模型部署与 Serving——vLLM、TensorRT-LLM 与 Triton
LLM
部署
vLLM
TensorRT-LLM
Triton
Serving
模型服务
GPU
推理服务
Mar 04, 2026
长上下文与多模态——技术前沿
LLM
长上下文
多模态
RoPE
Flash-Attention
稀疏注意力
Vision-Transformer
CLIP
技术前沿