Transformer架构原理(Self-Attention/Positional Encoding等)
HuggingFace Transformers / Accelerate 使用
Prompt Engineering / In-Context Learning 实践
参数高效微调(LoRA / P-Tuning / Adapter / QLoRA)
大模型推理优化(vLLM / TensorRT-LLM / 量化部署)
Agent框架实践(LangChain / LlamaIndex / AutoGen等)
模型对齐与评估(RLHF / DPO / 人类偏好数据构建)