# base-nlp **Repository Path**: m626/base-nlp ## Basic Information - **Project Name**: base-nlp - **Description**: 从 NLP 到大语言模型 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 1 - **Forks**: 0 - **Created**: 2025-12-13 - **Last Updated**: 2025-12-13 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README
base-nlp Logo

从 NLP 到大语言模型

Base NLP is all you need

GitHub stars GitHub forks Python
在线阅读 讨论交流
> **注意:本项目当前暂不接受 Pull Request。** > 如果您有任何建议或发现任何问题,欢迎通过 [Issue](https://github.com/datawhalechina/base-nlp/issues) 进行反馈。 ## 📖 项目简介 本项目是一个**从传统 NLP 到大语言模型(LLM)的全栈式学习教程**,旨在为开发者提供一条从理论入门到工程实战的清晰路径。 在 LLM 爆发的今天,许多开发者直接上手调用 API 或微调大模型,却往往忽视了底层的自然语言处理(NLP)基础。本项目主张 **“Base NLP is all you need”**,通过系统性地回顾 NLP 发展历程中的核心技术——从早期的词向量、循环神经网络(RNN),到变革性的 Transformer 架构,再到如今的 BERT、GPT 及 Llama 系列大模型——帮助读者构建坚实的技术护城河。 **核心内容覆盖:** 1. **NLP 理论基石**:深入浅出地讲解分词、词向量(Word2Vec)、RNN/LSTM 等经典算法。 2. **Transformer 架构**:剖析 Attention 机制,详解 Encoder-Decoder 架构,奠定大模型认知基础。 3. **预训练语言模型**:全面覆盖 BERT、GPT、T5 等里程碑式模型的设计与应用。 4. **大模型进阶实战**:从零手搓 Llama2 模型,掌握参数高效微调(PEFT/LoRA)、RLHF 等前沿技术。 5. **工程化落地**:涵盖模型量化、推理加速、Docker 容器化及服务部署的全流程实战。 6. **大模型安全与多模态**:探索模型安全挑战、伦理问题,以及图文多模态模型的前沿技术。 ## 🌟 项目意义 随着人工智能技术的飞速发展,掌握大语言模型已成为 AI 工程师的必备技能。然而,市面上的教程往往存在断层。要么过于偏重学术理论,晦涩难懂;要么仅停留在 API 调用的应用层,缺乏底层原理的支撑。 本项目致力于填补这一空白,通过**理论与代码并重**的方式,帮助开发者: * **打通知识脉络**:理解技术演进的内在逻辑(如:为什么从 RNN 发展到 Transformer?)。 * **掌握核心原理**:不仅会用,更懂其“所以然”,具备排查复杂问题和优化模型结构的能力。 * **学习代码演进**:采用“提出问题-迭代重构”的教学模式,展示从简易脚本到工业级框架的演变过程,培养真正的工程化思维。 * **提升工程能力**:通过 NER、文本分类及 LLM 微调部署等实战项目,积累生产环境下的开发经验。 * **拓宽技术视野**:探索大模型安全、多模态等前沿领域,紧跟 AI 技术发展的最新趋势。 ## 🎯 项目受众 **本项目适合以下人群学习:** * 🎓 **在校学生**:希望系统学习 NLP 知识,为科研或求职打下基础。 * 💻 **AI 算法工程师**:需要从传统机器学习/深度学习转型到大模型领域的开发者。 * 🤔 **LLM 爱好者**:对大模型底层原理感兴趣,希望深入理解大模型架构运行机制的极客。 * 🔬 **研究人员**:需要快速回顾 NLP 经典算法或寻找基线代码实现的学者。 **前置要求:** * 🟢 **Python 基础**:熟练掌握 Python 语法及常用数据结构。 * 🔵 **PyTorch 框架**:具备基本的 PyTorch 深度学习框架使用经验。 * 🟡 **数学基础**:了解基本的线性代数、概率论及梯度下降等深度学习概念。 ## ✨ 项目亮点 1. **体系化进阶路径**:从基础的文本表示到 RLHF 和量化技术,内容层层递进。 2. **手写核心代码**:拒绝"调包侠",带领读者手写 Llama2、Transformer 等核心架构代码。 3. **实战导向**:包含文本分类、命名实体识别(NER)、私有数据微调 Qwen2.5 等多个完整项目。 4. **全流程覆盖**:不仅教你怎么训练,还教你怎么用 Docker 和 FastAPI 将模型部署成服务。 5. **图文并茂**:配合大量图解,将抽象的算法原理可视化,降低学习门槛。 6. **直观易懂**:尽量弱化复杂的数学公式推导,让数学基础薄弱的读者也能轻松掌握算法原理。 ## 内容大纲 ### 第一部分:理论篇 - **第 1 章:NLP简介** - [x] [NLP 概述](./docs/chapter1/01_nlp_intro.md) - **第 2 章:文本表示与词向量** - [x] [初级分词技术](./docs/chapter2/03_tokenization.md) - [x] [词向量表示](./docs/chapter2/04_word_vector.md) - [x] [从主题模型到 Word2Vec](./docs/chapter2/05_Word2Vec.md) - [x] [基于 Gensim 的词向量实战](./docs/chapter2/06_gensim.md) - **第 3 章:循环神经网络** - [x] [循环神经网络](./docs/chapter3/08_RNN.md) - [x] [LSTM 与 GRU](./docs/chapter3/09_LSTM&GRU.md) - **第 4 章:注意力机制与Transformer** - [x] [Seq2Seq 架构](./docs/chapter4/10_seq2seq.md) - [x] [注意力机制](./docs/chapter4/11_attention.md) - [x] [深入解析 Transformer](./docs/chapter4/12_transformer.md) - **第 5 章:预训练模型** - [x] [BERT 结构及应用](./docs/chapter5/13_Bert.md) - [x] [GPT 结构及应用](./docs/chapter5/14_GPT.md) - [x] [T5 结构及应用](./docs/chapter5/15_T5.md) - [x] [Hugging Face 生态与核心库](./docs/chapter5/16_HuggingFace.md) - **第 6 章:深入大模型架构** - [x] [手搓一个大模型](./docs/chapter6/17_handcraft_llama2.md) - [x] [MOE 架构解析](./docs/chapter6/18_MoE.md) ### 第二部分:实战篇 - **第 1 章:文本分类** - [x] [文本分类简单实现](./docs/chapter7/01_text_classification.md) - [x] [基于 LSTM 的文本分类](./docs/chapter7/02_lstm_text_classification.md) - [x] [微调 BERT 模型进行文本分类](./docs/chapter7/03_bert_text_classification.md) - **第 2 章:命名实体识别** - [x] [命名实体识别概要](./docs/chapter8/01_named_entity_recognition.md) - [x] [NER 项目的数据处理](./docs/chapter8/02_data_processing.md) - [x] [模型构建、训练与推理](./docs/chapter8/03_model_building_and_training.md) - [x] [模型的推理与优化](./docs/chapter8/04_evaluation_and_prediction.md) ### 第三部分:微调量化篇 - **第 1 章:参数高效微调** - [x] [PEFT 技术综述](./docs/chapter11/01_PEFT.md) - [x] [LoRA 方法详解](./docs/chapter11/02_lora.md) - [x] [基于 peft 库的 LoRA 实战](./docs/chapter11/03_peft_lora.md) - [x] [Qwen2.5 微调私有数据](./docs/chapter11/04_qwen2.5_qlora.md) - **第 2 章:高级微调技术** - [x] [RLHF 技术详解](./docs/chapter12/01_RLHF.md) - [x] [LLaMA-Factory RLHF(DPO)实战](./docs/chapter12/02_llama_factory.md) - **第 3 章:大模型训练与量化** - [ ] [Deepspeed 框架介绍](./docs/chapter13/01_deepspeed.md) - [ ] [AWQ 模型量化实战](./docs/chapter13/02_awg.md) ### 第四部分:应用部署篇 - **第 1 章:模型服务部署** - [x] [FastAPI 模型部署实战](./docs/chapter14/01_fastapi.md) - [x] [云服务器模型部署实战](./docs/chapter14/02_uv_linux.md) - [x] [使用 Docker Compose 部署模型服务](./docs/chapter14/03_docker_deploy.md) - **第 2 章:自动化与性能优化** - [ ] [搭建 Jenkins CI/CD 自动化部署流水线] - [ ] [运用 TensorRT 加速模型推理] ### 第五部分:大模型安全 - **第 1 章:安全全景与威胁建模** - [x] [大模型安全总览](./docs/chapter16/01_LLM_safety_overview.md) ### 第六部分:多模态前沿 ## 致谢 **核心贡献者** - [dalvqw-项目负责人](https://github.com/FutureUnreal)(项目发起人与主要贡献者) ### 特别感谢 - 感谢 [@Sm1les](https://github.com/Sm1les) 对本项目的帮助与支持 - 感谢所有为本项目做出贡献的开发者们 - 感谢开源社区提供的优秀工具和框架支持 - 特别感谢以下为教程做出贡献的开发者! [![Contributors](https://contrib.rocks/image?repo=datawhalechina/base-nlp)](https://github.com/datawhalechina/base-nlp/graphs/contributors) *Made with [contrib.rocks](https://contrib.rocks).* ## 参与贡献 - 发现问题请提交 Issue。 ## Star History [![Star History Chart](https://api.star-history.com/svg?repos=datawhalechina/base-nlp&type=Date)](https://star-history.com/#datawhalechina/base-nlp&Date)

如果这个项目对你有帮助,请给我们一个 ⭐️

让更多人发现这个项目(护食?发来!)

## 关注我们

扫描下方二维码关注公众号:Datawhale

## 许可证 知识共享许可协议
本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。