再上王炸教程!AI大模型核心:NLP从入门到精通!
通过该套教程,你将具备从文本预处理、传统序列模型RNN/LSTM/GRU、大模型核心Transformer算法到迁移学习算法的能力,能够完成文本分类、翻译、实体识别等主流NLP任务,解决NLP自然语言处理领域核心问题!
最近,黑马粉丝对我们的评价是:太高产了!到底还有多少王炸没掏出来!

哈哈,我们的答案是:学习不停,更新不止!
在免费教程的赛道上,黑马没有对手,只有不断超越自己的身影~
大家都知道,最近黑马不仅上新了AI大模型系列教程,还推出了相关系列的教程 可以说只要你跟着黑马的节奏来自学AI,入门简直就是分分钟的事情!
今天重磅上新!AI大模型系列教程第六弹:
通过该套教程,你将具备从文本预处理、传统序列模型RNN/LSTM/GRU、大模型核心Transformer算法到迁移学习算法的能力,能够完成文本分类、翻译、实体识别等主流NLP任务,解决NLP自然语言处理领域核心问题!

本课程基于神经网络与Pytorch框架,聚焦NLP核心技术与Transformer体系,面向有基础的学习者。
以“原理拆解+代码实操”为核心,将复杂的Transformer架构(输入嵌入、位置编码、多头注意力、编码器/解码器)通过“公式解读+步骤拆解+可视化分析”讲透,衔接梯度下降、反向传播等已有知识。
案例覆盖文本分类、机器翻译、情感分析等经典任务,代码逐行解析Transformer从搭建到训练的全流程,兼顾理论深度与工程实用性。讲解逻辑从基础工具到传统模型,再到Transformer与预训练模型逐步递进,既巩固已有基础,又高效吸收NLP专属知识,助力快速上手实战。
课程亮点
① 技术特点:以Transformer为核心串联NLP技术体系,从传统序列模型到基于Transformer的预训练模型,技术栈贴合企业实际应用,覆盖NLP核心与前沿。
② 比同类教程优势:重点拆解Transformer完整架构与实现细节;提供Transformer及各类模型的完整代码资源与实战案例,避免“听懂不会做”。
③ 实战性强:包含人名分类、机器翻译、情感分析等多个可复用实战项目,覆盖数据处理、模型构建(含Transformer)、训练调优全流程
④ 工具链齐全:详细讲解jieba、fasttext、Transformers等主流NLP工具,结合Pytorch实现Transformer搭建,形成“模型原理+工具应用+实战落地”的完整能力。
⑤ 学习效率高:基于已有神经网络与Pytorch基础设计内容,精简冗余讲解,直击Transformer核心难点与NLP实用技巧,短时间内实现能力跃迁。
⑥ 知识点精准:聚焦“Transformer为核心的NLP技术链路”,从原理到应用再到实战,知识点精炼且落地性强,适配进阶学习需求。
⑦ 能力提升:重点提升Transformer模型构建、NLP技术选型、模型调优与工程落地能力,为后续大模型应用复杂任务(文本生成、阅读理解)打下坚实基础。
适合人群
①AI相关专业学生:想系统学习Transformer及NLP技术;
②具备基础AI能力的开发人员:已具备基础AI能力,想拓展NLP方向
③工程技术人员:需要落地Transformer相关NLP任务;
④AI从业者:已在该领域,希望提升NLP实战能力。
PS,学习此套教程需要一定基础,包括:Python基础语法、大模型Python语言进阶、数据处理与统计分析、机器学习、深度学习。大家可以参考黑马最新版《AI大模型学习路线图》。
你将收获
1.掌握NLP领域前沿的技术解决方案
2.掌握word2vec的两种模式CBOW和SkipGram
3.掌握NLP相关知识的原理和实现
4.掌握RNN/LSTM/GRU内部结构
5.掌握非序列模型解决文本问题的原理和方案
6.能够使用Pytorch搭建神经网络
7.构建基本的语言翻译系统模型
8.构建基本的文本生成系统模型
9.构建基本的文本分类器模型
10.使用FastText进行快速的文本分类
11. 熟悉Transformer底层原理及算法思想
12. 熟悉Transformer架构的分类
13. 熟悉注意力机制相关原理及优化
14. 使用Bert等预训练模型,完成文本分类任务
15. 熟悉Transformer模块的Encode结构和作用
16. 熟悉Transformer模块的Decoder结构和作用
17. 熟悉Self attention机制中的归一化原因
18. 熟悉Transformer的并行计算过程
19. 迁移学习预训练模型和微调的基本概念
20. 完成英译法基于Attention机制GRU解码器实现
课程内容
NLP自然语言处理课程导学
Day01
01-NLP课程大纲介绍
02-NLP课程要求
03-NLP入门基础知识
04-文本预处理基本介绍
05-分词概念的基本介绍
06-jieba实现精确模式的分词
07-jieba实现全模式以及搜索引擎分词
08-jieba实现繁体分词
09-jieba分词词典的介绍
10-jieba实现自定义词典应用
11-NER概念的基本介绍
12-jieba分词的词性标注
13-词向量的基本介绍
Day02
01-one-hot编码的实现
02-one-hot编码的重加载应用
03-CBOW词向量训练工程解析
04-CBOW词向量训练思想画图解析
05-Softmax和交叉熵损失回顾
06-SkipGram词向量训练思想解析
07-词向量获取
08-fasttext和pytorch的安装
09-Fasttext训练词向量并保存
10-重加载利用词向量模型
11-Embedding和word2vec的区别
12-Embedding代码的实现和解释
13-tensorboard可视化Embedding向量
14-根据索引去取出对应的向量
Day03
01-样本标签的数量分布统计
02-样本句子长度分布统计
03-样本句子长度分布散点图
04-样本单词的总数获取
05-词云统计读取文件
06-获得train正样本形容词
07-获取形容词词云的展示
08-上午内容的回顾
09-N-gram特征的理解
10-zip函数的讲解
11-N-gram代码实现以及长度规范代码实现
12-回译数据增强方法的介绍
13-RNN模型的理解
14-RNN模型的作用
15-RNN模型的分类
Day04
01-传统RNN模型内部结构图
02-RNN源代码公式理解
03-RNN代码的初步分析
04-RNN初步代码实现
05-RNN改变句子长度代码实现
06-RNN修改batch-first以及num_layers
07-RNN模型的缺点
08-LSTM的基本结构
09-LSTM模型的理解1
10-LSTM模型的理解2
11-LSTM模型的代码实现
Day05
01-GRU内部结构的介绍
02-GRU代码的实现
03-RNN人名分类案例分析
04-常用字符的获取
05-读取数据到内存
06-自定义Dataset类前半部分
07-自定义Dataset类后半部分
08-实例化Dataloader对象
09-RNN初始化方法的实现
10-RNN的forward方法实现
11-LSTM模型的代码实现
12-GRU模型的代码实现
13-RNN模型训练代码的前半部分
14-RNN模型训练代码的中间部分
15-RNN模型训练代码的后半部分
Day06
01-LSTM训练函数的实现
02-RNN系列模型损失以及耗时对比
03-RNN系列模型准确率对比
04-RNN模型预测函数的实现
05-LSTM以及GRU模型预测函数的实现
06-RNN人名分类案例总结
07-传统机器翻译的基本过程
08-注意力机制的由来
09-注意力机制的分类
10-无Attention的Encoder-Decoder框架
11-加Attention的Encoder-Decoder框架
12-soft注意力权重的计算实现
13-soft注意力机制的总结
Day07
01-HardAttention的思想介绍
02-SelfAttention的思想介绍
03-计算注意力三种规则方式
04-Seq2Seq架构加入Attention(第一种方式)
05-Seq2Seq架构加入Attention(第二种方式)
06-两种方式的对比
07-注意力机制的作用
08-注意力机制计算的步骤
09-注意力机制代码实现init方法
10-注意力机制代码forward思路解析
11-注意力机制代码forward的实现
12-注意力机制代码实现第二种方式
13-Seq2Seq英译法案例的梳理
14-导入第三方库并且定义全局变量
15-数据清洗函数的实现
Day08
01-读取样本数据并构建语言文本对
02-构建英文词典和法文词典
03-构建Dataset数据源
04-实例化dataloader数据迭代器
05-Encoder模型init方法的实现
06-Encoder模型forward方法的实现
07-无Attention解码器的init方法的实现
08-无Attention解码器的forward方法的实现
09-带Attention的解码器架构梳理
10-带Attention解码器的init方法梳理
11-带Attention解码器的init方法实现
12-带Attention解码器的forward方法梳理
13-带Attention解码器的forward代码实现
14-Attention解码器的测试
Day09
01-train_seq2seq主函数前半部分代码实现
02-train_iter内部迭代函数前半部分代码实现
03-train_iter内部迭代函数后半部分代码实现
04-内部迭代函数注意事项
05-tain_seq2seq主函数后半部分代码实现
06-应用评估函数的准备工作
07-评估函数的代码实现
08-加载其他人训练的模型注意事项
09-注意力图例的展示
10-Seq2Seq英译法案例
11-transformer模型的背景介绍
12-编码器的组成部分
13-解码器的组成部分
Day10
01-Embedding层的讲解
02-Embdding层代码的实现
03-三角函数位置编码的意义
04-位置编码公式的解析
05-位置编码公式代码解析
06-位置编码代码思路分析
07-位置编码代码的实现
08-上午内容回顾
09-掩码张量的介绍与实现
10-sentence_mask的原理讲解
11-padding_mask的原理 讲解
12-自注意力机制计算代码思路分析
13-注意力机制代码的实现
14-多头注意力机制的理解
15-多头注意力机制类init方法的实现
16-多头注意力机制类forward方法的分析
17-多头注意力机制类forward代码的实现
Day11
01-前馈全连接层的代码实现
02-LayerNorm原理的讲解
03-LayerNorm层代码的实现
04-子层连接结构代码的分析
05-子层连接结构代码的实现
06-编码器层结构代码的分析
07-编码器的代码实现
08-解码器层代码的解析
09-解码器层代码的实现
10-解码器的代码实现
11-输出层代码的实现
12-EncoderDecoder类init方法的实现
13-EncoderDecoder类forward方法的实现
Day12
01-Fasttext工具的介绍
02-文本分类任务的介绍
03-Fasttext分类模型的架构
04-文本分类任务的数据解析
05-fasttext文本分类的代码初步实现
06-数据预处理后的文本分类代码实现
07-模型调优后代码的实现
08-迁移学习的基本概念
09-transformers库的介绍
10-pipeline方式实现文本分类任务
11-pipeline方式实现特征抽取任务
12-pipeline方式实现完形填空任务
13-pipeline方式完成阅读理解任务
14-pipeline方式实现文本摘要任务
15-pipeline方式实现NER任务
16-AutoModel实现文本分类任务
Day13
01-AutoModel特征提取任务的实现
02-AutoModel完形填空任务的实现
03-AutoModel阅读理解任务的实现
04-AutoModel文本摘要任务的实现
05-AutoModel实现NER任务
06-具体模型实现完形填空任务
07-中文文本分类案例介绍及文件读取
08-导入必备的工具包
09-dataloader自定义函数的实现
10-文本分类自定义模型的实现
11-模型训练过程思路解析
12-模型训练函数代码的实现
13-模型验证过程的思路分析
14-模型验证函数的代码实现
Day14
01-中文完型填空任务的数据加载
02-中文完型填空任务的自定义函数
03-中文完型填空任务的模型定义
04-中文完型填空任务的模型训练
05-中文完型填空任务的模型预测
06-中文句子关系任务自定义Dataset
07-中文句子关系任务自定义函数
08-中文句子关系任务的模型搭建及训练
09-中文句子关系任务的模型预测
10-Bert模型的架构介绍
11-Bert模型的两大预训练任务
12-BERT模型的特点
13-AlBERT模型的介绍
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)