888888 发表于 2022-10-23 10:26:44

秦曾昌老师:自然语言处理第二期,视频教程+源码资料百...


课程文件目录:V-1992:《自然语言处理》第二期01-第1章:自然语言与数学之美1.1 课程简介及推荐书目1.10 凸集合和凸函数1.2 NLP的研究领域及应用1.3 自然语言的6个重要术语1.4 语言学的发展史 11.5 语言学的发展史 21.6 语言学的发展史 31.7 函数1.8 向量与向量的模1.9 矩阵和矩阵运算02-第2章:基于机器学习方法的自然语言处理2.1 主观概率和客观概率2.10 辛普森悖论和贝叶斯概率解题实例2.2 概率模型与条件概率2.3 贝叶斯原理与推理2.4 随机变量:二项式概率2.5 随机变量:期望与方差2.6 随机变量:联合概率2.7 伯努利分布和二项式分布2.8 多项式分布、伽玛分布和Beta分布2.9 泊松分布、高斯分布、对数正态分布和指数分布03-第3章:1、2章答疑第一周答疑04-第4章:自然语言3.1 语言的进化:来自自然选择的社会协作3.2 语言的进化:语言游戏与摩斯密码3.3 语言与智能:信息熵3.4 语言与智能:交叉熵的定义3.5 语义的进化3.6 语言模型:语言概率3.7 词袋模型3.8 二元语言模型:CR情感分析05-第5章:语言模型和中文分词4.1 三元语言模型4.10 N-Gram模型4.11 Optimal Path 最优路径模型4.12 中文分词工具:Jieba4.2 语言模型评价:交叉熵4.3 语言模型评价:Perplexity(困惑度)4.4 语言评价模型:Interpolation(插值法)4.5 概率模型:垃圾邮件分类4.6 概率模型:拼写检查4.7 语音模型和机器翻译模型4.8 中文构词法4.9 最大化匹配06-第6章:第二周答疑第二周答疑07-第7章:语言技术-词表达和Word2Vec5.1 词表达5.10 Word2Vec-Part 35.2 语义相似度5.3 TF-IDF权重处理5.4 One-Hot表达5.5 神经网络基础5.6 神经网络:反向传播 15.7 神经网络:反向传播 25.8 Word2Vec-Part 15.9 Word2Vec-Part 208-第8章:语言技术-词性6.1 什么是词性标注(POS Tagging)6.10 混合模型详解5:隐马尔科夫模型6.2 词性标注的方法6.3 词性的标注类别和标注集6.4 规则标注和N-Gram方法6.5 从混合模型到HMM6.6 混合模型详解1:EM模型6.7 混合模型详解2:EM模型6.8 混合模型详解3:高斯混合模型6.9 混合模型详解4:隐马尔可夫模型09-第9章:第三周答疑第三周答疑10-第10章:语言技术-概率图模型7.1 概率图模型:贝叶斯网络(有向无环图)7.2 概率图模型:分层图模型7.3 概率图模型:隐马尔科夫链7.4 隐马尔可夫模型的推导 17.5 隐马尔科夫模型的推导 27.6 隐马尔科夫模型的推导 37.7 隐马尔科夫模型的推导 47.8 PLSA主题模型17.9 PLSA主题模型 211-第11章:语言技术-文本与LDA主题模型8.1 向量表达和潜在语义索引(LSI)8.10 实验报告:文本语义相似度8.11 延展实验:主题模型引入字词关系的实现8.12 实验总结8.2 LDA和狄利克雷分布8.3 LDA主题模型8.4 主题模型的深化与对比8.5 语义距离(Semantic Distance)8.6 中文LDA模型:Word-base 和 Character-Base8.7 实验报告:困惑度(Perplexity)8.8 实验报告:文本分类准确度8.9 中英双语料库实验12-第12章:第四周答疑第四周答疑13-第13章:语言技术-句法9.1 上下文无关句法(CFG)-Part 19.2 上下文无关句法(CFG)-Part 29.3 概率上下文无关句法(PCFG)- Part 19.4 概率上下文无关句法(PCFG)-Part 29.5 概率上下文无关句法(PCGF)-Part 314-第14章:机器翻译10.1 机器翻译(Machine Translation)-Part 110.2 机器翻译(Machine Translation)-Part 210.3 机器翻译(Machine Translation)-Part 310.4 机器翻译(Machine Translation)-Part 410.5 机器翻译(Machine Translation)-Part 510.6 机器翻译(Machine Translation)-Part 615-第15章:第五周答疑第五周答疑16-第16章:卷积神经网络CNN11.1 神经元11.2 全连接网络及特性11.3 Auto-Encode 自编码器11.4 反向传播(BP)11.5 卷积神经网络(CNN)的理解11.6 CNN的基本原理:卷积核、权重和池化11.7 CNN的计算过程11.8 CNN如何应用在自然语言处理中17-第17章:循环神经网络RNN12.1 循环神经网络的基本原理12.2 Elman Network和Jordan Networ12.3 LSTM的核心思想12.4 LSTM的分步实现详解12.5 Encoder-Decoder 框架12.6 Seq2Seq 模型12.7 注意力机制(Attention Mechanism)18-第18章:第六周答疑第六周答疑19-第19章:注意力机制13.1 注意力机制产生的背景回顾13.2 注意力模型的实现原理13.3 注意力模型的应用领域13.4 记忆网络(Memory Network)的组成13.5 记忆网络的计算过程和实现方法13.6 匹配函数(Match Function)13.7 注意力模型的延展1:Neural Programmer13.8 注意力模型的延展2:神经图灵机20-第20章:广义模型(Universal Transformer)14.1 UT的典型结构:Stack of Encoder and Decoder14.2 Self-Attention的计算14.3 Multi-Head Attention 和前向反馈神经网络FFNN14.4 位置编码(Positional Encoding)14.5 层泛化(Lay Normalization)14.6 Softmax Layer:交叉熵和损失函数的计算14.7 ACT模型(Adaptive Computation Time)14.8 Universal Transformer 的完整实现流程21-第21章:第七周答疑第七周答疑22-第22章:自然语言研究的未来方向15.1 自然语言研究可行方向:知识图谱与深度学习的结合15.2 语义关系计算与知识库15.3 知识库推理学习:Neural Tensor Network15.4 跨媒体信息搜索:CMIR15.5 文本图卷积网络(Text GCN)15.6 NLP未来的探索方向


本资源来源于 网络 付费网站付费收集而来, 随时收集更新资源本站专注搜集和分享各种付费网站资源,感谢您的信任


资源下载地址:
**** Hidden Message *****
本站所有资源都来源于网络收集,网友提供或者交换而来!

如果侵犯了您的权益,请及时联系客服,我们即刻删除!
页: [1]
查看完整版本: 秦曾昌老师:自然语言处理第二期,视频教程+源码资料百...