NLP(自然语言处理)
主要任务:
1.基于现有文本分析
2.生成新文本(文本生成、机器翻译)
算法与模型:
隐马尔可夫模型
贝叶斯模型
SVM
聚类模型
----------------------
神经网络语言模型
循环神经网络
NLP分析及处理技术
词法分析
句法分析
语义理解
文本生成
外部资源
语料库
词典
停用词表
1.中文分词
1)正向最大匹配法 (Forward Maximum Matching,FMM)
2)逆向最大匹配法 (Reverse Maximum Matching, RMM)
3)双向最大匹配法 (Bi-directional Maximum Matching,Bi-MM)
2)逆向最大匹配法 (Reverse Maximum Matching, RMM)
3)双向最大匹配法 (Bi-directional Maximum Matching,Bi-MM)
Jieba库分词
2.词性标注
1)什么是词性标注
2)词性标注的原理
3)词性标注规范
2)词性标注的原理
3)词性标注规范
4)Jieba库词性标注
3. 命名实体识别(NER)
难点:
(1)各类命名实体的数量众多。
(2)命名实体的构成规律复杂。
(2)嵌套情况复杂。
(4)长度不确定。
命名实体识别方法有:
(1)基于规则的命名实体识别。规则加词典是早期命名实体识别中最行之有效的方式。其依赖手工规则的系统,结合命名实体库,对每条规则进行权重赋值,然后通过实体与规则的相符情况来进行类型判断。这种方式可移植性差、更新维护困难等问题。
(2)基于统计的命名实体识别。基于统计的命名实体识别方法有:[隐马尔可夫模型]([如何用简单易懂的例子解释隐马尔可夫模型? - 知乎 (zhihu.com)](https://www.zhihu.com/question/20962240))、最大熵模型、条件随机场等。其主要思想是基于人工标注的语料,将命名实体识别任务作为序列标注问题来解决。基于统计的方法对语料库的依赖比较大,而可以用来建设和评估命名实体识别系统的大规模通用语料库又比较少,这是该方法的一大制约。
(3)基于深度学习的方法。利用深度学习模型,预测词(或字)是否为命名实体,并预测出起始、结束位置。
(4)混合方法。将前面介绍的方法混合使用。
(2)命名实体的构成规律复杂。
(2)嵌套情况复杂。
(4)长度不确定。
命名实体识别方法有:
(1)基于规则的命名实体识别。规则加词典是早期命名实体识别中最行之有效的方式。其依赖手工规则的系统,结合命名实体库,对每条规则进行权重赋值,然后通过实体与规则的相符情况来进行类型判断。这种方式可移植性差、更新维护困难等问题。
(2)基于统计的命名实体识别。基于统计的命名实体识别方法有:[隐马尔可夫模型]([如何用简单易懂的例子解释隐马尔可夫模型? - 知乎 (zhihu.com)](https://www.zhihu.com/question/20962240))、最大熵模型、条件随机场等。其主要思想是基于人工标注的语料,将命名实体识别任务作为序列标注问题来解决。基于统计的方法对语料库的依赖比较大,而可以用来建设和评估命名实体识别系统的大规模通用语料库又比较少,这是该方法的一大制约。
(3)基于深度学习的方法。利用深度学习模型,预测词(或字)是否为命名实体,并预测出起始、结束位置。
(4)混合方法。将前面介绍的方法混合使用。
4. 关键词提取
1)TF-IDF算法
2)TextRank算法
# -*- coding: utf-8 -*- import math import jieba import jieba.posseg as psg from gensim import corpora, models from jieba import analyse import functools import numpy as np # 停用词表加载方法 def get_stopword_list(): # 停用词表存储路径,每一行为一个词,按行读取进行加载 # 进行编码转换确保匹配准确率 stop_word_path = '../data/stopword.txt' with open(stop_word_path, "r", encoding="utf-8") as f: lines = f.readlines() stopword_list = [sw.replace('\n', '') for sw in lines] return stopword_list # 去除停用词 def word_filter(seg_list): filter_list = [] for word in seg_list: # 过滤停用词表中的词,以及长度为<2的词 if not word in stopword_list and len(word) > 1: filter_list.append(word) return filter_list # 数据加载,pos为是否词性标注的参数,corpus_path为数据集路径 def load_data(corpus_path): # 调用上面方式对数据集进行处理,处理后的每条数据仅保留非干扰词 doc_list = [] for line in open(corpus_path, 'r', encoding='utf-8'): # 循环读取一行(一行即一个文档) content = line.strip() # 去空格 seg_list = jieba.cut(content) # 分词 filter_list = word_filter(seg_list) # 去除停用词 doc_list.append(filter_list) # 将分词后的内容添加到列表 return doc_list # idf值统计方法 def train_idf(doc_list): idf_dic = {} tt_count = len(doc_list) # 总文档数 # 每个词出现的文档数 for doc in doc_list: doc_set = set(doc) # 将词推入集合去重 for word in doc_set: # 词语在文档中 idf_dic[word] = idf_dic.get(word, 0.0) + 1.0 # 文档数加1 # 按公式转换为idf值,分母加1进行平滑处理 for word, doc_cnt in idf_dic.items(): idf_dic[word] = math.log(tt_count / (1.0 + doc_cnt)) # 对于没有在字典中的词,默认其仅在一个文档出现,得到默认idf值 default_idf = math.log(tt_count / (1.0)) return idf_dic, default_idf # TF-IDF类 class TfIdf(object): def __init__(self, idf_dic, default_idf, word_list, keyword_num): """ TfIdf类构造方法 :param idf_dic: 训练好的idf字典 :param default_idf: 默认idf值 :param word_list: 待提取文本 :param keyword_num: 关键词数量 """ self.word_list = word_list self.idf_dic, self.default_idf = idf_dic, default_idf # 逆文档频率 self.tf_dic = self.get_tf_dic() # 词频 self.keyword_num = keyword_num # 统计tf值 def get_tf_dic(self): tf_dic = {} # 词频字典 for word in self.word_list: tf_dic[word] = tf_dic.get(word, 0.0) + 1.0 total = len(self.word_list) # 词语总数 for word, word_cnt in tf_dic.items(): tf_dic[word] = float(word_cnt) / total return tf_dic # 按公式计算tf-idf def get_tfidf(self): tfidf_dic = {} for word in self.word_list: idf = self.idf_dic.get(word, self.default_idf) tf = self.tf_dic.get(word, 0) tfidf = tf * idf # 计算TF-IDF tfidf_dic[word] = tfidf # 根据tf-idf排序,去排名前keyword_num的词作为关键词 s_list = sorted(tfidf_dic.items(), key=lambda x: x[1], reverse=True) # print(s_list) top_list = s_list[:self.keyword_num] # 切出前N个 for k, v in top_list: print(k + ", ", end='') print() def tfidf_extract(word_list, keyword_num=20): doc_list = load_data('../data/corpus.txt') # 读取文件内容 # print(doc_list) idf_dic, default_idf = train_idf(doc_list) # 计算逆文档频率 tfidf_model = TfIdf(idf_dic, default_idf, word_list, keyword_num) tfidf_model.get_tfidf() def textrank_extract(text, keyword_num=20): keywords = analyse.textrank(text, keyword_num) # 输出抽取出的关键词 for keyword in keywords: print(keyword + ", ", end='') print() if __name__ == '__main__': global stopword_list text = """在中国***百年华诞的重要时刻,在“两个一百年”奋斗目标历史交汇关键节点, 党的十九届六中全会的召开具有重大历史意义。全会审议通过的《决议》全面系统总结了党的百年奋斗 重大成就和历史经验,特别是着重阐释了党的***以来党和国家事业取得的历史性成就、发生的历史性变革, 充分彰显了中国***历史自觉与历史自信。""" stopword_list = get_stopword_list() seg_list = jieba.cut(text) # 分词 filter_list = word_filter(seg_list) # TF-IDF提取关键词 print('TF-IDF模型结果:') tfidf_extract(filter_list) # TextRank提取关键词 print('TextRank模型结果:') textrank_extract(text)