Python实现对中文文本分段分句
一、问题
实现对文本的分句,大致来说主要是以中文的句号、感叹、问号等符号进行分句。难点在于直接分句可能会造成人物说话的语句也被分开!
二、步骤
分段
首先读取文本,文本读取后整体是一个字符串,每一个段之间是空白,所以分段之间按照空白分开来即可,最后存入一个paragraph_list,注意该list的下标就是段落的顺序号!其他的这里就不再多赘述!(可以查看最后的整体代码)
分句
首先拿到上面分好的paragraph_list,循环拿到每一段,然后对每一段直接按照分句规则(正则表达式)进行分句,参考该文章
import re def cut_sent(para): para = re.sub('([。!?\?])([^”'])', r"\1\n\2", para) para = re.sub('(\.{6})([^”'])', r"\1\n\2", para) para = re.sub('(\…{2})([^”'])', r"\1\n\2", para) para = re.sub('([。!?\?][”'])([^,。!?\?])', r'\1\n\2', para) para = para.rstrip() return para.split("\n") # 这一段文字分句后应该有的结果 s = '今天天气好啊!' \ '温度高吗?你好,很高兴遇见你,真不错。' \ '小明遇见小红说:"你的衣服这好看!"' \ '小红说:"什么?衣服真好看?真的吗?"' \ '小明回答到:"嗯,真的!我也想买。"' for i in cut_sent(s): print(i) #结果将人物语句也分开 """ 今天天气好啊! 温度高吗? 你好,很高兴遇见你,真不错。 小明遇见小红说:"你的衣服这好看! "小红说:"什么? 衣服真好看? 真的吗? "小明回答到:"嗯,真的! 我也想买。 " """
连接
这里解决办法就是循环每一句,识别:"和"
- 两个符号均有,则该句直接就是一整句,直接就加入
- 两个符号都没有,则该句直接就是一整句,直接就加入
- 如果只有前面符号而无后面符号,则记录有前面符号那一句,依次往下拼接,直到遇到字符最后有“,将上面拼接好的语句作为一整句放入
def connect(paragraph): sentence_before = [] sentence_after = [] for each_para in paragraph: sentence_before.append(cut(each_para)) # 核心代码!(将被错分的语句进行连接) for each in sentence_before: list = [] sentence = "" FLAG = True # 非常关键!判断有':“'的符号后面的语句是否继续拼接 for i in each: if i.find(':“') * i.find('”') >= 0 and FLAG: list.append(i + sentence) else: FLAG = False sentence = sentence + i if i.find('”') > 0: list.append(sentence) sentence = "" FLAG = True sentence_after.append(list) return sentence_after
三、最后整体代码
import re import pandas as pd # 将整篇文章进行分段 def segments(url): raw = pd.read_csv(url,names=['txt'], sep='aaa', encoding="GBK" ,engine='python') def m_head(tem_str): return tem_str[:1] def m_mid(tmp_str): return tmp_str.find("回 ") raw['head'] = raw.txt.apply(m_head) raw['mid'] = raw.txt.apply(m_mid) raw['len'] = raw.txt.apply(len) chap_num = 0 for i in range(len(raw)): if raw['head'][i] == "第" and raw['mid'][i] > 0 and raw['len'][i] < 30: chap_num += 1 if chap_num >= 40 and raw['txt'][i] == "附录一:成吉思汗家族": chap_num = 0 raw.loc[i, 'chap'] = chap_num del raw['head'] del raw['mid'] del raw['len'] tmp_chap = raw[raw['chap'] == 7].copy() tmp_chap.reset_index(drop=True, inplace=True) tmp_chap['paraidx'] = tmp_chap.index paragraph = tmp_chap['txt'].values.tolist() return paragraph # 将每段进行分句 def cut(para): # 相关规则 pattern = ['([。!?\?])([^”'])','(\.{6})([^”'])','(\…{2})([^”'])','([。!?\?][”'])([^,。!?\?])'] for i in pattern: para = re.sub(i, r"\1\n\2", para) para = para.rstrip() return para.split("\n") # 将其中被错分的语句进行连接(主要是针对话语) def connect(paragraph): sentence_before = [] sentence_after = [] for each_para in paragraph: sentence_before.append(cut(each_para)) # 核心代码!(将被错分的语句进行连接) for each in sentence_before: list = [] sentence = "" FLAG = True # 非常关键!判断有':“'的符号后面的语句是否继续拼接 for i in each: if i.find(':“') * i.find('”') >= 0 and FLAG: list.append(i + sentence) else: FLAG = False sentence = sentence + i if i.find('”') > 0: list.append(sentence) sentence = "" FLAG = True sentence_after.append(list) return sentence_after # 将最后的结果保存到DataFrame def toDataFrame(list3): df = pd.DataFrame(columns=["content","paragraph","sentence"]) for para_num,i in enumerate(list3): for sentence_num,j in enumerate(i): df_ = pd.DataFrame({"content": j, "paragraph": para_num,"sentence":sentence_num+1},index=[para_num]) df = df.append(df_,ignore_index=True) for i in df['content'].values.tolist(): print(i) def main(): # URL = "/Users/dengzhao/Downloads/金庸-射雕英雄传txt精校版.txt" URL = input("请输入文件地址:") para = segments(URL) result = connect(para) print(result) flag = input("以DataFrame形式输出数据(Y,N):") if flag == 'Y': toDataFrame(result) elif flag == 'N': print("Thanks!!!!") else: print("程序结束!请检查的你的输入!") if __name__ == '__main__': main()
到此这篇关于Python实现对中文文本分段分句的文章就介绍到这了,更多相关Python中文文本分段分句内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
相关文章
Win10 GPU运算环境搭建(CUDA10.0+Cudnn 7.6.5+pytroch1.2+tensorflow1.
熟悉深度学习的人都知道,深度学习是需要训练的,本文主要介绍了Win10 GPU运算环境搭建,文中通过示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下2021-09-09详解Pandas的三大利器(map,apply,applymap)
这篇文章主要为大家介绍了pandas中的三大利器: map、apply、applymap,他们经常在进行数据处理的时候用到,需要的可以参考一下2022-02-02
最新评论