思路:1.读取所有文章标题;2.用“结巴分词”的工具包进行文章标题的词语分割;3.用“sklearn”的工具包计算Tf-idf(词频-逆文档率);4.得到满足关键词权重阈值的词
结巴分词详见:结巴分词Github
sklearn详见:文本特征提取——4.2.3.4 Tf-idf项加权
import os
import jieba
import sys
from sklearn. import TfidfVectorizersys.path.append("../")
jieba.load_userdict('')
STOP_WORDS = set(("基于", "面向", "研究", "系统", "设计", "综述", "应用", "进展", "技术", "框架", "txt"))def getFileList(path):filelist = []files = os.listdir(path)for f in files:if f[0] == '.':passelse:filelist.append(f)re
本文发布于:2024-02-04 12:09:39,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170706885355437.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |