最近需要背一下短语,没有在各大背单词app上面找到我需要背的词书.没办法了,去网上找到了某垃圾教育网站的word,…,这个格式,简直惨不忍睹,???那个憨憨做的文档??分栏不会吗居然手打空格来分栏,我佛了np,来感受一下
好吧,我承认光是把格式改成一条词汇一行我就花了半个小时…
首先需要将上一张图片的格式转换为英文和汉字分开并且以tab制表符分开,(在anki导入卡片的时候使用制表符分割字段)
然后还需要给短语加上例句,变成这样
最后进行导入操作,得到
import re
#
# 用于anki卡片txt制作,简单实现对英文和中文的分割,分隔符为t
# python 3.5版本
# 正则匹配中文,固定形式:u4E00-u9FA5
#
with open(","r") as tt: #1.txt为目标文档for i adlines():text = iregex_str = ".*?([u4E00-u9FA5|W]+).*?" #构造pattench = re.findall(regex_str, text) #读取所有中文en = re.findall('[a-zA-Z0-9]+',text) #读取所有英文if ch:#如果读取到了中文rc="" #初始化中文翻译结果变量Re="" #初始化短语结果变量for j in ch:rc=rc+j#组装中文结果if en:#如果读取到了英文for k in en:Re=Re+k+" "#组装短语结果,单词与单词之间还需要加一个空格print(Re)with open(","a") as tt2:tt2.write(Re+"t"+rc)#写入结果(追加)
这里用到了requests库用于发送翻译请求,BeautifulSoup库用于读取指定内容,html库用于去除所有的html标记(太方便了这个库)
这里主要是在上一步的"判断如果读取到了英文"后面加入内容
import re,requests
from bs4 import BeautifulSoup
from w3lib import html
#
# 用于anki卡片txt制作,简单实现对英文和中文的分割,分隔符为t
# python 3.5版本
# 正则匹配中文,固定形式:u4E00-u9FA5
#
with open(","r") as tt:for i adlines():text = iregex_str = ".*?([u4E00-u9FA5|W]+).*?"ch = re.findall(regex_str, text)en = re.findall('[a-zA-Z0-9]+',text)if ch:rc=""Re=""for j in ch:rc=rc+jif en:for k in en:Re=Re+k+" "print(Re)url="/"+Re#构造翻译请求链接Rs(url)#发送链接Rs=,'html.parser')#指定解析方式为htmlif Rs.select('.examples'):#先判断有没有提供柯林斯英汉双解大词典例句 注释1Rs=Rs.select('.examples') #注释2else:#如果没有就找普通例句Rs=Rs.select('#bilingual')#注释2Rs= ve_tags(str(Rs)))#去掉所有html代码Rs = Rs.replace("《柯林斯英汉双解大词典》","").replace("《牛津词典》","").replace("n","").replace("更多双语例句","").replace("精选例句","")#去掉不必要的信息with open(","a") as tt2:tt2.write(Re+"t"place("n","")+str(Rs)+"n")#写入数据并且英文与答案之间以tab隔开
注释1:随便翻译一个词汇发现结果界面会有2个地方出现例句,第一个是柯林斯英汉双解大词典例句,第二个是其他大辞典里面的例句.不过有些词汇的翻译并没有柯林斯英汉双解大词典例句.
查看网页源代码发现柯林斯英汉双解大词典例句的class=examples.
注释2:仔细观察后发现普通例句的id为bilingual
如下即可
尾巴:还是想吐槽一下,为什么这些教育网站都那么垃圾阿,界面也low,都几十年前的风格了吧,还卡…
本文发布于:2024-02-01 02:40:38,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170672643833283.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |