大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
使用python爬虫怎么实现中英翻译词典?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。
阳春网站建设公司创新互联公司,阳春网站设计制作,有大型网站制作公司丰富经验。已为阳春千余家提供企业网站建设服务。企业网站搭建\成都外贸网站建设要多少钱,请找那个售后服务好的阳春做网站的公司定做!import urllib.request import urllib.parse import json def en_zh(content): url = 'http://fanyi.baidu.com/v2transapi' head = {} head['User-Agent'] = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36' data={} data['from'] = 'en' data['to'] = 'zh' data['query'] = content data['transtype'] = 'translang' data['simple_means_flag'] = '3' data = urllib.parse.urlencode(data).encode('utf-8') req =urllib.request.Request(url,data,head) response=urllib.request.urlopen(req) html = response.read().decode('utf-8') target = json.loads(html) print("翻译结果:%s" %(target['trans_result']['data'][0]['dst'])) def zh_en(content): url = 'http://fanyi.baidu.com/v2transapi' data={} data['from'] = 'zh' data['to'] = 'en' data['query'] = content data['transtype'] = 'translang' data['simple_means_flag'] = '3' data = urllib.parse.urlencode(data).encode('utf-8') req =urllib.request.Request(url,data) req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36') response=urllib.request.urlopen(req) html = response.read().decode('utf-8') target = json.loads(html) print("翻译结果:%s" %(target['trans_result']['data'][0]['dst'])) while(True): content = input("请输入要翻译的内容(按q退出):") if content=='q': input("您已退出,欢迎再次使用") break en_zh(content) zh_en(content)
关于使用python爬虫怎么实现中英翻译词典问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注创新互联行业资讯频道了解更多相关知识。