Python爬虫实现百度翻译功能过程详解
更新时间:2020年05月29日 10:18:09 作者:javascript痴痴
这篇文章主要介绍了Python爬虫实现百度翻译功能过程详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
首先,需要简单的了解一下爬虫,尽可能简单快速的上手,其次,需要了解的是百度的API的接口,搞定这个之后,最后,按照官方给出的demo,然后写自己的一个小程序
打开浏览器 F12 打开百度翻译网页源代码:
我们可以轻松的找到百度翻译的请求接口为:http://fanyi.baidu.com/sug
然后我们可以从方法为POST的请求中找到参数为:kw:job(job是输入翻译的内容)
下面是代码部分:
from urllib import request,parse import json def translate(content): url = "http://fanyi.baidu.com/sug" data = parse.urlencode({"kw":content}) # 将参数进行转码 headers = { 'User-Agent': 'Opera/9.80 (Android 2.3.4; Linux; Opera Mobi/build-1107180945; U; en-GB) Presto/2.8.149 Version/11.10' } req = request.Request(url,data=bytes(data,encoding="utf-8"),headers=headers) r = request.urlopen(req) # print(r.code) 查看返回的状态码 html = r.read().decode('utf-8') # json格式化 html = json.loads(html) # print(html) for k in html["data"]: print(k["k"],k["v"]) if __name__ == '__main__': content = input("请输入您要翻译的内容:") translate(content)
结果如下
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。
相关文章
Python实现批量识别银行卡号码以及自动写入Excel表格步骤详解
这篇文章主要介绍了使用Python实现高效摸鱼,批量识别银行卡号码并且自动写入Excel表格,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习吧2023-01-01在RedHat系Linux上部署Python的Celery框架的教程
这篇文章主要介绍了在RedHat系Linux上部署Python的Celery框架的教程, Celery是一个并行分布框架,拥有良好的I/O性能,需要的朋友可以参考下2015-04-04
最新评论