Python爬虫进阶——Request对象之post请求案例分析【百度翻译】
作为进阶的最后一篇,我们就讲个有意思点的案例吧——百度翻译。
一、分析URL接口
正如上一篇:《Python爬虫进阶——Get请求》讲到的:当我们进行爬虫开发的时候,首先要做的,就是分析URL接口。
- 打开百度翻译;
- F12;
-
开发者工具中点击“暂停”和“清空”;
- 输入“python”,并选中如图的“sug”请求;
-
点击“Headers”,可以查看到图中圆圈中的信息;
二、代码实现
baidu_fanyi.py
import urllib.request as ur
import urllib.parse as up
# 实例化data
data = {
'kw': 'python'
}
# data编码
data_url = up.urlencode(data)
request = ur.Request(
url='https://fanyi.baidu.com/sug',
# 不仅仅url编码,还需encode转成字节
data=data_url.encode('utf-8'),
)
response = ur.urlopen(request).read()
print(response)
输出如下:
注意:
输出结果为字节类型,为json对象,还需使用loads方法。
三、代码抽离和完善
import urllib.request as ur
import urllib.parse as up
import json
word = input('请输入要翻译的英文:')
# 实例化data
data = {
'kw': word
}
# data编码
data_url = up.urlencode(data)
request = ur.Request(
url='https://fanyi.baidu.com/sug',
# 不仅仅url编码,还需encode转成字节
data=data_url.encode('utf-8'),
)
response = ur.urlopen(request).read()
# print(response)
ret = json.loads(response)
# print(ret)
translate = ret['data'][0]['v']
print(translate)
输出如下:
OK啦~~
简直完美。
天色已晚,明天再写《Python爬虫实战篇》吧。
为我心爱的女孩~~