目标

通过Request+正则表达式爬取猫眼电影TOP100电影的排名、名字、电影封面图片、主演、上映时间、猫眼评分,将爬取的内容写入文件中。

流程框架

进入到猫眼电影TOP100的页面,此时的URL为http://maoyan.com/board/4,点击第2页,会发现此时的URL为http://maoyan.com/board/4?offset=10,点击第3页,会发现URL变成了http://maoyan.com/board/4?offset=20,由此可以推断出offset参数为偏移量,如果偏移量为n,则显示电影序号就是n+1到n+10,每页显示10个,所以,如果想获取TOP100电影,只需要分开请求10次,而10次的offset参数分别设置为0、10、20……90即可,这样获取不同的页面之后,再用正则表达式提取出相关信息,就可以得到TOP100的所有电影信息了。获取信息后,可以将信息写入txt文件,当然可以存入数据库(此处为了偷懒,就不存入数据库了)。为了加快爬取网页的速度,可以开启循环和多线程(当需要爬取的信息很大时,这是一个不错的技巧)。

下图展示了具体的流程框架:

(1)抓取单页内容

# 获取单个页面的HTML代码
def get_one_page(url):
    try:
        # 此处如果不加headers进行伪装,将会返回403错误(拒绝访问)
        headers = {
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"
        }
        response = requests.get(url, headers = headers)
        # 如果返回的状态码是200,表示请求正常,返回页面HTML代码
        # 否则,返回None
        if response.status_code == 200:
            return response.text
        return None
    except RequestException:
        return None

接下来测试一下是否可以获取页面内容:

if __name__ == '__main__':
    url = 'http://maoyan.com/board/4'
    html = get_one_page(url)
    print(html)

(2)正则表达式分析

可以对get_one_page(url)函数爬取的HTML代码进行分析(此处为了方便观看,直接在浏览器控制台分析),利用正则表达式获取到有用的信息(电影的排名、名字、电影封面图片、主演、上映时间、猫眼评分)。

# 解析单个页面的HTML代码,利用re模块提取出有效信息
def parse_one_page(html):
    # re.S:表示“.”的作用扩展到整个字符串,包括“\n”
    pattern = re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a'
                +'.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>.*?integer">'
                +'(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>', re.S)
    items = re.findall(pattern, html)
    for item in items:
        # 构造生成器函数
        yield{
            'index': item[0],
            'image': item[1],
            'title': item[2],
            'actor': item[3].strip()[3:],
            'time': item[4].strip()[5:],
            'score': item[5]+item[6]
        }

接下来测试一下是否可以得到我们想要的内容:

if __name__ == '__main__':
    url = 'http://maoyan.com/board/4'
    html = get_one_page(url)
    items = parse_one_page(html)
    for item in items:
        print(item)

控制台输出如下:

单个页面信息解析正确,那么,想要获得多个页面的信息,只需写一个循环遍历即可:

def main(offset):
    url = 'http://maoyan.com/board/4?offset=' + str(offset)
    html = get_one_page(url)
    for item in parse_one_page(html):
        print(item)

if __name__ == '__main__':
    for i in range(10):
        main(i*10)

(3)保存至文件

只需写一个简单的函数即可完成,但此处需要注意一点,为保证输出文件为中文,在读写文件时要添加参数endcoding=”utf-8″。

# 将解析出的内容写入文件
def write_to_file(content):
    # 添加endcoding="utf-8"确保输出到文件中为中文
    with open('result.txt', 'a', encoding='utf-8 ') as f:
        # 此处建议将解析出的内容编码为json格式再写入文件,json的好处在此不过多叙述
        # 如果使用了json进行编码,务必添加参数ensure_ascii=False确保编码数据为中文
        # json.dumps():编码json数据
        f.write(json.dumps(content, ensure_ascii=False) + '\n')
        f.close()

运行代码,目标信息被写入result.txt文件中:

(4)开启循环及多线程

为了加快页面爬取速度,可以使用多线程(针对大量数据时非常有效)。

if __name__ == '__main__':
    pool = Pool()
    pool.map(main, [i*10 for i in range(10)])

项目完整代码已托管到github:https://github.com/panjings/python-spider

版权声明:本文为woyouyihujiu原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/woyouyihujiu/p/9961737.html