我爬取豆瓣10万短评,告诉你《复仇者联盟4》在讲什么?


前言

昨晚,焚香、沐浴、更衣!怀着朝圣般的心情。就像灭霸一样!去看了妇联4的终局之战。不得不说,票价有点小贵,整体效果还算可以,就是剧情有点懵逼。中间眯了几下(时长真的有点长),本来想玩玩手机,环顾四周看大家都这么认真的样子,默默的收了起来,请原谅我这小白。

截止目前,《妇联4》已上映2天,今晚累计票房突破 10 亿应该是妥妥的,豆瓣评分 9.0 分。

爬取

主要是想知道这爆米花电影(其实,环顾四周没有一个人吃爆米花)大家都有什么评价,这里主要是爬取《妇联4》的好、中、差短评并分词分析。

爬取数据:

__author__ = "小柒"
__blog__ = "https://blog.52itstyle.vip/"
import os
# 导入requests库
import requests
# 导入文件操作库
import codecs
from bs4 import BeautifulSoup


# 给请求指定一个请求头来模拟chrome浏览器
global headers
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36',
           'cookie': 'network→www.douban.com→headers查看cookie'}
# 好评,中评,差评
# https://movie.douban.com/subject/26100958/comments?start=0&limit=20&sort=new_score&status=P&percent_type=h
# https://movie.douban.com/subject/26100958/comments?start=0&limit=20&sort=new_score&status=P&percent_type=m
# https://movie.douban.com/subject/26100958/comments?start=0&limit=20&sort=new_score&status=P&percent_type=l
server = 'https://movie.douban.com/subject/26100958/comments'
# 定义存储位置
global save_path
save_path = os.getcwd()+"\\Text\\"+'复仇者联盟4短评_好评.txt'
global page_max
# 好评 自行计算页码
page_max = 252  # 500 短评论,后面就看不到了,不知道是否豆瓣有意而为之给隐藏了,哈哈哈原来是没登录导致的。
global comments
comments = ''


# 获取短评内容
def get_comments(page):
    req = requests.get(url=page)
    html = req.content
    html_doc = str(html, 'utf-8')
    bf = BeautifulSoup(html_doc, 'html.parser')
    comment = bf.find_all(class_="short")
    for short in comment:
        global comments
        comments = comments + short.text


# 写入文件
def write_txt(chapter, content, code):
    with codecs.open(chapter, 'a', encoding=code)as f:
        f.write(content)


# 主方法
def main():
    for i in range(0, page_max):
        try:
            page = server + '?start='+str(i*20)+'&limit=20&sort=new_score&status=P&percent_type=h'
            get_comments(page)
            write_txt(save_path, comments, 'utf8')
        except Exception as e:
            print(e)


if __name__ == '__main__':
    main()

最终爬取完成,好评文件居然有足足的 200MB,而中评和差评加起来才 20MB 左右。

分析数据:

使用结巴中文分词第三方库来进行高频分析。

import jieba
import os

txt = open(os.getcwd()+"\\Text\\"+"复仇者联盟4短评_差评.txt", "r", encoding='utf-8').read()
words = jieba.lcut(txt)
counts = {}

for word in words:
    if len(word) == 1:
        continue
    else:
        counts[word] = counts.get(word, 0) + 1

items = list(counts.items())
items.sort(key=lambda x: x[1], reverse=True)

for i in range(0, 10):
    word, count = items[i]
    print("{0:<6}{1:>6}".format(word, count))

词云图

差评:

中评:

差评都不带一个脏字,好评就不再贴了(真正原因是分词统计的时候内存爆掉了)。

小结

如果你不是漫威的迷,劝你还是不要去了。突然某个情节周围一片欢呼,会让你觉得自己是个傻子,对,我就是那个傻子!!!

爪哇笔记

作者: 小柒

出处: https://blog.52itstyle.vip

分享是快乐的,也见证了个人成长历程,文章大多都是工作经验总结以及平时学习积累,基于自身认知不足之处在所难免,也请大家指正,共同进步。

本文版权归作者所有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出, 如有问题, 可邮件(345849402@qq.com)咨询。