年轻人不讲武德,竟用Python让马老师表演闪电五连鞭!
11月份的头条,是属于马保国的。
一位69岁的老同志,惨遭年轻人偷袭,不讲武德。
看看把老同志欺负的…
要不是马老师讲仁义讲道德,甩手就是一个五连鞭。
哈哈哈,所以本期我们就用Python给马保国老师做一个闪电五连鞭动态词云图。
词云数据来自B站,使用stylecloud词云库绘制。
主要参考百度AI Studio上的一个开源项目,使用PaddleSeg对人像进行分割。
年轻人,不讲武德。这样好吗,耗子尾汁。
很多人学习python,不知道从何学起。
很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
很多已经做案例的人,却不知道如何去学习更加高深的知识。
那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!
QQ群:1156465813
/ 01 / 弹幕数据获取
没从B站上直接爬取,使用第三方库bilibili_api。
这是一个用Python写的调用Bilibili各种API的库,范围涵盖视频、音频、直播、动态、专栏、用户、番剧等。
地址:https://passkou.com/bilibili_api/docs/
使用video模块下面的两个方法,可以获取11月每天的视频弹幕。
首先需要获取SESSDATA和CSRF(bili_jct)的值。
谷歌浏览器可以通过下图查看,域名选择bilibili.com。
以点击量为排序,选取排行第一的视频获取弹幕。没想到马老师老早就火了,耗子尾汁。
点击排名第一的视频,然后在浏览器的访问栏获取BV号,BV1HJ411L7DP。
获取弹幕代码如下。
- from bilibili_api import video, Verify
- import datetime
- # 参数
- verify = Verify("你的SESSDATA值", "你的bili_jct值")
- # 获取存在历史弹幕的日期列表
- days = video.get_history_danmaku_index(bvid="BV1HJ411L7DP", verify=verify)
- print(days)
- # 获取弹幕信息,并保存
- for day in days:
- danmus = video.get_danmaku(bvid="BV1HJ411L7DP", verify=verify, date=datetime.date(*map(int, day.split(\'-\'))))
- print(danmus)
- f = open(r\'danmu.txt\', \'a\')
- for danmu in danmus:
- print(danmu)
- f.write(danmu.text + \'\n\')
- f.close()
得到结果。
我大E了啊,没有闪。
使用jieba对弹幕数据进行分词处理。
- import jieba
- def get_text_content(text_file_path):
- \'\'\'
- 获取填充文本内容
- \'\'\'
- text_content = \'\'
- with open(text_file_path, encoding=\'utf-8\') as file:
- text_content = file.read()
- # 数据清洗,只保存字符串中的中文,字母,数字
- text_content_find = re.findall(\'[\u4e00-\u9fa5a-zA-Z0-9]+\', text_content, re.S)
- text_content = \' \'.join(jieba.cut(str(text_content_find).replace(" ", ""), cut_all=False))
- print(text_content)
- return text_content
- text_content = get_text_content(\'danmu.txt\')
选取马保国原版素材视频,B站上有高清的。
地址:https://www.bilibili.com/video/BV1JV41117hq
参考网上的资料,运行如下代码即可下载B站视频。
- from bilibili_api import video, Verify
- import requests
- import urllib3
- # 参数
- verify = Verify("你的SESSDATA值", "你的bili_jct值")
- # 获取下载地址
- download_url = video.get_download_url(bvid="BV1JV41117hq", verify=verify)
- print(download_url["dash"]["video"][0][\'baseUrl\'])
- baseurl = \'https://www.bilibili.com/video/BV1JV41117hq\'
- title = \'马保国\'
- def get_video():
- urllib3.disable_warnings()
- headers = {
- \'user-agent\': \'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36\',
- \'Accept\': \'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9\',
- \'Accept-Encoding\': \'gzip, deflate, br\',
- \'Accept-Language\': \'zh-CN,zh;q=0.9,en;q=0.8\'
- }
- headers.update({\'Referer\': baseurl})
- res = requests.Session()
- begin = 0
- end = 1024 * 1024 - 1
- flag = 0
- temp = download_url
- filename = "./" + title + ".flv"
- url = temp["dash"]["video"][0][\'baseUrl\']
- while True:
- headers.update({\'Range\': \'bytes=\' + str(begin) + \'-\' + str(end)})
- res = requests.get(url=url, headers=headers, verify=False)
- if res.status_code != 416:
- begin = end + 1
- end = end + 1024 * 1024
- else:
- headers.update({\'Range\': str(end + 1) + \'-\'})
- res = requests.get(url=url, headers=headers, verify=False)
- flag = 1
- with open(filename, \'ab\') as fp:
- fp.write(res.content)
- fp.flush()
- if flag == 1:
- fp.close()
- break
- print(\'--------------------------------------------\')
- print(\'视频下载完成\')
- filename = "./" + title + ".mp3"
- url = temp["dash"]["audio"][0][\'baseUrl\']
- while True:
- headers.update({\'Range\': \'bytes=\' + str(begin) + \'-\' + str(end)})
- res = requests.get(url=url, headers=headers, verify=False)
- if res.status_code != 416:
- begin = end + 1
- end = end + 1024 * 1024
- else:
- headers.update({\'Range\': str(end + 1) + \'-\'})
- res = requests.get(url=url, headers=headers, verify=False)
- flag = 1
- with open(filename, \'ab\') as fp:
- fp.write(res.content)
- fp.flush()
- if flag == 1:
- fp.close()
- break
- print(\'音频下载完成\')
记得添加SESSDATA和CSRF(bili_jct)的值
/ 02 / PaddleSeg人像分割
基于百度AI Studio的项目,项目地址:
https://aistudio.baidu.com/aistudio/projectdetail/1176398
首先下载解压安装PaddleSeg相关依赖包。
- # 下载PaddleSeg
- git clone https://hub.fastgit.org/PaddlePaddle/PaddleSeg.git
- cd PaddleSeg/
- # 安装所需依赖项
- pip install -r requirements.txt
通常去「GitHub」上下载东西,速度都比较慢,可以使用加速链接。
这里的fastgit.org一加,下载速度就能从几十K飙升到几兆每秒。
- # 新建文件夹
- mkdir work/videos
- mkdir work/texts
- mkdir work/mp4_img
- mkdir work/mp4_img_mask
- mkdir work/mp4_img_analysis
新建一些文件夹,主要用来存放相关文件的。
这里可以将之前爬取到的视频和音频放置在videos中。
先对素材视频进行抽帧,就是获取视频每帧的图片。
- def transform_video_to_image(video_file_path, img_path):
- \'\'\'
- 将视频中每一帧保存成图片
- \'\'\'
- video_capture = cv2.VideoCapture(video_file_path)
- fps = video_capture.get(cv2.CAP_PROP_FPS)
- count = 0
- while (True):
- ret, frame = video_capture.read()
- if ret:
- cv2.imwrite(img_path + \'%d.jpg\' % count, frame)
- count += 1
- else:
- break
- video_capture.release()
- filename_list = os.listdir(img_path)
- with open(os.path.join(img_path, \'img_list.txt\'), \'w\', encoding=\'utf-8\') as file:
- file.writelines(\'\n\'.join(filename_list))
- print(\'视频图片保存成功, 共有 %d 张\' % count)
- return fps
- input_video = \'work/videos/Master_Ma.mp4\'
- fps = transform_video_to_image(input_video, \'work/mp4_img/\')
一共是获取到了564张图片。
然后使用PaddleSeg将所有的视频图片,进行人像分割,生成mask图片。
- # 生成mask结果图片
- python 你的路径/PaddleSeg/pdseg/vis.py \
- --cfg 你的路径/work/humanseg.yaml \
- --vis_dir 你的路径/work/mp4_img_mask
使用模型进行预测,其中humanseg.yaml文件是作者提供的,可以进行图像分割。
预训练模型deeplabv3p_xception65_humanseg,需下载解压安装放在PaddleSeg/pretrained_model下。
由于预训练模型较大,就不放网盘上了,直接访问下面这个链接即可下载。
- # 下载预训练模型deeplabv3p_xception65_humanseg
- https://paddleseg.bj.bcebos.com/models/deeplabv3p_xception65_humanseg.tgz
记得需要将humanseg.yaml文件中的路径信息,修改成你自己的路径。
运行上面那三行命令,最后就会生成564张mask文件。
/ 03 / 词云生成
使用stylecloud词云库生成词云,使用字体方正兰亭刊黑。
- def create_wordcloud():
- for i in range(564):
- file_name = os.path.join("mp4_img_mask/", str(i) + \'.png\')
- # print(file_name)
- result = os.path.join("work/mp4_img_analysis/", \'result\' + str(i) + \'.png\')
- # print(result)
- stylecloud.gen_stylecloud(text=text_content,
- font_path=\'方正兰亭刊黑.TTF\',
- output_name=result,
- background_color="black",
- mask_img=file_name)
因为stylecloud库无法自定义词云图片,所以我修改了它的代码。
给gen_stylecloud添加了mask_img这个参数,最终作用在gen_mask_array这个函数上。
如此就能将mask图片转化成词云图!
将这些词云图片合并成视频。
- def combine_image_to_video(comb_path, output_file_path, fps=30, is_print=False):
- \'\'\'
- 合并图像到视频
- \'\'\'
- fourcc = cv2.VideoWriter_fourcc(*\'mp4v\')
- file_items = [item for item in os.listdir(comb_path) if item.endswith(\'.png\')]
- file_len = len(file_items)
- # print(comb_path, file_items)
- if file_len > 0:
- print(file_len)
- temp_img = cv2.imread(os.path.join(comb_path, file_items[0]))
- img_height, img_width, _ = temp_img.shape
- out = cv2.VideoWriter(output_file_path, fourcc, fps, (img_width, img_height))
- for i in range(file_len):
- pic_name = os.path.join(comb_path, \'result\' + str(i) + ".png")
- print(pic_name)
- if is_print:
- print(i + 1, \'/\', file_len, \' \', pic_name)
- img = cv2.imread(pic_name)
- out.write(img)
- out.release()
- combine_image_to_video(\'work/mp4_img_analysis/\', \'work/mp4_analysis.mp4\', 30)
使用ffmpeg对视频进一步的处理,裁剪+重叠。
- # 视频裁剪
- ffmpeg -i mp4_analysis_result.mp4 -vf crop=iw:ih/2:0:ih/5 output.mp4
- # 视频重叠
- ffmpeg -i output.mp4 -i viedeos/Master_Ma.mp4 -filter_complex "[1:v]scale=500:270[v1];[0:v][v1]overlay=1490:10" -s 1920x1080 -c:v libx264 merge.mp4
- # 添加音频
- ffmpeg -i merge.mp4 -i videos/Master_Ma.mp4 -c:v copy -c:a copy work/mp4_analysis_result2.mp4 -y
- # 生成gif图
- ffmpeg -ss 00:00:22 -t 3 -i merge.mp4 -r 15 a.gif
ffmpeg的安装及使用就得靠大伙自己百度啦~
注意:如果你是打算找python高薪工作的话。我建议你多写点真实的企业项目积累经验。不然工作都找不到,当然很多人没进过企业,怎么会存在项目经验呢? 所以你得多找找企业项目实战多练习下撒。如果你很懒不想找,也可以进我的Python交流圈:1156465813。群文件里面有我之前在做开发写过的一些真实企业项目案例。你可以拿去学习,不懂都可以在裙里找我,有空会耐心给你解答下。
以下内容无用,为本篇博客被搜索引擎抓取使用
(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)
python 是干什么的 零基础学 python 要多久 python 为什么叫爬虫
python 爬虫菜鸟教程 python 爬虫万能代码 python 爬虫怎么挣钱
python 基础教程 网络爬虫 python python 爬虫经典例子
python 爬虫
(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)(* ̄︶ ̄)
以上内容无用,为本篇博客被搜索引擎抓取使用