【python爬虫】抓取B站视频相关信息(一)

转载:http://blog.sciencenet.cn/home.php?mod=space&uid=3189881&do=blog&id=1104863

昨天我在B站上写了这么一篇文章,但是被他们锁住了。无奈之下我复制到知乎上先保存起来

https://zhuanlan.zhihu.com/p/34716924


在这篇名为《三天学会用python进行简单地爬取B站网页视频数据》文章中我主要提到了两点

  • 在已知aid的情况下如何获取视频相关信息

  • 如何获取某一up的所有视频aid的思路和方法


今天下午,有朋友说可以用已经获得的aid把相对应的视频都下载下来。

在这里我使用了“lulu”这个python包,只需要子在命令行中键入:lulu http://www.bilibili.com/av... 即可


今天还发现了,B站不仅对视频有aid编号,用户有uid,对于弹幕库同样也有cid的编号。如何获取弹幕库cid的编号呢?访问下面这个链接即可,在已知aid的情况下就可以获得该aid对应的cid编号以及该视频的分P信息,这样就节省了解析html的时间:

https://www.bilibili.com/widget/getPageList?aid=?


为了获取详细的弹幕库信息,可以访问这个url:http://comment.bilibili.com/cid.xml


最后给出源码以供参考:https://github.com/JinyuGuan/JINYU.git


猜你喜欢

转载自blog.csdn.net/baidu_37355300/article/details/79660923