python 实现多线程下载m3u8格式视频并使用fmmpeg合并
电影之类的长视频好像都用m3u8格式了,这就导致了多线程下载视频的意义不是很大,都是短视频,线不线程就没什么意义了嘛。
我们知道,m3u8的链接会下载一个文档,相当长,半小时的视频,应该有接近千行ts链接。
这些ts链接下载成ts文件,就是碎片化的视频,加以合并,就成了需要的视频。
那,即便网速很快,下几千行视频,效率也就低了,更何况还要合并。我就琢磨了一下午,怎么样才能多线程下载m3u8格式的视频呢?
先上代码,再说重难点:
import datetime import os import re import threading import requests from queue import Queue # 预下载,获取m3u8文件,读出ts链接,并写入文档 def down(): # m3u8链接 url = 'https://ali-video.acfun.cn/mediacloud/acfun/acfun_video/segment/3zf_GAW6nFMuDXrTLL89OZYOZ4mwxGoASH6UcZbsj1_6eAxUxtp3xm8wFmGMNOnZ.m3u8?auth_key=1573739375-474267152-0-a5aa2b6df4cb4168381bf8b04d88ddb1' # 当ts文件链接不完整时,需拼凑 # 大部分网站可使用该方法拼接,部分特殊网站需单独拼接 base_url = re.split(r"[a-zA-Z0-9-_\.]+\.m3u8", url)[0] # print(base_url) resp = requests.get(url) m3u8_text = resp.text # print(m3u8_text) # 按行拆分m3u8文档 ts_queue = Queue(10000) lines = m3u8_text.split('\n') # 找到文档中含有ts字段的行 concatfile = 'cache/' + "s" + '.txt' for line in lines: if '.ts' in line: if 'http' in line: # print("ts>>", line) ts_queue.put(line) else: line = base_url + line ts_queue.put(line) # print('ts>>',line) filename = re.search('([a-zA-Z0-9-]+.ts)', line).group(1).strip() # 一定要先写文件,因为线程的下载是无序的,文件无法按照 # 123456。。。去顺序排序,而文件中的命名也无法保证是按顺序的 # 这会导致下载的ts文件无序,合并时,就会顺序错误,导致视频有问题。 open(concatfile, 'a+').write("file %s\n" % filename) return ts_queue,concatfile # 线程模式,执行线程下载 def run(ts_queue): tt_name = threading.current_thread().getName() while not ts_queue.empty(): url = ts_queue.get() r = requests.get(url, stream=True) filename = re.search('([a-zA-Z0-9-]+.ts)', url).group(1).strip() with open('cache/' + filename, 'wb') as fp: for chunk in r.iter_content(5242): if chunk: fp.write(chunk) print(tt_name + " " + filename + ' 下载成功') # 视频合并方法,使用ffmpeg def merge(concatfile, name): try: path = 'cache/' + name + '.mp4' command = 'ffmpeg -y -f concat -i %s -crf 18 -ar 48000 -vcodec libx264 -c:a aac -r 25 -g 25 -keyint_min 25 -strict -2 %s' % (concatfile, path) os.system(command) print('视频合并完成') except: print('合并失败') if __name__ == '__main__': name = input('请输入视频名称:') start = datetime.datetime.now().replace(microsecond=0) s,concatfile = down() # print(s,concatfile) threads = [] for i in range(15): t = threading.Thread(target=run, name='th-'+str(i), kwargs={'ts_queue': s}) threads.append(t) for t in threads: t.start() for t in threads: t.join() end = datetime.datetime.now().replace(microsecond=0) print('下载耗时:' + str(end - start)) merge(concatfile,name) over = datetime.datetime.now().replace(microsecond=0) print('合并耗时:' + str(over - end))
效果图:
代码开始:自己输入视频名称(也可以去原网站爬名称)
查看下载耗时,fmmpeg开始合并:
合并耗时:
7分多钟,90个ts文件,接近40MB。两秒下载完成。
更大的文件,开更多的线程。
然后我们画画重难点:
第一:ts文件命名问题。
我们知道,每一个线程启动,除了队列不会重复,那么代码里都会重新跑(线程里的代码),那么,1.ts,2.ts....这种命名是不可能的了,文件会被覆盖。命名我使用了ts链接中的部分链接。
第二:合并问题。
文件的合并是根据文档内的顺序,也就是,如果边下载边合并,那么,线程的无序性导致下载无序,文件写入也就无序化了,合并时,时间线会错误,合出来的视频就无法看。因此,文件要提前写好才行,这和命名有很大的关联,看代码即知。
第三:有的m3u8是特殊处理的,代码具有一定的局限性。
写的时候挺难的,脑子都乱了,就这些吧,记录一下。
对了,贴一下下载的图:90个ts文件,一个mp4文件,一个文档。
总结
以上所述是小编给大家介绍的python 实现多线程下载m3u8格式视频并使用fmmpeg合并,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对脚本之家网站的支持!
如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!
相关文章
使用SimpleITK读取和保存NIfTI/DICOM文件实例
这篇文章主要介绍了使用SimpleITK读取和保存NIfTI/DICOM文件实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧2020-07-07Tensorflow tf.dynamic_partition矩阵拆分示例(Python3)
今天小编就为大家分享一篇Tensorflow tf.dynamic_partition矩阵拆分示例(Python3) ,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧2020-02-02pandas和spark dataframe互相转换实例详解
这篇文章主要介绍了pandas和spark dataframe互相转换实例详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下2020-02-02
最新评论