[ffmpeg] h264并行解码
ffmpeg中的并行解码分为两种:
Frame-level Parallelism
帧间依赖
我们之前讨论过Frame-level Parallelism。在之前的文章中,我们说过在进行帧级的并行处理时,由于I、P帧是作为参考帧(B帧也能作为参考帧),因此不能对其进行并行处理,只有非参考B帧才是最适宜进行并行处理的帧。不过其实如果我们能正确地处理好各个帧之间的依赖关系,无论是I、P还是B帧都能进行并行处理。FFmpeg为了达到这一目的,对我们之前所讨论的Frame-level Parallelism进行了改进:添加帧间依赖。
h264的帧间依赖主要有两个:
- 进行运动补偿时需要参考帧提供参考区域的像素数据。在解码一个宏块的过程中,得到宏块中每个分块的运动向量与参考帧后,就能确定宏块的各个分块的参考区域,然后就可以从这些区域提取像素数据进行运动补偿。
- 编码模式为B Direct的宏块在计算运动向量时,需要位于第一个后向参考帧的co-located块的运动向量,用来计算出当前帧的前向以及后向运动向量。
FFmpeg对于上述依赖的解决方案是:
- 对于每个分块,在进行运动补偿之前,等待该分块所依赖的参考区域的最后一行(以像素为单位,表示这一行的值row是相对于整幅图像来说的,下同)的就绪消息[1]。
- 对于编码模式为B Direct的宏块,在计算运动向量之前,等待co-located块的第一行的就绪消息(由于我们只需要该co-located块的运动向量,既然第一行像素已就绪,那么运动向量肯定是已经就绪了)[2]。
- 解码器每解码完成一行宏块,就通知发送该宏块的最后一行的就绪消息(如果当前视频指定了deblocking,由于当前行宏块的deblocking需要用到下一行宏块的上方4行像素,因此就绪的row值需要进行相应的调整)[3] 。
Packet与Frame
在讨论FFmpeg的实现之前,我们需要先了解packet(AVPacket)与frame(AVFrame)之间的关系。不同的编码格式也许会有所不同,不过h264在FFmpeg中的一个packet中所包含的数据就是一个frame(一帧)。一般情况下一帧就是一个slice,这样的话一个packet中只有一个slice;当然,一帧也有可能会分为多个slice,如果是这种情况的话,一个packet中会包含这一帧所有的slice。
我们之所以在这里讨论这两者之间的关系,是因为FFmpeg每次都是以一个packet为单位向解码器传入需要解码的数据,也就是说每次会向h264解码器传入一帧的数据。
实现方案[4]
FFmpeg实现方案如下:
Thread List,线程列表,线程列表中的每一项都映射一个解码线程。主线程会从线程列表中按照序号由小到大(循环)提取解码线程,并把解码任务提交到该解码线程。同时主线程在提交完解码任务后也会从线程列表中按照序号由小到大(循环)提取解码线程,并尝试从该解码线程获取解码完成的帧。
M,主线程,主要目的有两个:
- 向解码线程提交解码任务。FFmpeg中是以packet为单位进行解码任务的提交的,按照前一小节的描述,FFmpeg就是以frame为单位进行解码任务的提交的。
- 从解码线程获取解码所得的帧并进行返回。不过在第一轮进行任务提交的时候是不会去获取帧,在第一轮任务提交完成后,此时所有解码线程都已经开始进行了解码作业,那么主线程就可以开始等待第一个线程解码完成,然后尝试去获得解码完成的帧(这里的“尝试”,是因为就像单线程解码时那样,并不一定是每次调用解码API都会返回一帧的。由于h264编码的视频中常常包含B帧,这会使得码流的解码顺序并非帧的播放顺序,但是解码API必须按照帧的播放顺序进行返回,因此在进行帧的返回时会进行相应的调整)。接下来每次向一个线程提交一个解码任务后,都需要等待下一个线程空闲并尝试返回帧。
T,解码线程,接收解码任务并进行解码。解码线程是以frame为单位进行处理的。解码线程解码主线程所提交的packet,执行与单线程时一样的解码作业,当然在解码作业期间会碰到我们上面所述的帧间依赖并进行处理。
隐式的帧间依赖
帧间依赖除了上面所述的明显存在的帧间依赖之外,还有一处较为隐蔽的帧间依赖。
解码所需的参考图像列表依赖于POC,而在计算图像POC时,需要对相邻两个frame(或者说slice)头部的pic_order_cnt_lsb或者frame_num进行比较。这就表明在开始一个frame的解码之前,需要把上一个frame的这些参数传入当前frame。有了上一个frame头部的这些参数,当前的frame就能按照单线程解码那样准确地计算出当前frame的POC。
FFmpeg把这参数传入操作实现在了ff_h264_update_thread_context当中,该函数会在提交解码任务前被调用[5]。
Slice-level Parallelism
如我们之前讨论过的Slice-level Parallelism,ffmpeg的slice级并行只能在帧内并行。因此,如果在某个视频在编码时,一帧图像分为多个slice进行编码的话,那么在使用ffmpeg解码时调用slice级并行解码就会得到不错的效果。而在实际应用中,大多数h264编码的视频都是一帧只有一个slice,对于这种视频,就算采用了slice级并行,也只有一个线程在进行解码作业。
实现方案
如果一帧,即一个packet分为几个slice时,会先把这一帧前面的slice加入队列,到最后一个slice时统一对这一帧的所有slice进行并行解码[6]。其中涉及到的关键要素如下:
Slice Context List,slice的上下文是slice context(FFmpeg中的变量为slice_ctx),如果一帧中有多个slice,那么会把slice上下文组成一个列表。前面所说的入队列操作会对该列表进行填充以供后续解码使用。
M,主线程,如单线程一样的流程,从用户调用解码API一直执行到我们前面所说的入队列,到最后一个slice时会调用一个入口函数启动多线程解码操作。在调用入口函数后,主线程参与的多线程解码过程一共包含三个步骤[7]:
- 通过发送启动消息激活其它正在等待的解码线程。
- 在启动多线程解码后,主线程也会一同作为其中一个线程进行slice的解码。
- 最后等待所有线程完成任务后返回。
T,解码线程,接收到主线程所发起的启动消息后,解码线程会到Slice Context List去提取其中一个slice context(原子操作),然后进行slice解码[8]。
※在进行slice并行解码时deblocking是无法超越slice边界的,如果视频指定了超越边界的deblocking,那么deblocking需要要留到所有slice解码完成后再做。与此同时,如果指定ffmpeg进行快速解码,也会在解码线程内进行deblocking,不过此时的deblocking就是对原本进行超越边界的deblocking进行了非超越边界的deblocking,会影响视频图像质量[9]。
Example
ffmpeg只要在打开解码器之前进行如下设置就可以执行并行解码。
avcodec_alloc_context3(NULL);
avcodec_parameters_to_context(pCodecCtx, pFormatCtx->streams[Stream]->codecpar);
Codec = avcodec_find_decoder(pCodecCtx->codec_id); pCodecCtx->thread_count = 4;
pCodecCtx->thread_type = FF_THREAD_FRAME;
//pCodecCtx->thread_type = FF_THREAD_SLICE; avcodec_open2(pCodecCtx, pCodec, NULL);
两行分别为:
设置并行解码数目,即解码线程数。
设置并行解码类型为FF_THREAD_FRAME或者FF_THREAD_SLICE,分别对应Frame-level Parallelism以及Slice-level Parallelism。
Reference:
8. thread_worker, run_jobs, worker
[ffmpeg] h264并行解码的更多相关文章
- ffmpeg H264 编解码配置
ffmpeg H264编解码前面有文章介绍下,本文主要介绍一些参数配置. 编码: int InitEncoderCodec( int iWidth, int iHeight) { AVCodec * ...
- h.264并行解码算法分析
并行算法类型可以分为两类 Function-level Decomposition,按照功能模块进行并行 Data-level Decomposition,按照数据划分进行并行 Function-le ...
- ffmpeg h264+ts +(sdl)显示方式
网友: 明月惊鹊(357161826) 2014-1-16 10:07:00ffmpeg + sdl一米阳光(740053660) 2014-1-16 10:08:29Simple DirectMed ...
- [原]如何在Android用FFmpeg+SDL2.0解码图像线程
关于如何在Android上用FFmpeg+SDL2.0解码显示图像参考[原]如何在Android用FFmpeg+SDL2.0解码显示图像 ,关于如何在Android使用FFmpeg+SDL2.0解码声 ...
- [原]如何在Android用FFmpeg+SDL2.0解码声音
关于如何在Android上用FFmpeg+SDL2.0解码显示图像参考[原]如何在Android用FFmpeg+SDL2.0解码显示图像 ,本文是基于上述文章和[原]零基础学习视频解码之解码声音 来移 ...
- h.264并行解码算法3D-Wave实现(基于多核共享内存系统)
3D-Wave算法是2D-Wave的扩展.3D-Wave相对于只在帧内并行的2D-Wave来说,多了帧间并行,不用等待前一帧完成解码后才开始下一帧的解码,而是只要宏块的帧间参考部分以及帧内依赖宏块解码 ...
- h.264并行解码算法2D-Wave实现(基于多核共享内存系统)
cache-coherent shared-memory system 我们最平常使用的很多x86.arm芯片都属于多核共享内存系统,这种系统表现为多个核心能直接对同一内存进行读写访问.尽管内存的存取 ...
- h.264并行解码算法2D-Wave实现(基于多核非共享内存系统)
在<Scalable Parallel Programming Applied to H.264/AVC Decoding>书中,作者基于双芯片18核的Cell BE系统实现了2D-Wav ...
- FFmpeg源代码结构图 - 解码
===================================================== FFmpeg的库函数源代码分析文章列表: [架构图] FFmpeg源代码结构图 - 解码 F ...
随机推荐
- SLAM+语音机器人DIY系列:(二)ROS入门——8.理解roslaunch在大型项目中的作用
摘要 ROS机器人操作系统在机器人应用领域很流行,依托代码开源和模块间协作等特性,给机器人开发者带来了很大的方便.我们的机器人“miiboo”中的大部分程序也采用ROS进行开发,所以本文就重点对ROS ...
- 【憩园】C#并发编程之异步编程(三)
写在前面 本篇是异步编程系列的第三篇,本来计划第三篇的内容是介绍异步编程中常用的几个方法,但是前两篇写出来后,身边的朋友总是会有其他问题,所以决定再续写一篇,作为异步编程(一)和异步编程(二)的补 ...
- Js-函数式编程
前言 JavaScript是一门多范式语言,即可使用OOP(面向对象),也可以使用FP(函数式),由于笔者最近在学习React相关的技术栈,想进一步深入了解其思想,所以学习了一些FP相关的知识点,本文 ...
- 【带着canvas去流浪】(1)绘制柱状图
目录 一. 任务说明 二. 重点提示 三. 示例代码 四. 思考题 示例代码托管在:http://www.github.com/dashnowords/blogs 博客园地址:<大史住在大前端& ...
- sql servse 查询当前库内表索引值
PERCENT --a.id, THEN c.name ELSE '' END AS 表名, THEN a.name ELSE '' END AS 索引名称, d.name AS 列名, b.keyn ...
- SQL Server 一列或多列重复数据的查询,删除(转载)
转载来源:https://www.cnblogs.com/sunxi/p/4572332.html 业务需求 最近给公司做一个小工具,把某个数据库(数据源)的数据导进另一个数据(目标数据库).要求导入 ...
- Java 工厂模式(一)— 工厂方法(Factory Method)模式
一.工厂方法(Factory Method)模式: 1.什么是工厂方法模式? 工厂方法模式是类的创建型模式,又叫做虚拟构造子模式或者多态工厂模式.它的意义是创建产品对象的工厂接口,将实际创建工作推迟到 ...
- 折腾Java设计模式之迭代器模式
迭代器模式 Provide a way to access the elements of an aggregate object sequentially without exposing its ...
- 将传统 WPF 程序迁移到 DotNetCore 3.0
介绍 由于历史原因,基于 Windows 平台存在着大量的基于 .NetFramework 开发的 WPF 和 WinForm 相关程序,如果将这些程序全部基于 DotNetCore 3.0 重写一遍 ...
- Hacking HackDay: Albania
概述: Name: HackDay: Albania Date release: 18 Nov 2016 Author: R-73eN Series: HackDay 下载: https://down ...