前言

之前实现了Android手机摄像头数据的TCP实时传输,今天接着聊聊,如何在PC端把接收到的H264视频流实时解码并渲染出来。这次使用的语言是C++,框架有FFmpeg和SDL2。

解码

解码部分使用FFmpeg,首先,需要初始化H264解码器:

int H264Decoder::init() {
codec = avcodec_find_decoder(AV_CODEC_ID_H264);
if (codec == nullptr) {
printf("No H264 decoder found\n");
return -1;
}
codecCtx = avcodec_alloc_context3(codec);
codecCtx->flags |= AV_CODEC_FLAG_LOW_DELAY;
if (avcodec_open2(codecCtx, codec, nullptr) < 0) {
printf("Failed to open codec\n");
return -2;
}
packet = av_packet_alloc();
m_Frame = av_frame_alloc();
parser = av_parser_init(AV_CODEC_ID_H264);
return 0;
}

然后,使用创建TCP连接到我们的Android端,读取数据包:

bool read_data(SOCKET socket, void* data, unsigned int len) {
while (len > 0) {
int ret = recv(socket, (char*)data, len, 0);
if (ret <= 0) {
return false;
}
len -= ret;
data = (char*)data + ret;
}
return true;
} bool read_int(SOCKET socket, ULONG* value) {
bool ret = read_data(socket, value, 4);
if (ret) {
*value = ntohl(*value);
}
return ret;
} int PacketReceiver::readPacket(unsigned char** data, unsigned long* size) {
ULONG pkgSize = 0;
bool ret = read_int(m_Socket, &pkgSize);
if (!ret) {
printf("Failed to read packet size\n");
return -1;
}
if (m_DataLen < pkgSize) {
if (m_Data != nullptr) {
delete[] m_Data;
}
m_Data = new unsigned char[pkgSize];
m_DataLen = pkgSize;
}
if (!read_data(m_Socket, m_Data, pkgSize)) {
printf("Failed to read packet data\n");
return -2;
}
*data = m_Data;
*size = pkgSize;
return 0;
}

再把每个数据包传送给H264解码器解码

int H264Decoder::decode(unsigned char* data, int size, AVFrame** frame) {
int new_pkg_ret = av_new_packet(packet, size);
if (new_pkg_ret != 0) {
printf("Failed to create new packet\n");
return -1;
}
memcpy(packet->data, data, size);
int ret = avcodec_send_packet(codecCtx, packet);
if (ret < 0 && ret != AVERROR(EAGAIN)) {
printf("Failed to parse packet\n");
return -1;
}
ret = avcodec_receive_frame(codecCtx, m_Frame);
if (ret == AVERROR(EAGAIN)) {
*frame = nullptr;
return 0;
}
if (ret != 0) {
printf("Failed to read frame\n");
return -1;
}
*frame = m_Frame;
av_packet_unref(packet);
return 0;
}

解码器解码后,最终得到的是AVFrame对象,代表一帧画面,数据格式一般为YUV格式(跟编码端选择的像素格式有关)。

渲染

通过使用SDL2,我们可以直接渲染YUV数据,无需手动转成RGB。

首先,我们先初始化SDL2并创建渲染窗口:

int YuvRender::init(int video_width, int video_height) {
SDL_Init(SDL_INIT_VIDEO);
SDL_Rect bounds;
SDL_GetDisplayUsableBounds(0, &bounds);
int winWidth = video_width;
int winHeight = video_height;
if (winWidth > bounds.w || winHeight > bounds.h) {
float widthRatio = 1.0 * winWidth / bounds.w;
float heightRatio = 1.0 * winHeight / bounds.h;
float maxRatio = widthRatio > heightRatio ? widthRatio : heightRatio;
winWidth = int(winWidth / maxRatio);
winHeight = int(winHeight / maxRatio);
}
SDL_Window* window = SDL_CreateWindow(
"NetCameraViewer",
SDL_WINDOWPOS_UNDEFINED,
SDL_WINDOWPOS_UNDEFINED,
winWidth,
winHeight,
SDL_WINDOW_OPENGL
);
m_Renderer = SDL_CreateRenderer(window, -1, 0);
m_Texture = SDL_CreateTexture(
m_Renderer,
SDL_PIXELFORMAT_IYUV,
SDL_TEXTUREACCESS_STREAMING,
video_width,
video_height
);
m_VideoWidth = video_width;
m_VideoHeight = video_height;
m_Rect.x = 0;
m_Rect.y = 0;
m_Rect.w = winWidth;
m_Rect.h = winHeight;
return 0;
}

每次解码出一帧画面的时候,再调用render函数渲染:

int YuvRender::render(unsigned char* data[], int pitch[]) {
int uvHeight = m_VideoHeight / 2;
int ySize = pitch[0] * m_VideoHeight;
int uSize = pitch[1] * uvHeight;
int vSize = pitch[2] * uvHeight;
int buffSize = ySize + uSize + vSize;
if (m_FrameBufferSize < buffSize) {
if (m_FrameBuffer != nullptr) {
delete[] m_FrameBuffer;
}
m_FrameBuffer = new unsigned char[buffSize];
m_FrameBufferSize = buffSize;
}
SDL_memcpy(m_FrameBuffer, data[0], ySize);
SDL_memcpy(m_FrameBuffer + ySize, data[1], uSize);
SDL_memcpy(m_FrameBuffer + ySize + uSize, data[2], vSize);
SDL_UpdateTexture(m_Texture, NULL, m_FrameBuffer, pitch[0]);
SDL_RenderClear(m_Renderer);
SDL_RenderCopy(m_Renderer, m_Texture, NULL, &m_Rect);
SDL_RenderPresent(m_Renderer);
SDL_PollEvent(&m_Event);
if (m_Event.type == SDL_QUIT) {
exit(0);
}
return 0;
}

性能

在搭载AMD Ryzen 5 5600U的机器上,1800 x 1350的分辨率,解码一帧平均25ms, 渲染1~2ms,加上编码和传输延时,总体延时在70ms左右。

完整源码已上传至Github: https://github.com/kasonyang/net-camera/tree/main/viewer-app

FFmpeg+SDL实时解码和渲染H264视频流的更多相关文章

  1. 在iOS平台使用ffmpeg解码h264视频流(转)

    在iOS平台使用ffmpeg解码h264视频流,有需要的朋友可以参考下. 对于视频文件和rtsp之类的主流视频传输协议,ffmpeg提供avformat_open_input接口,直接将文件路径或UR ...

  2. 在iOS平台使用ffmpeg解码h264视频流

    来源:http://www.aichengxu.com/view/37145 在iOS平台使用ffmpeg解码h264视频流,有需要的朋友可以参考下. 对于视频文件和rtsp之类的主流视频传输协议,f ...

  3. OpenCV实时美颜摄像并生成H264视频流

    为什么美颜摄像这么简单的功能,OpenCV这个开源项目网上很少有代码呢?对于在windows平台下,生成h264视频流也比价麻烦,没有现成的api可以使用,需要借助MinGw编译libx264,或者f ...

  4. 新版本ffmpeg解码非完整H264帧失败

    按照ffmpeg/doc/examples/decoding_encoding.c中video_decode_example解码H264,新版本ffmpeg解码非完整H264帧,定量读取数据直接给av ...

  5. 音视频处理之FFmpeg+SDL视频播放器20180409

    一.FFmpeg视频解码器 1.视频解码知识 1).纯净的视频解码流程 压缩编码数据->像素数据. 例如解码H.264,就是“H.264码流->YUV”. 2).一般的视频解码流程 视频码 ...

  6. 音视频处理之FFmpeg+SDL+MFC视频播放器20180411

    一.FFmpeg+SDL+MFC视频播放器 1.MFC知识 1).创建MFC工程的方法 打开VC++ 文件->新建->项目->MFC应用程序 应用程序类型->基于对话框 取消勾 ...

  7. 最简单的基于FFMPEG+SDL的视频播放器 ver2 (採用SDL2.0)

    ===================================================== 最简单的基于FFmpeg的视频播放器系列文章列表: 100行代码实现最简单的基于FFMPEG ...

  8. 最简单的基于FFMPEG+SDL的视频播放器 ver2 (采用SDL2.0)

    ===================================================== 最简单的基于FFmpeg的视频播放器系列文章列表: 100行代码实现最简单的基于FFMPEG ...

  9. 基于<最简单的基于FFMPEG+SDL的视频播放器 ver2 (采用SDL2.0)>的一些个人总结

    最近因为项目接近收尾阶段,所以变的没有之前那么忙了,所以最近重新拿起了之前的一些FFMPEG和SDL的相关流媒体播放器的例子在看. 同时自己也用FFMPEG2.01,SDL2.01结合MFC以及网上罗 ...

  10. 用JavaCV改写“100行代码实现最简单的基于FFMPEG+SDL的视频播放器 ”

    FFMPEG的文档少,JavaCV的文档就更少了.从网上找到这篇100行代码实现最简单的基于FFMPEG+SDL的视频播放器.地址是http://blog.csdn.net/leixiaohua102 ...

随机推荐

  1. python从shp文件中读取经纬度数据

    python从shp文件中读取经纬度数据 没有接触过GIS的人来说shp文件很陌生而且很难打开查看,好在python可以从中提取出自己想要的数据 pyshp库的安装 python的pyshp库可以实现 ...

  2. 随手记:redis 开发注意事项

    Redis开发建议 1.冷热数据分离,不要将所有数据全部都放到Redis中 虽然Redis支持持久化,但是Redis的数据存储全部都是在内存中的,成本昂贵.建议根据业务只将高频热数据存储到Redis中 ...

  3. 手动编写Swagger文档与部署指南

    Swagger介绍 在Web开发中,后端开发者在完成接口开发后,需要给前端相应的接口使用说明,所以一般会写一份API文档.一般来说,有两种方式提供API接口文档,一种是利用插件在代码中自动生成,另一种 ...

  4. 2023高效的mysql 随机语句 200万数据为例 用了 0.0030秒

    是的,如果数据表中有200万条记录,使用 ORDER BY RAND() 这种方式来随机选择记录会非常慢,因为 MySQL 需要对整个表进行排序,然后再返回指定数量的记录.这个过程需要消耗大量的时间和 ...

  5. MIT6.824 Distributed-System(Lab1)-MapReduce

    Lab address: http://nil.csail.mit.edu/6.824/2020/labs/lab-mr.html paper: MapReduce: Simplified Data ...

  6. 高阶组件——withRouter的原理和用法

    作用: 高阶组件中的withRouter, 作用是将一个组件包裹进Route里面, 然后react-router的三个对象history, location, match就会被放进这个组件的props ...

  7. [C++基础入门] 1、C++初识

    文章目录 1 C++初识 1.1 第一个C++程序 1.1.1 创建项目 1.1.2 创建文件 1.1.3 编写代码 1.1.4 运行程序 1.2 注释 1.3 变量 1.4 常量 1.5 关键字 1 ...

  8. JavaWeb 中 Filter过滤器

    Filter过滤器 每博一文案 师傅说:人生无坦途,累是必须的背负,看多了,人情人暖,走遍了离合聚散,有时会 在心里对自己说,我想,我是真的累了,小时候有读不完的书,长大后有赚不尽的力. 白天在外要奋 ...

  9. OpenResty学习笔记03:再探WAF

    一. 再谈WAF 我们上一篇安装的WAF来自另一位技术大神 赵舜东,花名 赵班长,一直从事自动化运维方面的架构设计工作.阿里云MVP.华为云MVP.中国SaltStack用户组发起人 .新运维社区发起 ...

  10. Vulhub activewq_漏洞复现——源码分析

    Vulhub activewq_漏洞复现--源码分析 漏洞简介 Apache ActiveMQ是由美国阿帕奇(Apache)软件基金会开发的开源消息中间件,支持Java消息服务.集群.Spring框架 ...