利用H264解码分为几个步骤:

注意一点在添加头文件的时候要添加extern "C",不然会出现错误

  1. extern "C"
  2. {
  3. #include <avcodec.h>
  4. #include <avformat.h>
  5. #include <avutil.h>
  6. #include <swscale.h>
  7. };

这里申明了几个全局变量

  1. AVCodec         *pCodec = NULL;
  2. AVCodecContext  *pCodecCtx = NULL;
  3. SwsContext      *img_convert_ctx = NULL;
  4. AVFrame         *pFrame = NULL;
  5. AVFrame         *pFrameRGB = NULL;

1. 初始化

  1. int H264_Init(void)
  2. {
  3. /* must be called before using avcodec lib*/
  4. avcodec_init();
  5. /* register all the codecs */
  6. avcodec_register_all();
  7. /* find the h264 video decoder */
  8. pCodec = avcodec_find_decoder(CODEC_ID_H264);
  9. if (!pCodec) {
  10. fprintf(stderr, "codec not found\n");
  11. }
  12. pCodecCtx = avcodec_alloc_context();
  13. /* open the coderc */
  14. if (avcodec_open(pCodecCtx, pCodec) < 0) {
  15. fprintf(stderr, "could not open codec\n");
  16. }
  17. // Allocate video frame
  18. pFrame = avcodec_alloc_frame();
  19. if(pFrame == NULL)
  20. return -1;
  21. // Allocate an AVFrame structure
  22. pFrameRGB=avcodec_alloc_frame();
  23. if(pFrameRGB == NULL)
  24. return -1;
  25. return 0;
  26. }

在最早使用的时候没有使用全局变量,初始化中也就只有init和regisger这两个函数,而这样做的下场是,非关键帧全部无法解码,只有关键帧才有办法解码。

2. 解码

解码的时候avcodec_decode_video函数是进行解码操作,在外部定义outputbuf的大小时,pixes*3,outsize是返回的outputbuf的size,值也是pixes*3。

在解码的时候这几句话的意义是将YUV420P的数据倒置。在原先使用中,发现解出来的图像居然是中心旋转图,后面在网上找了些办法,觉得这个比较实用。解码实时是很重要的,图像转化完之后也可以讲RGB图再次转化,那样也能成为一个正的图,但是那样效率就明显低了。

  1. pFrame->data[0] += pFrame->linesize[0] * (pCodecCtx->height-1);
  2. pFrame->linesize[0] *= -1;
  3. pFrame->data[1] += pFrame->linesize[1] * (pCodecCtx->height/2 - 1);;
  4. pFrame->linesize[1] *= -1;
  5. pFrame->data[2] += pFrame->linesize[2] * (pCodecCtx->height/2 - 1);;
  6. pFrame->linesize[2] *= -1;
  1. int H264_2_RGB(unsigned char *inputbuf, int frame_size, unsigned char *outputbuf, unsigned int*outsize)
  2. {
  3. int             decode_size;
  4. int             numBytes;
  5. int             av_result;
  6. uint8_t         *buffer = NULL;
  7. printf("Video decoding\n");
  8. av_result = avcodec_decode_video(pCodecCtx, pFrame, &decode_size, inputbuf, frame_size);
  9. if (av_result < 0)
  10. {
  11. fprintf(stderr, "decode failed: inputbuf = 0x%x , input_framesize = %d\n", inputbuf, frame_size);
  12. return -1;
  13. }
  14. // Determine required buffer size and allocate buffer
  15. numBytes=avpicture_get_size(PIX_FMT_BGR24, pCodecCtx->width,
  16. pCodecCtx->height);
  17. buffer = (uint8_t*)malloc(numBytes * sizeof(uint8_t));
  18. // Assign appropriate parts of buffer to image planes in pFrameRGB
  19. avpicture_fill((AVPicture *)pFrameRGB, buffer, PIX_FMT_BGR24,
  20. pCodecCtx->width, pCodecCtx->height);
  21. img_convert_ctx = sws_getCachedContext(img_convert_ctx,pCodecCtx->width,pCodecCtx->height,
  22. //PIX_FMT_YUV420P,pCodecCtx->width,pCodecCtx->height,pCodecCtx->pix_fmt,
  23. pCodecCtx->pix_fmt,pCodecCtx->width,pCodecCtx->height,PIX_FMT_RGB24 ,
  24. SWS_X ,NULL,NULL,NULL) ;
  25. if (img_convert_ctx == NULL)
  26. {
  27. printf("can't init convert context!\n") ;
  28. return -1;
  29. }
  30. pFrame->data[0] += pFrame->linesize[0] * (pCodecCtx->height-1);
  31. pFrame->linesize[0] *= -1;
  32. pFrame->data[1] += pFrame->linesize[1] * (pCodecCtx->height/2 - 1);;
  33. pFrame->linesize[1] *= -1;
  34. pFrame->data[2] += pFrame->linesize[2] * (pCodecCtx->height/2 - 1);;
  35. pFrame->linesize[2] *= -1;
  36. sws_scale(img_convert_ctx, pFrame->data, pFrame->linesize,
  37. 0, 0 - pCodecCtx->width, pFrameRGB->data, pFrameRGB->linesize);
  38. if (decode_size)
  39. {
  40. *outsize = pCodecCtx->width * pCodecCtx->height * 3;
  41. memcpy(outputbuf, pFrameRGB->data[0], *outsize);
  42. }
  43. free(buffer);
  44. return 0;
  45. }
//解码yuv 修改 PIX_FMT_YUV420P
memcpy(outputbuf, pFrameRGB->data[2], 720*576/4);
			memcpy(outputbuf, pFrameRGB->data[1], 720*576/4);
			memcpy(outputbuf, pFrameRGB->data[0], 720*576);

3. 释放资源

资源的回收。

  1. void H264_Release(void)
  2. {
  3. avcodec_close(pCodecCtx);
  4. av_free(pCodecCtx);
  5. av_free(pFrame);
  6. av_free(pFrameRGB);
  7. }

利用ffmpeg将H264流 解码为RGB的更多相关文章

  1. FFMPEG实现H264的解码(从源代码角度)

    农历2014年底了,将前段时间工作中研究的FFMPEG解码H264流程在此做一下整理,也算作年终技术总结了! H264解码原理: H264的原理参考另一篇博文 http://blog.csdn.net ...

  2. 利用ffmpeg将H264解码为RGB

    因为公司买到了一个不提供解码器的设备,我不得已还要做解码的工作.在网上找了一圈,H264解码比較方便的也就是ffmpeg一系列的函数库了,原本设备中也是用这套函数库解码,但厂家不给提供,没办法,仅仅得 ...

  3. 用ffmpeg把H264数据流解码成YUV420P

    在网上找了很久这方面的内容,发现网上的代码都太旧了,所使用的函数旧到连最新版本的ffmpeg都已经不包含了,所以对于我这个初学者来说太坑拉.不过经过多次查找ffmpeg的头文件和结合网上的内容,终于成 ...

  4. 利用FFmpeg 将 rtsp 获取H264裸流并保存到文件中

    既然已经可以通过 RTSP 获取h264 裸流了.那么通过 FFmpeg 将其保存到文件中怎么做呢? 一.首先RTSP获取 h264 裸流 我们上面两篇文章主要讲的是通过 rtsp://Your ip ...

  5. [ffmpeg] h264并行解码

    ffmpeg中的并行解码分为两种: Frame-level Parallelism Slice-level Parallelism Frame-level Parallelism 帧间依赖 我们之前讨 ...

  6. VS2015编译FFMPEG,修改FFmpeg缓冲区大小解决实时流解码丢包问题,FFmpeg错误rtsp流地址卡死的问题,设置超时

    之前尝试过很多网上利用Windows编译FFmpeg的文章,都没有办法编译X64位的FFmpeg,有些教程中有专门提到编译64位的FFmpeg需要下载mingw-w64-install,但是编译的过程 ...

  7. ps流提取H264并解码播放

    因为需要从海康ps流中提取H264数据并进行解码播放,才有了这篇文章.因为是视频编解码领域的纯入门新手,个别理解或者方法有误,需要自行判断,不过相关方法已经测试通过,对于 像我这样的新手还是有一定的借 ...

  8. ffmpeg H264 编解码配置

    ffmpeg H264编解码前面有文章介绍下,本文主要介绍一些参数配置. 编码: int InitEncoderCodec( int iWidth, int iHeight) { AVCodec * ...

  9. 【VS开发】【视频开发】利用ffmpeg+opencv实现画中画

    需求:把两路视频合成一路,即一个画面同时显示两路视频,其中一路缩小成小视频叠在大视频上面,和电视机的画中画效果类似. 思路:用h264编码的视频举例,文件中存储的es流是h264,经过解码成yuv,y ...

随机推荐

  1. AQS 框架之 Unsafe 源码详解

    ■ 前言 之前 LockSupport那篇已经叙述了是线程阻塞工具类,其底层由 Unsafe 实现,即 park(), unpark() 方法,获取指针偏移量,并操纵内存.本篇主要介绍 Unsafe ...

  2. 网易云免费OSS服务用做Markdown图床或博客图片外链

    我使用据说是Windows下最好用的Markdown编辑器“MarkdownPad2”(个人感觉还是Visual Code+Markdown插件666)写Markdown,在贴图方面遇到一个问题,于是 ...

  3. ldconfig几个需要注意的地方

    1. 往/lib和/usr/lib里面加东西,是不用修改/etc/ld.so.conf的,但是完了之后要调一下ldconfig,不然这个library会找不到 2. 想往上面两个目录以外加东西的时候, ...

  4. 数据分区------《Designing Data-Intensive Applications》读书笔记9

    进入到第六章了,我们要开始聊聊分布式系统之中的核心问题:数据分区.分布式系统通常是通过大规模的数据节点来处理单机没有办法处理的海量数据集,因此,可以将一个大型数据集可以分布在多个磁盘上,查询负载可以分 ...

  5. BZOJ 1415: [Noi2005]聪聪和可可 [DP 概率]

    传送门 题意:小兔子乖乖~~~ 题意·真:无向图吗,聪抓可,每个时间聪先走可后走,聪一次可以走两步,朝着里可最近且点编号最小的方向:可一次只一步,等概率走向相邻的点或不走 求聪抓住可的期望时间 和游走 ...

  6. 让js调试更简单—console

    一.显示信息的命令 console.log 用于输出普通信息 console.info 用于输出提示性信息 console.error用于输出错误信息 console.warn用于输出警示信息 最常用 ...

  7. 本地创建yum源并安装lnmp

    注意:安装系统时,文件类型要未xfs类型,root要分配最多的空间 1.挂载安装光盘mount -t iso9660 -o loop CentOS-7-x86_64-DVD-1511.iso /mnt ...

  8. NoSQLBooster for MongoDB的基本使用

    连接 File -> Quik Connect ( Ctrl + Shift + N ) 或 Connect -> From URI 填入 mongodb://username:passw ...

  9. Netty ByteBuf梳理

    我们知道,网络数据的基本单位总是字节.Java NIO提供了ByteBuffer作为它的字节容器,但是这个类使用起来过于复杂,而且也有些繁琐. Netty的ByteBuffer替代品是ByteBuf, ...

  10. ipset批量配置iptables

    简介: ipset是iptables的扩展,允许你创建匹配整个地址sets(地址集合)的规则.而不像普通的iptables链是线性的存储和过滤,ip集合存储在带索引的数据结构中,这种集合比较大也可以进 ...