ffmpeg实现mjpeg摄像头的采集-预览-拍照
摄像头输出是mjpeg格式的,需要实现在线预览功能,然后实现拍照功能
1.可以设置采集图像的分辨率,预览分辨率为640*480,可以自定义
2.ctrl+\ 拍照,ctrl+c 退出
void test() {
if (signal(SIGQUIT, sigHandle) == SIG_ERR) {
perror("set signal err");
}
if (signal(SIGINT, sigHandle) == SIG_ERR) {
perror("set signal err");
}
AVOutputFormat *ofmt = NULL;
AVFormatContext *ifmt_ctx = NULL, *ofmt_ctx = NULL;
AVCodecContext *ifcodec_ctx, *ofcodec_ctx;
AVCodec *icodec, *ocodec;
AVStream *out_stream;
AVFrame *pFrame, *pFrameYUV420, *pFrameBGR;
struct SwsContext *in_conCtx, *out_conCtx;
unsigned char *in_buffer, *out_buffer;
AVPacket inpkg, outpkg;
const char *in_filename;
int ret, i;
int got_picture;
IplImage *image;
int videoindex = -;
int frame_index = ;
int64_t start_time = , end_time = ;
// in_filename = "test.mp4";
in_filename = "/dev/video1";
// in_filename = "rtmp://219.216.87.170/live/test3";
// out_filename = "rtmp://219.216.87.170/live/test2";
av_register_all();
avdevice_register_all();
avformat_network_init();
ifmt_ctx = avformat_alloc_context();
ifmt_ctx->probesize = ;
ifmt_ctx->max_analyze_duration = ;
AVDictionary* options = NULL;
av_dict_set(&options, "fflags", "nobuffer", );
av_dict_set(&options, "max_delay", "", );
av_dict_set(&options, "framerate", "", );
av_dict_set(&options, "input_format", "mjpeg", );
av_dict_set(&options, "video_size", "1920x1080", );
// av_dict_set(&options, "video_size", "1280x720", 0);
if ((ret = avformat_open_input(&ifmt_ctx, in_filename, , &options)) < ) {
printf("open input file err\n");
goto end;
}
av_dict_free(&options);
if ((ret = avformat_find_stream_info(ifmt_ctx, )) < ) {
printf("failed to retrieve input stream information\n");
goto end;
}
for (i = ; i < ifmt_ctx->nb_streams; i++) {
if (ifmt_ctx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
videoindex = i;
break;
}
printf("codec %d:%d %d\n", i, ifmt_ctx->streams[i]->codec->codec_type,
ifmt_ctx->streams[i]->codec->codec_id);
}
// exit(1);
ifcodec_ctx = ifmt_ctx->streams[videoindex]->codec;
icodec = avcodec_find_decoder(ifcodec_ctx->codec_id);
if (icodec == NULL) {
printf("icodec not find\n");
goto end;
}
if (avcodec_open2(ifcodec_ctx, icodec, NULL) < ) {
printf("open icodec err\n");
goto end;
}
printf("**************** input file info ******************\n");
av_dump_format(ifmt_ctx, , in_filename, );
// avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_filename);
ofmt_ctx = avformat_alloc_context();
if (!ofmt_ctx) {
printf("could not create output context\n");
ret = AVERROR_UNKNOWN;
goto end;
}
ofmt = av_guess_format("mjpeg", NULL, NULL);
ofmt_ctx->oformat = ofmt;
out_stream = avformat_new_stream(ofmt_ctx, NULL);
if (!out_stream) {
printf("failed allocating output stream\n");
ret = AVERROR_UNKNOWN;
goto end;
}
ofcodec_ctx = out_stream->codec;
ofcodec_ctx->codec_id = ofmt->video_codec;
ofcodec_ctx->codec_type = AVMEDIA_TYPE_VIDEO;
ofcodec_ctx->pix_fmt = AV_PIX_FMT_YUVJ420P;
ofcodec_ctx->width = ifcodec_ctx->width;
ofcodec_ctx->height = ifcodec_ctx->height;
ofcodec_ctx->time_base.den = ;
ofcodec_ctx->time_base.num = ;
printf("timebase %d %d\n", ofcodec_ctx->time_base.den,
ofcodec_ctx->time_base.num);
// ofcodec_ctx->bit_rate = 1000000;
// ofcodec_ctx->gop_size = 5;
// ofcodec_ctx->me_range = 16;
// ofcodec_ctx->max_qdiff = 4;
// ofcodec_ctx->qmin = 10;
// ofcodec_ctx->qmax = 51;
// ofcodec_ctx->qcompress = 0.6;
// if (ofcodec_ctx->codec_id == AV_CODEC_ID_H264) {
// av_opt_set(ofcodec_ctx->priv_data, "preset", "slow", 0);
// ofcodec_ctx->max_b_frames = 1;
// }
out_stream->codec->codec_tag = ;
if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER) {
out_stream->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;
}
ocodec = avcodec_find_encoder(ofcodec_ctx->codec_id);
if (!ocodec) {
printf("find encoder err\n");
goto end;
}
if (avcodec_open2(ofcodec_ctx, ocodec, NULL) < ) {
printf("open encoder err\n");
goto end;
}
/*******************************************/
pFrame = av_frame_alloc();
pFrameYUV420 = av_frame_alloc();
pFrameBGR = av_frame_alloc();
in_buffer = (unsigned char *) av_malloc(
avpicture_get_size(AV_PIX_FMT_BGR24, , ));
avpicture_fill((AVPicture*) pFrameBGR, in_buffer, AV_PIX_FMT_BGR24, ,
);
// printf("fmt %d\twidth %d\theight %d\n", pFrameBGR->format, pFrameBGR->width,
// pFrameBGR->height);
out_buffer = (unsigned char *) av_malloc(
avpicture_get_size(AV_PIX_FMT_YUV420P, ofcodec_ctx->width,
ofcodec_ctx->height));
avpicture_fill((AVPicture*) pFrameYUV420, out_buffer, AV_PIX_FMT_YUV420P,
ofcodec_ctx->width, ofcodec_ctx->height);
// printf("fmt %d\twidth %d\theight %d\n", pFrameYUV420->format,
// pFrameYUV420->width, pFrameYUV420->height);
in_conCtx = sws_getContext(ifcodec_ctx->width, ifcodec_ctx->height,
ifcodec_ctx->pix_fmt, , ,
AV_PIX_FMT_BGR24, SWS_BICUBIC, NULL, NULL, NULL);
out_conCtx = sws_getContext(ifcodec_ctx->width, ifcodec_ctx->height,
ifcodec_ctx->pix_fmt, ofcodec_ctx->width, ofcodec_ctx->height,
ofcodec_ctx->pix_fmt, SWS_BICUBIC, NULL, NULL, NULL);
image = cvCreateImageHeader(cvSize(, ),
IPL_DEPTH_8U, );
cvSetData(image, in_buffer, * );
// inpkg = (AVPacket*) av_malloc(sizeof(AVPacket));
// outpkg = (AVPacket*) av_malloc(sizeof(AVPacket));
start_time = av_gettime();
pFrameYUV420->format = AV_PIX_FMT_YUV420P;
pFrameYUV420->width = ofcodec_ctx->width;
pFrameYUV420->height = ofcodec_ctx->height;
av_new_packet(&outpkg, ofcodec_ctx->width * ofcodec_ctx->height * );
while (av_read_frame(ifmt_ctx, &inpkg) >= && runFlag) {
inpkg.dts = av_rescale_q_rnd(inpkg.dts,
ifmt_ctx->streams[videoindex]->time_base,
ifmt_ctx->streams[videoindex]->codec->time_base,
(enum AVRounding) (AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
inpkg.pts = av_rescale_q_rnd(inpkg.pts,
ifmt_ctx->streams[videoindex]->time_base,
ifmt_ctx->streams[videoindex]->codec->time_base,
(enum AVRounding) (AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
//decode
if (inpkg.stream_index == videoindex) {
ret = avcodec_decode_video2(ifcodec_ctx, pFrame, &got_picture,
&inpkg);
if (ret < ) {
printf("decode err\n");
exit(-);
}
if (got_picture) {
pFrame->pts = av_frame_get_best_effort_timestamp(pFrame);
sws_scale(in_conCtx,
(const unsigned char * const *) pFrame->data,
pFrame->linesize, , ifcodec_ctx->height,
pFrameBGR->data, pFrameBGR->linesize);
// printf("bgr fmt %d\twidth %d\theight %d\n", pFrameBGR->format,
// pFrameBGR->width, pFrameBGR->height);
cvShowImage("camera", image);
cvWaitKey();
if (flag == ) {
char out_filename[];
memset(out_filename, , sizeof(out_filename));
sprintf(out_filename, "%d.jpg", frame_index);
printf("encode frame %d\n", frame_index++);
if (!(ofmt->flags & AVFMT_NOFILE)) {
ret = avio_open(&ofmt_ctx->pb, out_filename,
AVIO_FLAG_WRITE);
if (ret < ) {
printf("could not open output url '%s'\n",
out_filename);
goto end;
}
}
printf(
"**************** output file info ******************\n");
av_dump_format(ofmt_ctx, , out_filename, );
ret = avformat_write_header(ofmt_ctx, NULL);
if (ret < ) {
printf("error occurred when opening output URL\n");
goto end;
}
sws_scale(out_conCtx,
(const unsigned char * const *) pFrame->data,
pFrame->linesize, , ofcodec_ctx->height,
pFrameYUV420->data, pFrameYUV420->linesize);
// printf("yuv420 fmt %d\twidth %d\theight %d\n",
// pFrameYUV420->format, pFrameYUV420->width,
// pFrameYUV420->height);
got_picture = ;
pFrameYUV420->pts = pFrame->pts;
ret = avcodec_encode_video2(ofcodec_ctx, &outpkg,
pFrameYUV420, &got_picture);
if (ret < ) {
printf("encode err\n");
goto end;
}
if (got_picture == && flag == ) {
av_write_frame(ofmt_ctx, &outpkg);
av_free_packet(&outpkg);
av_write_trailer(ofmt_ctx);
}
flag = ;
}
}
}
//encode
av_free_packet(&inpkg);
end_time = av_gettime();
printf("fps:%2f\n", (float) / (end_time - start_time));
start_time = end_time;
}
end: sws_freeContext(in_conCtx);
sws_freeContext(out_conCtx);
free(in_buffer);
free(out_buffer);
av_free(pFrameYUV420);
av_free(pFrameBGR);
avcodec_close(ifcodec_ctx);
avcodec_close(ofcodec_ctx);
avformat_close_input(&ifmt_ctx);
if (ofmt_ctx && !(ofmt->flags & AVFMT_NOFILE))
avio_close(ofmt_ctx->pb);
avformat_free_context(ofmt_ctx);
if (ret < && ret != AVERROR_EOF) {
printf("Error occurred.\n");
exit(-);
}
exit();
}
代码是从标准的视频采集/转码程序改过来的,是测试程序,没有啥封装,看起来比较乱。
ffmpeg实现mjpeg摄像头的采集-预览-拍照的更多相关文章
- MFC Camera 摄像头预览 拍照
windows 上开发摄像头程序,比较容易的方式是 OpenCV ,几行代码就能显示出来,但是简单的容易搞,有点难度定制化需求的就不这么容易了.所以说还是要从,最基础的 DirectShow 开始搞起 ...
- ffmpeg实现视频文件合并/截取预览视频/抽取音频/crop(裁剪)(ffmpeg4.2.2)
一,ffmpeg的安装 请参见: https://www.cnblogs.com/architectforest/p/12807683.html 说明:刘宏缔的架构森林是一个专注架构的博客,地址:ht ...
- Unity 摄像头竖屏预览显示的问题
Unity可以通过WebCamTexture打开摄像头,通过 cameraRawImage.texture = camTexture; 将贴图给RawImage,但是WebCamTexture只能设置 ...
- Android开发:实时处理摄像头预览帧视频------浅析PreviewCallback,onPreviewFrame,AsyncTask的综合应用(转)
原文地址:http://blog.csdn.net/yanzi1225627/article/details/8605061# 很多时候,android摄像头模块不仅预览,拍照这么简单,而是需要在预览 ...
- ffmpeg从USB摄像头采集一张原始图片(转)
本文讲解使用ffmpeg从USB摄像头中采集一帧数据并写入文件保存,测试平台使用全志A20平台,其他平台修改交叉工具链即可移植.开发环境使用eclipse+CDT.交叉工具链使用arm-Linux-g ...
- Android 摄像头预览悬浮窗
用CameraX打开摄像头预览,显示在界面上.结合悬浮窗的功能.实现一个可拖动悬浮窗,实时预览摄像头的例子. 这个例子放进了单独的模块里.使用时注意gradle里的细微差别. 操作摄像头,打开预览.这 ...
- Android 摄像头预览悬浮窗,可拖动,可显示在其他app上方
市面上常见的摄像头悬浮窗,如微信.手机QQ的视频通话功能,有如下特点: 整屏页面能切换到一个小的悬浮窗 悬浮窗能运行在其他app上方 悬浮窗能跳回整屏页面,并且悬浮窗消失 我们探讨过用CameraX打 ...
- DirectShow 进行视频预览和录制
这一篇讲怎么采集摄像头图像并预览,以及录制视频到本地. 程序实现流程 这里通过使用 CaptureGraphBuilder 来简化 Graph 的创建流程. 具体流程如下: 初始化 COM 库 创建各 ...
- Android Camera2 预览功能实现
1. 概述 最近在做一些关于人脸识别的项目,需要用到 Android 相机的预览功能.网上查阅相关资料后,发现 Android 5.0 及以后的版本中,原有的 Camera API 已经被 Camer ...
随机推荐
- Oracle记录类型(record)和%rowtype
Oracle中的记录类型(record)和使用%rowtype定义的数据类型都是一种单行多列的数据结构,可以理解为一个具有多个属性的对象.其中属性名即为列名. 记录类型(record) 记录类型是一种 ...
- IoC和AOP扩展
一.构造注入 二.使用p命名空间注入属性值 三.注入不同数据类型 <?xml version="1.0" encoding="UTF-8"?> &l ...
- JavaScript深入之参数按值传递
在<JavaScript高级程序设计>第三版 4.1.3,讲到传递参数: ECMAscript中所有函数的参数都是按值传递 按值传递 也就是,把函数外部的值复制给函数内部的参数,就和把值从 ...
- linux 特殊命令(二)
Netstat 命令用于显示各种网络相关信息,如网络连接,路由表,接口状态 (Interface Statistics),masquerade 连接,多播成员 (Multicast Membershi ...
- 论反向ajax
在讨论反向ajax之前,说一下我大二写的一个聊天程序,通过前端ajax不断向服务器发送请求(通过http连接),服务器进行一次数据库查询,然后返回结果,断开与服务器的链接(绝大部分都是无用的结果)来维 ...
- sample采样倾斜key并单独进行join代码
/** * sample采样倾斜key单独进行join */ JavaPairRDD<Long, String> sampledRDD = userid2PartAggrInfoRDD.s ...
- 利用HaoheDI从数据库抽取数据导入到hbase中
下载apache-phoenix-4.14.0-HBase-1.4-bin.tar.gz 将其中的 phoenix-4.14.0-HBase-1.4-client.jar phoenix-core-4 ...
- python学习笔记:第12天 列表推导式和生成器
目录 1. 迭代器 2. 推导式 1. 迭代器 什么是生成器呢,其实生成器的本质就是迭代器:在python中有3中方式来获取生成器(这里主要介绍前面2种) 通过生成器函数获取 通过各种推导式来实现生成 ...
- JZ2440开发板:用按键点亮LED灯(学习笔记)
本文是对韦东山嵌入式第一期学习的记录之一,如有您需要查找的信息,可以继续往下阅读. 想要用按键点亮LED灯,就需要知道按键和LED灯的相关信息,这样才可以进行之后的操作.阅读JZ2440的原理图,可以 ...
- 18CCPC网赛A 贪心
Buy and Resell Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 65536/65536 K (Java/Others)To ...