一、前言

做嵌入式linux上的开发很多年了,扳手指头算算,也起码9年了,陆陆续续做过很过诸如需要读取外接的USB摄像头或者CMOS摄像机的程序,实时采集视频,将图像传到前端,或者对图像进行人脸分析处理,最开始尝试的就是QCamera来处理,直接歇菜放弃,后面通过搜索发现都说要用v4l2视频框架来进行,于是东搞搞西搞搞尝试了很多次,终于整出来了,前后完善了好几年,无论写什么程序,发现要简简单单的实现基础的功能,都是非常快速而且容易的,但是想要做得好做得精,要花不少的精力时间去完善,适应各种不同的场景,比如就说用v4l2加载摄像头这个,需要指定设备文件来读取,而现场不可能让用户来给你指定,频繁的拔插也会导致设备文件名的改动,所以必须找到一个机制自动寻找你想要的摄像机的设备文件名称,比如开个定时器去调用linux命令来处理,甚至在不同的系统平台上要执行的命令还有些许的区别,如果本地有多个摄像头还需要区分左右之类的时候,那就只能通过断电先后上电顺序次序来区分了。

linux方案处理流程:

  1. 调用封装的函数findCamera实时查找摄像头设备文件名。
  2. 调用::open函数打开设备文件。
  3. 调用封装的函数initCamera初始化摄像头参数(图片格式、分辨率等)。
  4. 调用::select函数从缓冲区取出一个缓冲帧。
  5. 缓冲帧数据是yuyv格式的,需要转换rgb24再转成QImage。
  6. 拿到图片进行绘制、人脸分析等。
  7. 关闭设备文件。

二、功能特点

  1. 同时支持windows、linux、嵌入式linux上的USB摄像头实时采集。
  2. 支持多路USB摄像头多线程实时采集。
  3. 在嵌入式linux设备上,自动查找USB设备文件并加载。
  4. 可手动设置设备文件名称,手动设置后按照手动设置的设备文件加载。
  5. 在嵌入式linux设备上支持人脸识别接口,实时绘制人脸框。
  6. 具有打开、暂停、继续、关闭、截图等常规功能。
  7. 可设置两路OSD标签,分别设置文本、颜色、字号、位置等。
  8. 可作为视频监控系统使用。

三、效果图

四、相关站点

  1. 国内站点:https://gitee.com/feiyangqingyun/QWidgetDemo
  2. 国际站点:https://github.com/feiyangqingyun/QWidgetDemo
  3. 个人主页:https://blog.csdn.net/feiyangqingyun
  4. 知乎主页:https://www.zhihu.com/people/feiyangqingyun/
  5. 体验地址:https://blog.csdn.net/feiyangqingyun/article/details/97565652

五、核心代码

void CameraLinux::run()
{
while (!stopped) {
if (!cameraOk) {
msleep(10);
continue;
} if (isPause) {
//这里需要假设正常,暂停期间继续更新时间
lastTime = QDateTime::currentDateTime();
msleep(10);
continue;
} QImage image = readImage();
if (!image.isNull()) {
if (isSnap) {
emit snapImage(image);
isSnap = false;
} if (findFaceOne) {
findFace(image);
} if (findFaceRect) {
image = drawFace(image);
} lastTime = QDateTime::currentDateTime();
emit receiveImage(image);
} msleep(interval);
} this->closeCamera();
this->initData();
} QDateTime CameraLinux::getLastTime() const
{
return this->lastTime;
} QString CameraLinux::getCameraName() const
{
return this->cameraName;
} int CameraLinux::getCameraWidth() const
{
return this->cameraWidth;
} int CameraLinux::getCameraHeight() const
{
return this->cameraHeight;
} void CameraLinux::sleep(int msec)
{
if (msec > 0) {
QTime endTime = QTime::currentTime().addMSecs(msec);
while (QTime::currentTime() < endTime) {
QCoreApplication::processEvents(QEventLoop::AllEvents, 100);
}
}
} void CameraLinux::initData()
{
stopped = false;
isPause = false;
isSnap = false;
cameraOk = false;
cameraHwnd = -1;
errorCount = 0;
} void CameraLinux::readData()
{
QStringList cameraNames;
while (!process->atEnd()) {
//逐行读取返回的结果 过滤video开头的是摄像头设备文件
QString line = process->readLine();
if (line.startsWith("video")) {
line = line.replace("\n", "");
cameraNames << QString("/dev/%1").arg(line);
}
} if (cameraNames.count() > 0) {
cameraName = cameraNames.first();
emit receiveCamera(cameraNames);
qDebug() << TIMEMS << cameraNames;
}
} bool CameraLinux::initCamera()
{
//如果没有指定设备文件名称(默认auto)则查找
if (cameraName == "auto") {
findCamera();
} //延时判断是否获取到了设备文件
sleep(300);
return openCamera();
} void CameraLinux::findCamera()
{
if (process->state() == QProcess::NotRunning) {
process->start("ls /dev/");
}
} bool CameraLinux::openCamera()
{
#ifdef Q_OS_LINUX
if (cameraName.length() > 5) {
cameraHwnd = ::open(cameraName.toUtf8().data(), O_RDWR | O_NONBLOCK, 0);
} if (cameraHwnd < 0) {
qDebug() << TIMEMS << "open camera error";
return false;
} //查询设备属性
struct v4l2_capability capability;
if (::ioctl(cameraHwnd, VIDIOC_QUERYCAP, &capability) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_QUERYCAP";
::close(cameraHwnd);
return false;
} if (!(capability.capabilities & V4L2_CAP_VIDEO_CAPTURE)) {
qDebug() << TIMEMS << "it is not a video capture device";
::close(cameraHwnd);
return false;
} if (!(capability.capabilities & V4L2_CAP_STREAMING)) {
qDebug() << TIMEMS << "it can not streaming";
::close(cameraHwnd);
return false;
} if (capability.capabilities == 0x4000001) {
qDebug() << TIMEMS << "capabilities" << "V4L2_CAP_VIDEO_CAPTURE | V4L2_CAP_STREAMING";
} //设置视频输入源
int input = 0;
if (::ioctl(cameraHwnd, VIDIOC_S_INPUT, &input) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_S_INPUT";
::close(cameraHwnd);
return false;
} //设置图片格式和分辨率
struct v4l2_format format;
format.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
//多种格式 V4L2_PIX_FMT_YUV420 V4L2_PIX_FMT_YUYV(422) V4L2_PIX_FMT_RGB565
format.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
//部分硬件花屏要设置成 V4L2_FIELD_NONE
format.fmt.pix.field = V4L2_FIELD_INTERLACED;
format.fmt.pix.width = cameraWidth;
format.fmt.pix.height = cameraHeight; int bpp = 16;
//format.fmt.pix.bytesperline = width * bpp / 8;
//format.fmt.pix.sizeimage = cameraWidth * cameraHeight * bpp / 8; if (::ioctl(cameraHwnd, VIDIOC_S_FMT, &format) < 0) {
::close(cameraHwnd);
return false;
} //查看图片格式和分辨率,判断是否设置成功
if (::ioctl(cameraHwnd, VIDIOC_G_FMT, &format) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_G_FMT";
::close(cameraHwnd);
return false;
} //重新打印下宽高看下是否真正设置成功
struct v4l2_pix_format pix = format.fmt.pix;
quint32 pixelformat = pix.pixelformat;
qDebug() << TIMEMS << "cameraWidth" << cameraWidth << "cameraHeight" << cameraHeight << "width" << pix.width << "height" << pix.height;
qDebug() << TIMEMS << "pixelformat" << QString("%1%2%3%4").arg(QChar(pixelformat & 0xFF)).arg(QChar((pixelformat >> 8) & 0xFF)).arg(QChar((pixelformat >> 16) & 0xFF)).arg(QChar((pixelformat >> 24) & 0xFF)); //重新设置宽高为真实的宽高
cameraWidth = pix.width;
cameraHeight = pix.height; //设置帧格式
struct v4l2_streamparm streamparm;
streamparm.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
streamparm.parm.capture.timeperframe.numerator = 1;
streamparm.parm.capture.timeperframe.denominator = 25;
streamparm.parm.capture.capturemode = 0; if (::ioctl(cameraHwnd, VIDIOC_S_PARM, &streamparm) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_S_PARM";
::close(cameraHwnd);
return false;
} if (::ioctl(cameraHwnd, VIDIOC_G_PARM, &streamparm) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_G_PARM";
::close(cameraHwnd);
return false;
} //申请和管理缓冲区
struct v4l2_requestbuffers requestbuffers;
requestbuffers.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
requestbuffers.memory = V4L2_MEMORY_MMAP;
requestbuffers.count = 1; if (::ioctl(cameraHwnd, VIDIOC_REQBUFS, &requestbuffers) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_REQBUFS";
::close(cameraHwnd);
return false;
} buff_yuv422 = (uchar *)malloc(cameraWidth * cameraHeight * bpp / 8);
buff_yuv420 = (uchar *)malloc(cameraWidth * cameraHeight * bpp / 8);
buff_rgb24 = (uchar *)malloc(cameraWidth * cameraHeight * 24 / 8); buff_img = (ImgBuffer *)calloc(1, sizeof(ImgBuffer));
if (buff_img == NULL) {
qDebug() << TIMEMS << "error in calloc";
::close(cameraHwnd);
return false;
} struct v4l2_buffer buffer;
for (int index = 0; index < 1; index++) {
buffer.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buffer.memory = V4L2_MEMORY_MMAP;
buffer.index = index; if (::ioctl(cameraHwnd, VIDIOC_QUERYBUF, &buffer) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_QUERYBUF";
::free(buff_img);
::close(cameraHwnd);
return false;
} buff_img[index].length = buffer.length;
buff_img[index].start = (quint8 *)mmap(NULL, buffer.length, PROT_READ | PROT_WRITE, MAP_SHARED, cameraHwnd, buffer.m.offset);
if (MAP_FAILED == buff_img[index].start) {
qDebug() << TIMEMS << "error in mmap";
::free(buff_img);
::close(cameraHwnd);
return false;
} //把缓冲帧放入队列
if (::ioctl(cameraHwnd, VIDIOC_QBUF, &buffer) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_QBUF";
for (int i = 0; i <= index; i++) {
munmap(buff_img[i].start, buff_img[i].length);
} ::free(buff_img);
::close(cameraHwnd);
return false;
}
} enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
if (::ioctl(cameraHwnd, VIDIOC_STREAMON, &type) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_STREAMON";
for (int i = 0; i < 1; i++) {
munmap(buff_img[i].start, buff_img[i].length);
} ::free(buff_img);
::close(cameraHwnd);
return false;
} cameraOk = true;
#endif
qDebug() << TIMEMS << "open camera ok";
return cameraOk;
} void CameraLinux::closeCamera()
{
#ifdef Q_OS_LINUX
if (cameraOk && buff_img != NULL) {
//停止摄像头采集
enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
if (::ioctl(cameraHwnd, VIDIOC_STREAMOFF, &type) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_STREAMOFF";
} //解除内存映射
for (int i = 0; i < 1; i++) {
munmap((buff_img)[i].start, (buff_img)[i].length);
} //关闭设备文件
::close(cameraHwnd);
qDebug() << TIMEMS << "close camera ok";
} //释放资源
::free(buff_img);
buff_img = NULL;
::free(buff_yuv422);
buff_yuv422 = NULL;
::free(buff_yuv420);
buff_yuv420 = NULL;
::free(buff_rgb24);
buff_rgb24 = NULL; cameraOk = false;
cameraHwnd = -1;
#endif
} int CameraLinux::readFrame()
{
int index = -1;
#ifdef Q_OS_LINUX
//等待摄像头采集到一桢数据
for (;;) {
fd_set fds;
struct timeval tv;
FD_ZERO(&fds);
FD_SET(cameraHwnd, &fds);
tv.tv_sec = 2;
tv.tv_usec = 0; int r = ::select(cameraHwnd + 1, &fds, NULL, NULL, &tv);
if (-1 == r) {
if (EINTR == errno) {
continue;
}
return -1;
} else if (0 == r) {
return -1;
} else {
//采集到一张图片 跳出循环
break;
}
} //从缓冲区取出一个缓冲帧
struct v4l2_buffer buffer;
buffer.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buffer.memory = V4L2_MEMORY_MMAP;
if (::ioctl(cameraHwnd, VIDIOC_DQBUF, &buffer) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_DQBUF";
return -1;
} memcpy(buff_yuv422, (uchar *)buff_img[buffer.index].start, buff_img[buffer.index].length); //将取出的缓冲帧放回缓冲区
if (::ioctl(cameraHwnd, VIDIOC_QBUF, &buffer) < 0) {
qDebug() << TIMEMS << "error in VIDIOC_QBUF";
return -1;
} index = buffer.index;
#endif
return index;
}

Qt音视频开发38-USB摄像头解码linux方案的更多相关文章

  1. Android IOS WebRTC 音视频开发总结(八十五)-- 使用WebRTC广播网络摄像头视频(下)

    本文主要介绍WebRTC (我们翻译和整理的,译者:weizhenwei,校验:blacker),最早发表在[编风网] 支持原创,转载必须注明出处,欢迎关注我的微信公众号blacker(微信ID:bl ...

  2. Android IOS WebRTC 音视频开发总结(八十三)-- 使用WebRTC广播网络摄像头视频(上)

    本文主要介绍WebRTC (我们翻译和整理的,译者:weizhenwei,校验:blacker),最早发表在[编风网] 支持原创,转载必须注明出处,欢迎关注我的微信公众号blacker(微信ID:bl ...

  3. Android开发 音视频开发需要了解的专业术语知识

    前言 在摸索一段时间的音视频开发后,越来越发现这个坑的深度真是特别的深. 除了了解Android自带的音视频处理API以外,还得了解一些视频与音频方面的知识.这篇博客就是主要讲解这方面的专业术语.内容 ...

  4. Android音视频开发(1):H264 基本原理

    前言 H264 视频压缩算法现在无疑是所有视频压缩技术中使用最广泛,最流行的.随着 x264/openh264 以及 ffmpeg 等开源库的推出,大多数使用者无需再对H264的细节做过多的研究,这大 ...

  5. Android IOS WebRTC 音视频开发总结(六)-- iOS开发之含泪经验

    前段时间在搞webrtc iOS开发,所以将标题改为了Android IOS WebRTC 音视频开发总结, 下面都是开发过程中的经验总结,转载请说明出处(博客园RTC.Blacker): 1. IO ...

  6. Android WebRTC 音视频开发总结(四)-- webrtc传输模块

    在介绍WebRTC通讯之前我们先来看一个P2P视频聊天包括的主要过程,转载请说明出处(博客园RTC.Blacker): 音视频数据采集->编码->发送->接收->解码-> ...

  7. WebRTC 音视频开发

    WebRTC 音视频开发 webrtc   Android IOS WebRTC 音视频开发总结(七八)-- 为什么WebRTC端到端监控很关键? 摘要: 本文主要介绍WebRTC端到端监控(我们翻译 ...

  8. Android 音视频开发学习思路

    Android 音视频开发这块目前的确没有比较系统的教程或者书籍,网上的博客文章也都是比较零散的.只能通过一点点的学习和积累把这块的知识串联积累起来. 初级入门篇: Android 音视频开发(一) ...

  9. 转:Android IOS WebRTC 音视频开发总结 (系列文章集合)

    随笔分类 - webrtc   Android IOS WebRTC 音视频开发总结(七八)-- 为什么WebRTC端到端监控很关键? 摘要: 本文主要介绍WebRTC端到端监控(我们翻译和整理的,译 ...

  10. 音视频开发-FFmpeg

    音视频开发是个非常复杂的,庞大的开发话题,初涉其中,先看一下结合 OEIP(开源项目) 新增例子. 可以打开flv,mp4类型文件,以及rtmp协议音视频数据,声音的播放使用SDL. 把采集的麦/声卡 ...

随机推荐

  1. .NET云原生应用实践(二):Sticker微服务RESTful API的实现

    本章目标 完成数据访问层的基本设计 实现Sticker微服务的RESTful API 引言:应该使用ORM框架吗? 毋庸置疑,Sticker微服务需要访问数据库来管理"贴纸"(也就 ...

  2. sqlplus登录脚本glogin.sql的配置

    DEFINE sqlprompt=SQL COLUMN sqlprompt NEW_VALUE sqlprompt SET TERMOUT OFF SELECT USER || '@' || NVL( ...

  3. 推荐一款专为Nginx设计的图形化管理工具: Nginx UI!

    Nginx UI是一款专为Nginx设计的图形化管理工具,旨在简化Nginx的配置与管理过程,提高开发者和系统管理员的工作效率. 项目地址:https://github.com/0xJacky/ngi ...

  4. Linux_进程理解、状态与优先级(详细版)

    1.进程的概念 课本概念:程序的一个执行实例,正在执行的程序等. 内核观点:担当分配系统资源(CPU时间,内存)的实体. 其实:进程=内核的相关管理数据结构(task_struct.页表等)+程序的代 ...

  5. vue关于图片参数赋值

    解决方法: 加个require()就可以了 <img :src="require('../xxx/images/'+imgsrc+'.png')"/> export d ...

  6. .NET 开源扁平化、美观的 C/S 控件库

    前言 给大家推荐一个优秀的控件集,它基于 .NET Framework 4.0,采用纯原生开发,不包含任何第三方插件或类库. 该控件集涵盖了常用的窗体和控件,同时还包括工业工具和类 Web 控件.使用 ...

  7. 洛谷 P1328 [NOIP2014 提高组] 生活大爆炸版石头剪刀布

    题目大意 小A和小B,要进行 \(N\) 次猜拳,每次按照一定周期出拳,胜负情况如下: 求出小A和小B分别赢了几次. 思路 枚举 \(N\) 次猜拳,每次比较 \(a[powera]\) 与 \(b[ ...

  8. ESP8266 + MQTT (platformio 开发环境)加用户名和密码

    ESP8266 + MQTT git 地址: https://gitee.com/zhudachangs/esp8266-mqtt.git (如果无法打开说明在审核) 引用库 include < ...

  9. 企业网站应配置怎样的SSL证书

    企业网站在选择和配置SSL证书时,需要考虑多个因素以确保网站的数据传输安全.身份验证和用户信任度.以下是对企业网站应配置怎样的SSL证书的详细分析: 一.SSL证书的基本概念 SSL证书是一种数字证书 ...

  10. 货店管理(delphi+sqlserver)

    之前给朋友做的货店管理程序,个人使用,数据量小,delphi开发的,sqlserver express版,fastReport做的报表(报表可以修改). 源代码全给他的,呵呵,他也可以简单修改了.   ...