用WaveX实现音频文件的录音
原文地址:https://blog.csdn.net/gongluck93/article/details/53096013
1、WaveInOpen
- waveInOpen
- MMRESULT waveInOpen(
- LPHWAVEIN phwi, // phwi是返回的句柄存放地址
- UINT uDeviceID, // uDeviceID是要打开的音频设备ID号,一般都指定为WAVE_MAPPER
- LPWAVEFORMATEX pwfx,
- DWORD dwCallback, // dwCallback则为指定的回调函数或线程,窗口等的地址
- DWORD dwCallbackInstance, // dwCallbackInstance为需要向回调函数或线程送入的用户参数
- DWORD fdwOpen // fdwOpen指定回调方式:CALLBACK_FUNCTION, CALLBACK_THREAD和CALLBACK_WINDOW
- );
2、至于pwfx,则比较关键,它指定了要以什么音频格式打开音频输入设备,它是一个结构WAVEFORMATEX:
- typedef struct {
- WORD wFormatTag; //可以在wFormatTag中指定一些压缩的音频格式,如G723.1,TURE DSP,等之类。不过一般都是选用WAVEFORMAT_PCM格式,
- //即未压缩的音频格式,至于压缩,可以在录完后调用下面将要谈到的ACM单独进行。
- WORD nChannels; //nChannels为声道数,1或者2。
- DWORD nSamplesPerSec; //nSamplesPerSec为每秒采样数,8000、11025、22050、44100为几个标准值。
- DWORD nAvgBytesPerSec; //每秒平均的字节数,在PCM方式中就等于nChannels*nSamplesPerSec*wBitsPerSample/8,
- //但对于其它的压缩的音频格式,由于很多压缩方式是按时间片进行的,如G723.1,就是以30ms为一个压缩单位,
- //这样,nAvgBytesPerSec只是一个大概的数字,并不准确,程序中的计算是不应该以这个量为准的。
- //这一点在下面的压缩音频输出和ACM音频压缩中非常重要。
- WORD nBlockAlign; //nBlockAlign是一个比较特殊的值,表示对音频处理时的最小处理单位,对于PCM非压缩,它就是wBitsPerSample*nChannels/8,
- //而对于非压缩格式,则表示压缩/解压处理的最小单位了,如G723.1,就是30ms的数据大小(20bytes或者24bytes)。
- WORD wBitsPerSample; //wBitsPerSample就是每采样值的位数,8或者16。
- WORD cbSize; //cbSize则是表示该WAVEFORMATEX的结构在标准的头部之后还有多少字节数,对于很多非PCM的音频格式,
- //有一些自己的定义格式参数,这些就紧跟在标准的WAVEFORMATEX后面,其大小就由cbSize指定。对于PCM格式而言,为0,或者忽略不检查。
- } WAVEFORMATEX;
1)从声卡获取的数据格式一般设置为WAVE_FORMAT_PCM,得到的是一种最原始的音频数值。采样率,采样位宽和采样通道数比较重要,尤其采样位宽--1此采样数据量的大小,这里采用16bits。
2)录音得到的数据是存放在自己设定的内存块处的,为了录音的连续,通常是用多个内存数据块。当一块数据内存满了之后,是通过消息响应的方式给指定的窗口或者回调函数。在回调函数中处理这些数据。
开启录音的代码段如下:
//启动录音
BOOL CAudioRec::StartRec()
{
BOOL bRet = FALSE; //启动线程
if(!StartThread())
{
goto Exit;
} //打开音频设备
if(!OpenDev())
{
goto Exit1;
} //准备缓存
if(!PrepareBuffer())
{
goto Exit2;
} //开始录音
if(!OpenRecord())
{
goto Exit3;
} bRet = TRUE;
goto Exit; Exit3:
//释放缓存
FreeBuffer(); Exit2:
//关闭录音设备
CloseDev(); Exit1:
//停止线程
StopThread(); Exit:
return bRet;
}
停止录音的代码段如下:
//终止录音
BOOL CAudioRec::StopRec()
{
//停止录音
if(!CloseRecord())
{
return FALSE;
} //暂停一会
Sleep(); //停止线程
if(!StopThread())
{
return FALSE;
} //释放录音分配内存
if(!FreeBuffer())
{
return FALSE;
} //关闭设备
if(!CloseDev())
{
return FALSE;
} return TRUE;
}
线程内数据处理的代码如下:
//线程回调函数
DWORD WINAPI CAudioRec::AudioInThreadProc(LPVOID lpParameter)
{
CAudioRec *pAudioRec = (CAudioRec *)lpParameter; // char buffer[1024]; MSG msg;
while(GetMessage(&msg,,,))
{
switch(msg.message)
{
//打开音频设备
case MM_WIM_OPEN:
break; //关闭录音设备
case MM_WIM_CLOSE:
break; //录音设备返回数据
case MM_WIM_DATA:
WAVEHDR *pWH = (WAVEHDR *)msg.lParam; waveInUnprepareHeader((HWAVEIN)msg.wParam,pWH,sizeof(WAVEHDR)); //dwBytesRecord表示此缓存中已有的数据大小
if(pWH->dwBytesRecorded != AUDIO_BUF_SIZE)
break; if(pAudioRec->m_pCallBackProc != NULL)
pAudioRec->m_pCallBackProc((BYTE *)pWH->lpData,AUDIO_BUF_SIZE,pAudioRec->m_dwUser); //获得的数据就在pWH->lpData,长度为pWH->dwBytesRecord
waveInPrepareHeader((HWAVEIN)msg.wParam,pWH,sizeof(WAVEHDR));
waveInAddBuffer((HWAVEIN)msg.wParam,pWH,sizeof(WAVEHDR));
}
} return msg.wParam;
}
其实数据处理的关键语句只有下面这一条:pAudioRec->m_pCallBackProc((BYTE *)pWH->lpData,AUDIO_BUF_SIZE,pAudioRec->m_dwUser);
它利用了一个函数指针,由调用者指定相应的处理函数。
今天下午调试了半天,卡在结束录音这个地方。其中语句的执行顺序很重要。
1)先停止录音即调用waveInStop()函数 2)停止线程StopThread() 3)释放为录音准备的缓存 4)关闭录音设备
我自己写的时候将关闭录音设备放在了停止线程的前面,在这里结束录音总是出错。
2018/4/28日增加以下内容:
封装更好的示例参见github项目,nadernt/whistle-recognizer,github地址:https://github.com/nadernt/whistle-recognizer/tree/7bfab2839150b0df7404886a4cf60db1b7be866b
参见此项目中WaveIOLib文件夹内容。
用WaveX实现音频文件的录音的更多相关文章
- C# NAudio录音和播放音频文件及实时绘制音频波形图(从音频流数据获取,而非设备获取)
下午写了一篇关于NAudio的录音.播放和波形图的博客,不太满意,感觉写的太乱,又总结了下 NAudio是个相对成熟.开源的C#音频开发工具,它包含录音.播放录音.格式转换.混音调整等功能.本次介绍主 ...
- iOS开发系列--音频播放、录音、视频播放、拍照、视频录制
--iOS多媒体 概览 随着移动互联网的发展,如今的手机早已不是打电话.发短信那么简单了,播放音乐.视频.录音.拍照等都是很常用的功能.在iOS中对于多媒体的支持是非常强大的,无论是音视频播放.录制, ...
- iOS开发----音频播放、录音、视频播放、拍照、视频录制
随着移动互联网的发展,如今的手机早已不是打电话.发短信那么简单了,播放音乐.视频.录音.拍照等都是很常用的功能.在iOS中对于多媒体的支持是非常强大的,无论是音视频播放.录制,还是对麦克风.摄像头的操 ...
- 音频播放、录音、视频播放、拍照、视频录制-b
随着移动互联网的发展,如今的手机早已不是打电话.发短信那么简单了,播放音乐.视频.录音.拍照等都是很常用的功能.在iOS中对于多媒体的支持是非常强大的,无论是音视频播放.录制,还是对麦克风.摄像头的操 ...
- (原创)speex与wav格式音频文件的互相转换
我们的司信项目又有了新的需求,就是要做会议室.然而需求却很纠结,要继续按照原来发语音消息那样的形式来实现这个会议的功能,还要实现语音播放的计时,暂停,语音的拼接,还要绘制频谱图等等. 如果是wav,m ...
- S3C2416裸机开发系列19_Fatfs播放录像wav音频文件
S3C2416裸机开发系列19 Fatfs播放录像wav音频文件 国际象棋男孩 1048272975 多媒体资源,一般都是以文件的形式存储在固化存储器中.Fatfs所支持的fat32为windo ...
- iOS音频播放、录音、视频播放、拍照、视频录制
随着移动互联网的发展,如今的手机早已不是打电话.发短信那么简单了,播放音乐.视频.录音.拍照等都是很常用的功能.在iOS中对于多媒体的支持是非常强大的,无论是音视频播放.录制,还是对麦克风.摄像头的操 ...
- DxPackNet 3.音频捕捉(录音)
用DxpackNet捕捉音频其实很简单 1.初始化控件 IDxMicrophCapture microphone; private void Form1_Load(object sender, Eve ...
- IOS音频1:之采用四种方式播放音频文件(一)AudioToolbox AVFoundation OpenAL AUDIO QUEUE
本文转载至 http://blog.csdn.net/u014011807/article/details/40187737 在本卷你可以学到什么? 采用四种方法设计应用于各种场合的音频播放器: 基于 ...
随机推荐
- 浅谈java内存泄漏
最近有朋友遇到个问题,tomcat在运行几天后就会报outofmemory,然后就死了,我就稍微总结了下内存泄漏的一些原因,纯属个人理解,欢迎大侠们劈砖: 一.字符串问题 这个也是一个常见的问题,我们 ...
- tyvj 1061 Mobile Service
线性DP 本题的阶段很明显,就是完成了几个请求,但是信息不足以转移,我们还需要存储三个服务员的位置,但是三个人都存的话会T,我们发现在阶段 i 处,一定有一个服务员在 p[i] 处,所以我们可以只存另 ...
- net3:Button的CommandName使用,AdRotator,BulletedList的使用
原文发布时间为:2008-07-29 -- 来源于本人的百度文章 [由搬家工具导入] using System;using System.Data;using System.Configuration ...
- [MFC] TabControl选项卡的使用
MFC中,因项目需要使用TabControl ,使用过程中发现,MFC中的TabControl与C#的TabControl不同,不能通过属性来创建选项页,只能代码生成绑定. 以下为具体的实现方法步骤: ...
- Mac 10.9 安装及使用 phoneGap
公司网速是个坑啊 绝对掉进去就起不来的那种..... 按官网的说法: 1. 下载并安装Node.js 2. sudo npm install -g phonegap 官网的安装步骤到此为止....坑 ...
- Spring Batch 文档(中文)
http://blog.csdn.net/shorn/article/category/1186181
- 【westorm系列之二】配置格式化
1.执行格式化后,给句尾加分号
- codevs——1065 01字符串
1065 01字符串 时间限制: 1 s 空间限制: 128000 KB 题目等级 : 黄金 Gold 题解 题目描述 Description 输出仅有0和1组成的长度为n的字符串, ...
- 《Java虚拟机原理图解》1.4 class文件中的字段表集合--field字段在class文件中是怎样组织的
0.前言 了解JVM虚拟机原理是每一个Java程序员修炼的必经之路.但是由于JVM虚拟机中有很多的东西讲述的比较宽泛,在当前接触到的关于JVM虚拟机原理的教程或者博客中,绝大部分都是充斥的文字性的描述 ...
- Java修饰符关键字的顺序
Java语言规范建议按以下顺序列出修饰符: 1. Annotations 2. public 3. protected 4. private 5. abstract 6. static 7. fina ...