环境准备

请按照我之前的文章-Android下基于SDL的位图渲染,安装必要的开发环境。

实践篇

这里主要参考Beginning SDL 2.0(6) 音频渲染及wav播放,只不过将源从WAV文件改成PCM文件。

准备你要播放的PCM文件

如故你不想使用我提供的PCM,可以自己用ffmpeg转一个PCM文件,具体命令如下:

$ ffmpeg -i src.wav -f s16le -acodec pcm_s16le out.pcm

注意你需要知道这个PCM的采样率、量化位数、声道数。后续播放的时候会用到。

生成之后,将pcm文件放到手机的目录下,我使用的是/sdcard/congtou_8k_mono_16bit.pcm

SDL音频播放流程

SDL中音频播放相对简单,只要通过SDL_OpenAudio打开设备,调用SDL_PauseAudio开始播放,播放结束调用SDL_CloseAudio。

这里说明一点,SDL2支持多音频同时播放,不过在打开音频设备的时候需要调用SDL_OpenAudioDevice。

下面是实现的代码:

struct AudioPlayContext
{
bool is_exit; // is audio play buffer empty?
FILE * fpcm;
}; void MyAudioCallback(void* userdata, Uint8* stream, int need_size)
{
AudioPlayContext * context = reinterpret_cast<AudioPlayContext *>(userdata);
size_t actual_read = fread(stream, 1, need_size, context->fpcm);
if (0 == actual_read || feof(context->fpcm))
{
LOGD("we meet stream end %u", actual_read);
context->is_exit = true;
}
} extern "C" int pcm_main(int argc, char *argv[])
{
// init sdl
if (0 != SDL_Init(SDL_INIT_AUDIO))
{
LOGE("%s %d SDL init audio failed", __FUNCTION__, __LINE__);
return -1;
} AudioPlayContext ctx;
ctx.is_exit = false;
ctx.fpcm = NULL; // load yuv
const char *pcm_path = "/sdcard/congtou_8k_mono_16bit.pcm";
LOGI("natvie_SDL load pcm %s", pcm_path);
ctx.fpcm = fopen(pcm_path, "rb");
if (NULL == ctx.fpcm)
{
LOGE("%s %d load pcm failed path %s", __FUNCTION__, __LINE__, pcm_path);
SDL_Quit();
return -2;
} // open audio device
SDL_AudioSpec want, have;
SDL_memset(&want, 0, sizeof(want)); /* or SDL_zero(want) */
SDL_memset(&want, 0, sizeof(have)); /* or SDL_zero(want) */
want.freq = 8000;
want.format = AUDIO_S16LSB;
want.channels = 1;
want.samples = 1024;
want.callback = MyAudioCallback; // you wrote this function elsewhere.
want.userdata = &ctx; if (SDL_OpenAudio(&want, &have) < 0)
{
LOGE("Failed to open audio: %s", SDL_GetError());
SDL_Quit();
return -3;
} if (have.format != want.format)
{
LOGD("We didn't get AUDIO_S16LSB audio format want %d have %d", want.format, have.format);
} // start audio playing.
SDL_PauseAudio(0); // wait for the end
while (!ctx.is_exit)
{
SDL_Delay(1000);
} SDL_CloseAudio();
fclose(ctx.fpcm); // Quit SDL
SDL_Quit(); return 0;
}

音频播放的处理主要是按照音频设备回调函数填充需要播放的PCM的数据,只要数据填充正确基本就没有什么问题。

理论篇

如果你之前看过SDLActivity.java的实现代码,会发现其中有四个函数:

public static int audioInit(int sampleRate, boolean is16Bit, boolean isStereo, int desiredFrames)
public static void audioWriteShortBuffer(short[] buffer)
public static void audioWriteByteBuffer(byte[] buffer)
public static void audioQuit()

还有一个变量,protected static AudioTrack mAudioTrack

很明显的,SDL2通过JNI调用,将C层的PCM数据通过audioWriteShortBuffer/audioWriteByteBuffer调用到java层,并将PCM数据交给AudioTrack播放(至于AudioTrack怎么用,建议参考Android开发文档)。

那么看一下SDL内部是怎么实现的?

SDL_OpenAudioDevice --> open_audio_device --> AndroidAUD_CloseDevice --> Android_JNI_OpenAudioDevice

最核心的函数是open_audio_device,在这个函数里会检查输入输出的音频参数(采样率、采样位数、声道数等),打开音频输出设备,同时启动音频输出线程,定期回调用户注册的回调函数,并将数据写入到音频设备中。有兴趣的建议看看SDL2的源码,关于音频的处理集中在SDL2-src/src/audio目录下。

附加说明

源码下载

本文中涉及所有源码可以从我的git@OSC,下载之后需要切换到pcm_render的tag即可。

其他

本部分主要介绍如何在Android下使用SDL播放PCM数据,最终音频播放是通过AudioTrack实现的。

Android下基于PCM的音频渲染的更多相关文章

  1. Android下基于SDL的YUV渲染

    实战篇 本文主要参考我之前整理的文章windows下使用SDL进行YUV渲染. 相对于之前写的位图渲染部分(http://www.cnblogs.com/tocy/p/android-sdl-bitm ...

  2. Android下基于SDL的位图渲染(二)理论篇

    理论篇 上一篇中介绍了如何将SDL2源码应用到Android渲染中,实际上SDL本身提供的android-project实现了基于android的c运行时环境,通过上面实践篇的介绍,就是完成这个环境搭 ...

  3. Android下基于SDL的位图渲染(一)

    环境准备 安装Android开发环境(java.android-sdk.android ndk.gcc). 我使用的ndk版本是r10b/r10d,在win10/ubutu 15.04编译 下载sdl ...

  4. Android下基于线程池的网络访问基础框架

    引言 现在的Android开发很多都使用Volley.OkHttp.Retrofit等框架,这些框架固然有优秀的地方(以后会写代码学习分享),但是我们今天介绍一种基于Java线程池的网络访问框架. 实 ...

  5. 基于FFmpeg的音频编码(PCM数据编码成AAC android)

    概述 在Android上实现录音,并利用 FFmpeg将PCM数据编码成AAC. 详细 代码下载:http://www.demodashi.com/demo/10512.html 之前做的一个demo ...

  6. Android 音视频开发(一):PCM 格式音频的播放与采集

    什么是 PCM 格式 声音从模拟信号转化为数字信号的技术,经过采样.量化.编码三个过程将模拟信号数字化. 采样 顾名思义,对模拟信号采集样本,该过程是从时间上对信号进行数字化,例如每秒采集 44100 ...

  7. 最简单的基于FFMPEG的音频编码器(PCM编码为AAC)

    http://blog.csdn.net/leixiaohua1020/article/details/25430449 本文介绍一个最简单的基于FFMPEG的音频编码器.该编码器实现了PCM音频采样 ...

  8. 音频处理之去噪算法---基于pcm和g711的音频16000hz、8bit去噪声算法

    (1)应用背景 (2)主要降噪算法原理 (3)算法流程 (4)算法实现 (5) ------------author:pkf -------------------time:2-6 --------- ...

  9. Dalvik模式下基于Android运行时类加载的函数dexFindClass脱壳

    本文博客地址:http://blog.csdn.net/qq1084283172/article/details/78003184 前段时间在看雪论坛发现了<发现一个安卓万能脱壳方法>这篇 ...

随机推荐

  1. 【Redis】解析Redis和Java传递数据

    在Java中使用Redis之前需要导入 jedis.jar 包,由于Redis是基于key-value进行数据存储,java中的数据存储到Redis中有许多方式,这里笔者介绍采用JSON字符串和对象序 ...

  2. hibernate的findByExample 外键参数查询解决方案

    用了这么长时间的hibernate/spring,如果不是今天用的findByExample方法到现在还不知道findByExample的机制.惭愧 Class User{String usernam ...

  3. Xcode 各版本简介

    1.Xcode 验证 在终端输入 spctl 命令,并带上安装的 Xcode 的路径 $ spctl --assess --verbose /Applications/Xcode.app 之后会看到类 ...

  4. SQL2000的系统表sysproperties在SQL2005中 无效的 问题

    有两种解决办法 方法一.是我在网上找的:将原来的sysproperties改成sys.extended_properties并且对应关系如下 sys.extended_properties left ...

  5. 真正理解 git fetch, git pull 以及 FETCH_HEAD

    真正理解 git fetch, git pull 要讲清楚git fetch,git pull,必须要附加讲清楚git remote,git merge .远程repo, branch . commi ...

  6. JAVA中使用HTTP 1.1提高基于AXIS 1.4的web service的性能

    HTTP 1.1会在第一次连接的时候进行认证, 而在一定时间内保持连接而不用重新验证. 一般情形下,每个web service请求都会在web service服务端验证, 而验证会消耗很多时间, 因此 ...

  7. Linux下Socket网络编程

    什么是Socket Socket接口是TCP/IP网络的API,Socket接口定义了许多函数或例程,程序员可以用它们来开发TCP/IP网络上的应用程序.要学Internet上的TCP/IP网络编程, ...

  8. ThinkPHP32 MODULE_ALLOW_LIST 存在的bug 不生效

    1)BUG: 假设存在Api Home Admin Member 模块.仅仅想让用户訪问 Api Home,不同意訪问Admin Member. 必须将Admin Member 写在 MODULE_D ...

  9. hdoj 1874 畅通project续【SPFA】

    畅通project续 Time Limit : 3000/1000ms (Java/Other)   Memory Limit : 32768/32768K (Java/Other) Total Su ...

  10. 关于的 recorder robotium 的Eclipse插件(URL:http://recorder.robotium.com/updates/或者说不可用)

    最近在学robotium.看到别人说robotium的Eclipse的插件非常好用. 打算安装时.发现死活都无法连接http://recorder.robotium.com/updates/ 过程是  ...