TextureView+SurfaceTexture+OpenGL ES来播放视频(三)
引自:http://www.jianshu.com/p/291ff6ddc164
做好的Demo截图
前言
讲了这么多,可能有人要问了,播放视频用个android封装的VideoView或者用MediaPlayer+SurfaceView来进行播放视频不就得了吗,干嘛还要整这么麻烦。OK,为了回答这个问题,我们先看看OpenGL ES干什么的,它是OpenGL三维图形API的子集,图形硬件的一种软件接口,针对手机、PDA和游戏主机等嵌入式设备而设计。我想如果是做游戏类开发的肯定对一些图形库不会陌生,其实很多游戏引擎内部都是封装的像OpenGL,DirectX 3D之类的图形库,然后开发者就可以通过这些图形库,来开发很多好玩的东西,如游戏,动画等等,那么我现在用Opengl es来绘制视频是不是也可以定制很多有意思的东西,比如开发一个左右分屏视频播放器,然后在虚拟现实(VR)头盔上来观看2d的视频,如果用opengl去绘制,那简直分分中搞定,因为这里,每一帧的视频在opengl 看来只是一张纹理贴图而已,那么我想把这个贴图贴在哪里就贴在哪里。总之,用opengl可以开发出很多有意思的二维,三维的图形应用出来。
正文
说了这么多,咱们开始吧,
/***
* 在这个类里面对视频纹理进行绘制工作,继承了 {@link TextureSurfaceRenderer},
* 并实现了{@link SurfaceTexture.OnFrameAvailableListener}
*/
public class VideoTextureSurfaceRenderer extends TextureSurfaceRenderer implements
SurfaceTexture.OnFrameAvailableListener
{ public static final String TAG = VideoTextureSurfaceRenderer.class.getSimpleName();
/**绘制的区域尺寸*/
private static float squareSize = 1.0f;
private static float squareCoords[] = {
-squareSize, squareSize, 0.0f, // top left
-squareSize, -squareSize, 0.0f, // bottom left
squareSize, -squareSize, 0.0f, // bottom right
squareSize, squareSize, 0.0f // top right
};
/**绘制次序*/
private static short drawOrder[] = {
0, 1, 2,
0, 2, 3
};
/**
* 用来缓存纹理坐标,因为纹理都是要在后台被绘制好,然
* 后不断的替换最前面显示的纹理图像
*/
private FloatBuffer textureBuffer;
/**纹理坐标*/
private float textureCoords[] = {
0.0f, 1.0f, 0.0f, 1.0f,
0.0f, 0.0f, 0.0f, 1.0f,
1.0f, 0.0f, 0.0f, 1.0f,
1.0f, 1.0f, 0.0f, 1.0f
};
/**生成的真实纹理数组*/
private int[] textures = new int[1];
/**着色器脚本程序的handle(句柄)*/
private int shaderProgram;
/**squareCoords的的顶点缓存*/
private FloatBuffer vertexBuffer;
/**绘制次序的缓存*/
private ShortBuffer drawOrderBuffer; /**矩阵来变换纹理坐标,(具体含义下面再解释)*/
private float[] videoTextureTransform;
/**当前的视频帧是否可以得到*/
private boolean frameAvailable = false;
private Context context; public VideoTextureSurfaceRenderer(Context context, SurfaceTexture texture, int width, int height)
{
super(texture, width, height); //先调用父类去做EGL初始化工作
this.context = context;
videoTextureTransform = new float[16];
surfaceTexture = new SurfaceTexture(textures[0]);
surfaceTexture.setOnFrameAvailableListener(this); //注册视频帧是否可得到的监听器
} // 代码略
}
对上面的代码再稍稍解释一下吧,在绘制之前,我们首先选定一块区域来让图像就在这块区域来绘制,则有如下定义:
private static float squareSize = 1.0f;
private static float squareCoords[] = {
-squareSize, squareSize, 0.0f, // top left
-squareSize, -squareSize, 0.0f, // bottom left
squareSize, -squareSize, 0.0f, // bottom right
squareSize, squareSize, 0.0f // top right
};
上幅图来解释解释:
当squareSize=1.0时,square的面积就是整个手机屏幕,若squareSize=0.5f则每个边长都为屏幕的一半。数组的坐标顺序为:左上->左下->右下->右上。
然后接着定义一个纹理坐标数组:
private float textureCoords[] = {
0.0f, 1.0f, 0.0f, 1.0f, //左上
0.0f, 0.0f, 0.0f, 1.0f, //左下
1.0f, 0.0f, 0.0f, 1.0f, //右下
1.0f, 1.0f, 0.0f, 1.0f //右上
};
接着上图:
如上图,这就是2D OpenGL ES纹理坐标,它由四个列向量(s, t, 0, 1)组成,其中s, t ∈[0, 1]。
不知道大家有没有发现,绘制区域(quareCoords[])的顶点数组坐标顺序跟纹理数组坐标的顺序都是从 左上方开始->到右上方结束,为什么要这样做呢? 其实目的就是为了统一方向,因为我们知道手机屏幕的坐标是左上角为原点(0.0, 0.0),所以为了以后不必要的转换工作,最好将绘制的顺序的都统一起来。
然后则看看纹理的绘制次序drawOrder[] = {0,1,2, 0, 2, 3} ; 这又是个什么次序呢? 好,再来个图看看
其实,opengl es 在绘制一个多边形时,都是用一个基本的图元即三角形拼凑出来的,比如一个矩形它可以用(0->1->2)和(0->2->3)的次序,通过两个三角形给拼凑出来的,当然也可是其它的组合比如(1,3,2)(1,3,0)等等,总之得用两个三角形拼凑成一个矩形,不过建议还是都按找同一钟次序,比如都是按照顺时针或都按照逆时针来拼凑。
OK,接下来再贴出省略的代码:
/**
* 重写父类方法,初始化组件
*/
@Override
protected void initGLComponents()
{
setupVertexBuffer();
setupTexture();
loadShaders();
}
/***
* 设置顶点缓存
*/
private void setupVertexBuffer()
{
/** Draw Order buffer*/
ByteBuffer orderByteBuffer = ByteBuffer.allocateDirect(drawOrder. length * 2);
orderByteBuffer.order(ByteOrder.nativeOrder()); //Modifies this buffer's byte order
drawOrderBuffer = orderByteBuffer.asShortBuffer(); //创建此缓冲区的视图,作为一个short缓冲区.
drawOrderBuffer.put(drawOrder);
drawOrderBuffer.position(0); //下一个要被读或写的元素的索引,从0 开始 // Initialize the texture holder
ByteBuffer bb = ByteBuffer.allocateDirect(squareCoords.length * 4);
bb.order(ByteOrder.nativeOrder());
vertexBuffer = bb.asFloatBuffer();
vertexBuffer.put(squareCoords);
vertexBuffer.position(0);
}
ByteBuffer.allocateDirect(drawOrder. length * 2)表示的是直接从系统中分配大小为 (drawOrder. length * 2)的内存,2 代表一个short型占两个字节,(int占4个字节)。 /**接着初始化纹理*/
private void setupTexture()
{
ByteBuffer texturebb = ByteBuffer.allocateDirect(textureCoords.length * 4);
texturebb.order(ByteOrder.nativeOrder()); textureBuffer = texturebb.asFloatBuffer();
textureBuffer.put(textureCoords);
textureBuffer.position(0); // 启用纹理
GLES20.glActiveTexture(GLES20.GL_TEXTURE0);
//生成纹理对象textures(用于存储纹理数据)
GLES20.glGenTextures(1, textures, 0);
// 将绑定纹理(texuture[0]表示指针指向纹理数据的初始位置)
GLES20.glBindTexture(GLES11Ext.GL_BLEND_EQUATION_RGB_OES, textures[0]); }
关于glBindTexure(int target, int texture) 中的参数target,表示指定这是一张什么类型的纹理,在此是GLES11Ext.GL_BLEND_EQUATION_RGB_OES,也可以是常用的2D纹理如GLES20.GL_TEXTURE_2D等;第二个参数texture,在程序第一次使用这个参数时,这个函数会创建一个新的对象,并把这个对象分配给它,之后这个texture就成了一个活动的纹理对象。如果texture=0 则OpenGL就停止使用纹理对象,并返回到初始的默认纹理。 /**加载顶点与片段着色器*/
private void loadShaders()
{
final String vertexShader = RawResourceReader.readTextFileFromRawResource(context, R.raw.vetext_sharder);
final String fragmentShader = RawResourceReader.readTextFileFromRawResource(context, R.raw.fragment_sharder); final int vertexShaderHandle = ShaderHelper.compileShader(GLES20.GL_VERTEX_SHADER, vertexShader);
final int fragmentShaderHandle = ShaderHelper.compileShader(GLES20.GL_FRAGMENT_SHADER, fragmentShader);
shaderProgram = ShaderHelper.createAndLinkProgram(vertexShaderHandle, fragmentShaderHandle,
new String[]{"texture","vPosition","vTexCoordinate","textureTransform"});
}
关于可编程着色器在计算机图形领域本身就是个很大的主题,已超出了本文的范围。那么就稍稍解释下,OpenGL着色语言(OpenGL shading Language),它是一种编程语言,用于创建可编程的着色器。在opengl es 2.0以前使用的是一种“固定功能管线“,而2.0以后就是使用的着这钟可“编程的管线“,这种管线又分为顶点处理管线与片段处理管线(涉及到OpenGL的渲染管线的一些机制,大家自行的查吧)。
我现在就说说这个GLSL着色器是怎么使用的吧:有关使用GLSL创建着色器流程如下图(参照OpenGL 编程指南):
大家可以参照这幅图来看看程序中shader的使用。
在本项目的res目录下新建一个raw文件夹,然后分别创建vertext_shader.glsl和fragment_sharder.glsl文件,代码如下:
vertext_sharder:
attribute vec4 vPosition; //顶点着色器输入变量由attribute来声明
attribute vec4 vTexCoordinate;
//uniform表示一个变量的值由应用程序在着色器执行之前指定,
//并且在图元处理过程中不会发生任何变化。mat4表示一个4x4矩阵
uniform mat4 textureTransform;
varying vec2 v_TexCoordinate; //片段着色器输入变量用arying来声明 void main () {
v_TexCoordinate = (textureTransform * vTexCoordinate).xy;
gl_Position = vPosition;
}
fragment_shader
/**使用GL_OES_EGL_image_external扩展处理,来增强GLSL*/
#extension GL_OES_EGL_image_external : require
precision mediump float;
uniform samplerExternalOES texture; //定义扩展的的纹理取样器amplerExternalOES
varying vec2 v_TexCoordinate; void main () {
vec4 color = texture2D(texture, v_TexCoordinate);
gl_FragColor = color;
}
着色器语言非常的类似C语言,也是从main函数开始执行的。其中的很多语法,变量等等,还是大家自行的查查,这不是几句能说明白的。着色器的创建及编译过程的代码都在项目里的一个util包下的三个工具类,RawRourceReader,ShaderHelper,TextureHelper类中,我就不再贴出来了,有兴趣大家可以fork或clone下来看看。
ok,终于初始化完了,太不容易了,冏。
好吧,绘制工作开始跑起来。
@Override
protected boolean draw()
{
synchronized (this)
{
if (frameAvailable)
{
surfaceTexture.updateTexImage();
surfaceTexture.getTransformMatrix(videoTextureTransform);
frameAvailable = false;
}
else
{
return false;
} }
GLES20.glClearColor(0.0f, 0.0f, 0.0f, 0.0f);
GLES20.glClear(GLES20.GL_COLOR_BUFFER_BIT);
GLES20.glViewport(0, 0, width, height);
this.drawTexture(); return true;
}
当视频的帧可得到时,调用surfaceTexture.updateTexImage()方法,这个方法的官网解释如下:
<font color=#008000 >Update the texture image to the most recent frame from the image stream. This may only be called while the OpenGL ES context that owns the texture is current on the calling thread. It will implicitly bind its texture to the GL_TEXTURE_EXTERNAL_OES texture target.</font>
大意是,从的图像流中更新纹理图像到最近的帧中。这个函数仅仅当拥有这个纹理的Opengl ES上下文当前正处在绘制线程时被调用。它将隐式的绑定到这个扩展的GL_TEXTURE_EXTERNAL_OES 目标纹理(为什么上面的片段着色代码中要扩展这个OES,可能就是应为这个吧)。
而surfaceTexture.getTransformMatrix(videoTextureTransform)这又是什么意思呢?当对纹理用amplerExternalOES采样器采样时,应该首先使用getTransformMatrix(float[])查询得到的矩阵来变换纹理坐标,每次调用updateTexImage()的时候,可能会导致变换矩阵发生变化,因此在纹理图像更新时需要重新查询,该矩阵将传统的2D OpenGL ES纹理坐标列向量(s,t,0,1),其中s,t∈[0,1],变换为纹理中对应的采样位置。该变换补偿了图像流中任何可能导致与传统OpenGL ES纹理有差异的属性。例如,从图像的左下角开始采样,可以通过使用查询得到的矩阵来变换列向量(0,0,0,1),而从右上角采样可以通过变换(1,1,0,1)来得到。
关于 GLES20.glViewport(int x, int y, int width, int height) ,在默认情况下,视口被设置为占据打开窗口的整个像素矩形,窗口大小和设置视口大小相同,所以为了选择一个更小的绘图区域,就可以用glViewport函数来实现这一变换,在窗口中定义一个像素矩形,
ok,接下来到了真正的绘制纹理的时候了。代码如下:
private void drawTexture() {
// Draw texture
GLES20.glUseProgram(shaderProgram); //绘制时使用着色程序
int textureParamHandle = GLES20.glGetUniformLocation(shaderProgram, "texture"); //返回一个于着色器程序中变量名为"texture"相关联的索引
int textureCoordinateHandle = GLES20.glGetAttribLocation(shaderProgram, "vTexCoordinate");
int positionHandle = GLES20.glGetAttribLocation(shaderProgram, "vPosition");
int textureTransformHandle = GLES20.glGetUniformLocation(shaderProgram, "textureTransform");
//在用VertexAttribArray前必须先激活它
GLES20.glEnableVertexAttribArray(positionHandle);
//指定positionHandle的数据值可以在什么地方访问。 vertexBuffer在内部(NDK)是个指针,指向数组的第一组值的内存
GLES20.glVertexAttribPointer(positionHandle, 3, GLES20.GL_FLOAT, false, 0, vertexBuffer);
GLES20.glBindTexture(GLES20.GL_TEXTURE0, textures[0]);
GLES20.glActiveTexture(GLES20.GL_TEXTURE0);
//指定一个当前的textureParamHandle对象为一个全局的uniform 变量
GLES20.glUniform1i(textureParamHandle, 0);
GLES20.glEnableVertexAttribArray(textureCoordinateHandle);
GLES20.glVertexAttribPointer(textureCoordinateHandle, 4, GLES20.GL_FLOAT, false, 0, textureBuffer);
GLES20.glUniformMatrix4fv(textureTransformHandle, 1, false, videoTextureTransform, 0);
//GLES20.GL_TRIANGLES(以无数小三角行的模式)去绘制出这个纹理图像
GLES20.glDrawElements(GLES20.GL_TRIANGLES, drawOrder.length, GLES20.GL_UNSIGNED_SHORT, drawOrderBuffer);
GLES20.glDisableVertexAttribArray(positionHandle);
GLES20.glDisableVertexAttribArray(textureCoordinateHandle);
}
好了所有代码就分析到这里了,前两篇链接TextureView+SurfaceTexture+OpenGL ES来播放视频(一), TextureView+SurfaceTexture+OpenGL ES来播放视频(二), 项目地址在here
TextureView+SurfaceTexture+OpenGL ES来播放视频(三)的更多相关文章
- TextureView+SurfaceTexture+OpenGL ES来播放视频(一)
引自:http://www.ithao123.cn/content-8733143.html 最近发现视频直播类应用层出不穷,比如233手游直播,蓝鲸直播,微录客等等什么的,连android界大神老罗 ...
- TextureView+SurfaceTexture+OpenGL ES来播放视频(二)
引自:http://www.jianshu.com/p/b2d949ab1a1a 在使用OpenGL ES 绘制前,我先概括下接下来要做的工作:我先借用一个博主kiffa举的的一个栗子,我觉得说的恰到 ...
- OpenGL ES学习笔记(三)——纹理
首先申明下,本文为笔者学习<OpenGL ES应用开发实践指南(Android卷)>的笔记,涉及的代码均出自原书,如有需要,请到原书指定源码地址下载. <OpenGL ES学习笔记( ...
- 梳理 Opengl ES 3.0 (三)顶点坐标变换
先来个宏观上的理解: 其实这块逻辑是个标准流程,而且其他地方介绍的也很多了,这里简单提下. 坐标转换,其实是不同坐标系之间的变换,一个渲染顶点,要想让它呈现在屏幕上的某个位置,是需要让这个顶点经过一个 ...
- Android OpenGL 播放视频学习
1, 初步接触Open GL: http://www.cnblogs.com/TerryBlog/archive/2010/07/09/1774475.html 使用GLSurfaceView和Ren ...
- Android OpenGL ES 开发教程 从入门到精通
感谢,摘自:http://blog.csdn.net/mapdigit/article/details/7526556 Android OpenGL ES 简明开发教程 Android OpenGL ...
- Android OpenGL ES(七)基本几何图形定义 .
在前面Android OpenGL ES(六):创建实例应用OpenGLDemos程序框架 我们创建了示例程序的基本框架,并提供了一个“Hello World”示例,将屏幕显示为红色. 本例介绍Ope ...
- 3D OpenGL ES
什么是OpenGL ES? OpenGL ES (为OpenGL for Embedded System的缩写) 为适用于嵌入式系统的一个免费二维和三维图形库. 为桌面版本OpenGL 的一个子集. ...
- 短视频图像处理 OpenGL ES 实践
2017年,短视频正以其丰富的内容表现力和时间碎片化的特点,快速崛起,而短视频最具可玩性之处就在支持人脸识别的动态贴图和各种不同效果的美颜.滤镜等.那短视频动态贴纸.滤镜.美颜等功能究竟是如何实现的呢 ...
随机推荐
- linux 添加定时任务脚本
主要分2个步骤第一步 编写要定时执行的脚本touch mytask.shvi mytask.sh里面写入:#! /bin/bashecho `date` >> /tmp/mytask.l ...
- jquery makearray()使用
makearray(),转换一个类似数组的对象成为真正的JavaScript数组.首先看看jquery中array的定义 makeArray: function( arr, results ) { v ...
- 用VMware vSphere Client客户端登陆vsphere5提示错误
客户端无法向服务器发送完整请求(基础连接已关闭:发送时发生错误) 可能原因:5.1以上的vsphere client都不支持winxp
- Markdown - Github specific
这篇文章的内容,必须到github的页面才能全部生效. Github specific Github allows for mistakes There are also Tables in gith ...
- Rancher安装使用
官网 http://docs.rancher.com/rancher/latest/en/quick-start-guide/#add-hosts 安装步骤: 1 Start up a Linux m ...
- java增加时间
一个简单的东西. 示例如下: /** * 增加时间 * @param oldDate 老时间 * @param addtime 增加的时间 * @return */ public Date addDa ...
- 用CMD开启、关闭软件
关闭 (正常) taskkill /IM 1.100.exe 开启 : "路径"
- BOOTICE(引导扇区维护工具) V1.3.3 中文免费绿色版
软件名称: BOOTICE(引导扇区维护工具)软件语言: 简体中文授权方式: 免费软件运行环境: Win7 / Vista / Win2003 / WinXP 软件大小: 357KB图片预览: 软件简 ...
- Java Web开发: Tomcat中部署项目的三种方法
web开发,在tomcat中部署项目的方法: 可以参考http://m.blog.csdn.net/blog/u012516903/15741727 定义$CATALINA_HOME指的是Tomcat ...
- OC-之AFNetworking与ASIHTTPRequest对比
一.底层实现 1.AFN的底层实现基于OC的NSURLConnection和NSURLSession 2.ASI的底层实现基于纯C语言的CFNetwork框架 3.因为NSURLConnection和 ...