zl程序教程

您现在的位置是:首页 >  其它

当前栏目

最简单的视音频播放示例6:OpenGL播放YUV420P(通过Texture,使用Shader)

简单 通过 示例 播放 OpenGL Shader 使用 Texture
2023-09-27 14:29:32 时间

本文记录OpenGL播放视频的技术。上一篇文章中,介绍了一种简单的使用OpenGL显示视频的方式。但是那还不是OpenGL显示视频技术的精髓。和Direct3D一样,OpenGL更好的显示视频的方式也是通过纹理(Texture)。本文介绍OpenGL通过纹理的方式显示视频的技术。

OpenGL中坐标和Direct3D坐标的不同

OpenGL中的纹理的坐标和Direct3D中的坐标是不一样的。

在Direct3D中。纹理坐标如下图所示。取值是0到1。坐标系原点在左上角。

物体表面坐标如下图所示。取值是实际的像素值。坐标系原点在左上角。

OpenGL纹理坐标取值范围是0-1,坐标原点位于左下角。这一点和Direct3D是不同的,Direct3D纹理坐标的取值虽然也是0-1,但是他的坐标原点位于左上角。

 

在OpenGL中,物体表面坐标取值范围是-1到1。坐标系原点在中心位置。

 

OpenGL视频显示的流程

有关纹理方面的知识已经在文章《最简单的视音频播放示例4:Direct3D播放RGB(通过Texture)》中有详细的记录。OpenGL中纹理的概念和Direct3D中纹理的概念基本上是等同的,因此不再重复记录了。

本文记录的程序,播放的是YUV420P格式的像素数据。上一篇文章中的程序也可以播放YUV420P格式的像素数据。但是它们的原理是不一样的。上一篇文章中,输入的YUV420P像素数据通过一个普通的函数转换为RGB数据后,传送给OpenGL播放。也就是像素的转换是通过CPU完成的。本文的程序,输入的YUV420P像素数据通过Shader转换为YUV数据,传送给OpenGL播放。像素的转换是通过显卡上的GPU完成的。通过本程序,可以了解使用OpenGL进行GPU编程的基础知识。

使用Shader通过OpenGL的纹理(Texture)播放视频一般情况下需要如下步骤:
1. 初始化

1) 初始化
2) 创建窗口
3) 设置绘图函数
4) 设置定时器
5) 初始化Shader
初始化Shader的步骤比较多,主要可以分为3步:创建Shader,创建Program,初始化Texture。 (1) 创建一个Shader对象 1)编写Vertex Shader和Fragment Shader源码。 2)创建两个shader 实例 。 3)给Shader实例指定源码。 4)在线编译shaer源码。


3) 设置绘图函数
glutDisplayFunc()用于设置绘图函数。操作系统在必要时刻就会调用该函数对窗体进行重新绘制操作。类似于windows程序设计中处理WM_PAINT消息。例如,当把窗口移动到屏幕边上,然后又移动回来的时候,就会调用该函数对窗口进行重绘。它的原型如下。



其中(*func)用于指定重绘函数。
例如在视频播放的时候,指定display()函数用于重绘:



4) 设置定时器
播放视频的时候,每秒需要播放一定的画面(一般是25帧),因此使用定时器每间隔一段时间调用一下绘图函数绘制图形。定时器函数glutTimerFunc()的原型如下。



它的参数含义如下:

millis:定时的时间,单位是毫秒。1秒=1000毫秒。

(*func)(int value):用于指定定时器调用的函数。

value:给回调函数传参。比较高端,没有接触过。

 


如果只在主函数中写一个glutTimerFunc()函数的话,会发现只会调用该函数一次。因此需要在回调函数中再写一个glutTimerFunc()函数,并调用回调函数自己。只有这样才能实现反反复复循环调用回调函数。
例如在视频播放的时候,指定每40毫秒调用一次timeFunc ()函数:
主函数中:



这样就实现了每40ms调用一次display()。


5) 初始化Shader
初始化Shader的步骤比较多,主要可以分为3步:创建Shader,创建Program,初始化Texture。它们的步骤如下所示。
(1) 创建一个Shader对象
Shader有点类似于一个程序的编译器。创建一个Shader可以分成以下4步:

1)编写Vertex Shader和Fragment Shader源码。
2)创建两个shader 实例:glCreateShader()。
3)给Shader实例指定源码:glShaderSource()。
4)在线编译shaer源码 glCompileShader()。 下面详细分析这4步。
1) 编写Vertex Shader和Fragment Shader源码。
在这里用到了一种新的语言:OpenGL Shader Language,简称GLSL。它是一种类似于C语言的专门为GPU设计的语言,它可以放在GPU里面被并行运行。
OpenGL的着色器有.fsh和.vsh两个文件。这两个文件在被编译和链接后就可以产生可执行程序与GPU交互。.vsh 是Vertex Shader(顶点着色器),用于顶点计算,可以理解控制顶点的位置,在这个文件中我们通常会传入当前顶点的位置,和纹理的坐标。.fsh 是Fragment Shader(片元着色器),在这里面我可以对于每一个像素点进行重新计算。
下面这张图可以更好的解释Vertex Shader和Fragment Shader的作用。这张图是OpenGL的渲染管线。其中的信息太多先不一一记录了。从图中可以看出,Vertex Shader在前,Fragment Shader在后。

 

在这里贴出本文的示例程序的fsh和vsh的代码。

Shader.vsh


    yuv.x = texture2D(tex_y, textureOut).r;       yuv.y = texture2D(tex_u, textureOut).r - 0.5;       yuv.z = texture2D(tex_v, textureOut).r - 0.5;       rgb = mat3( 1,       1,         1,                   0,       -0.39465,  2.03211,                   1.13983, -0.58060,  0) * yuv;           gl_FragColor = vec4(rgb, 1);  

从上述代码中可以看出GLSL的语法和C语言很类似。每一个Shader程序都有一个main函数,这一点和c语言是一样的。这里的变量命名规则保持跟c一样就行了,注意gl_开头的变量名是系统内置的变量。有以下几种变量:

attribute:外部传入vsh文件的变量,每一个顶点都会有这两个属性。变化率高,用于定义每个点。
varying:用于 vsh和fsh之间相互传递的参数。
uniform:外部传入vsh文件的变量。变化率较低,对于可能在整个渲染过程没有改变,只是个常量。
上文代码中使用了以下数据类型:
vec2:包含了2个浮点数的向量
vec3:包含了3个浮点数的向量
vec4:包含了4个浮点数的向量
sampler1D:1D纹理着色器
sampler2D:2D纹理着色器
sampler3D:3D纹理着色器
mat2:2*2维矩阵 
mat3:3*3维矩阵 

mat4:4*4维矩阵

 


上文代码中还使用到了OpenGL的几个全局变量:
gl_Position:原始的顶点数据在Vertex Shader中经过平移、旋转、缩放等数学变换后,生成新的顶点位置(一个四维 (vec4) 变量,包含顶点的 x、y、z 和 w 值)。新的顶点位置通过在Vertex Shader中写入gl_Position传递到渲染管线的后继阶段继续处理。
gl_FragColor:Fragment Shader的输出,它是一个四维变量(或称为 vec4)。gl_FragColor 表示在经过着色器代码处理后,正在呈现的像素的 R、G、B、A 值。
Vertex Shader是作用于每一个顶点的,如果Vertex有三个点,那么Vertex Shader会被执行三次。Fragment Shader是作用于每个像素的,一个像素运行一次。从源代码中可以看出,像素的转换在Fragment Shader中完成。
在网上看到两张图可以很好地说明Vertex Shader和Fragment Shader的作用:

  Vertex Shader(顶点着色器)主要是传入相应的Attribute变量、Uniforms变量、采样器以及临时变量,最后生成Varying变量,以及gl_Posizion等变量。Fragment Shade(片元着色器)可以执行纹理的访问、颜色的汇总、雾化等操作,最后生成gl_FragColor变量。有高手总结如下:“vsh负责搞定像素位置,填写gl_Posizion;fsh负责搞定像素外观,填写 gl_FragColor。”

2) 创建两个shader 实例。
创建一个容纳shader的容器。用glCreateShader ()创建一个容纳shader的容器,它的原型如下:



其中type包含2种: 

GLES20.GL_VERTEX_SHADER:Vertex Shader.

GLES20.GL_FRAGMENT_SHADER:Fragment Shader. 

 


如果调用成功的话,函数将返回一个整形的正整数作为Shader容器的id。
3) 给Shader实例指定源码。
Shader容器中添加shader的源代码。源代码应该以字符串数组的形式表示。glShaderSource函数的原型如下: 



参数含义如下: 

shader:是代表shader容器的id(由glCreateShader()返回的整形数)。

strings:是包含源程序的字符串数组。

 


如果感觉通过“字符串数组”的方式写源代码不太习惯的话,可以把源代码写到单独的一个文本文件里。然后在需要源代码的时候,读取该文本文件中的所有内容。
4) 在线编译Shader源码。
使用glCompileShader()对shader容器中的源代码进行编译。函数的原型如下:  



其中shader是代表Shader容器的id。
在编译完成后,可能需要调试。调试一个Shader是非常困难的。Shader的世界里没有printf,无法在控制台中打印调试信息。但是可以通过一些OpenGL提供的函数来获取编译和连接过程中的信息。在编译阶段使用glGetShaderiv获取编译情况。glGetShaderiv()函数原型如下:



参数含义: 

shader:一个shader的id; 
pname:使用GL_COMPILE_STATUS; 
params:返回值,如果一切正常返回GL_TRUE代,否则返回GL_FALSE。
(2) 创建一个Program对象
Program有点类似于一个程序的链接器。program对象提供了把需要做的事连接在一起的机制。在一个program中,shader对象可以连接在一起。
创建一个Program可以分成以下4步:

1)创建program:glCreateProgram()
2)绑定shader到program :glAttachShader()。
*每个program必须绑定一个Vertex Shader 和一个Fragment Shader。
3)链接program :glLinkProgram()。
4)使用porgram :glUseProgram()。 下面详细分析这4步。
1) 创建program。
首先使用glCreateProgram ()创建一个容纳程序(Program)的容器,我们称之为程序容器。
函数的原型如下:



如果函数调用成功将返回一个整形正整数作为该着色器程序的id。
2) 绑定shader到program。
使用glAttachShader()将shader容器添加到程序中。这时的shader容器不一定需要被编译,他们甚至不需要包含任何的代码。
函数的原型如下:  



参数含义: 

program:着色器程序容器的id。
shader:要添加的顶点或者片元shader容器的id。  Vertex Shader和Fragment Shader需要分别将他们各自的两个shader容器添加的程序容器中。

3) 链接program。
使用glLinkProgram()链接程序对象。
函数的原型如下:  



program是着色器程序容器的id。
如果任何类型为GL_VERTEX_SHADER的shader对象连接到program,它将产生在“顶点着色器”(Vertex Shader)上可执行的程序;如果任何类型为GL_FRAGMENT_SHADER的shader对象连接到program,它将产生在“像素着色器”(Pixel Shader)上可执行的程序。
在链接阶段使用glGetProgramiv()获取编译情况。glGetProgramiv ()函数原型如下:



参数含义: 

program:一个着色器程序的id; 
pname:GL_LINK_STATUS; 
param:返回值,如果一切正常返回GL_TRUE代,否则返回GL_FALSE。
通过glBindAttribLocation()把“顶点属性索引”绑定到“顶点属性名”。



参数含义:

program:着色器程序容器的id。
index:顶点属性索引。
name:顶点属性名。
4) 使用porgram。
在链接了程序以后,我们可以使用glUseProgram()函数来加载并使用链接好的程序。glUseProgram函数原型如下: 



其中program是要使用的着色器程序的id。

(3) 初始化Texture

初始化Texture可以分为以下步骤。

1) 定义顶点数组

这一步需要初始化两个数组,

2) 设置顶点数组


这一步通过glVertexAttribPointer()完成。glVertexAttribPointer()定义一个通用顶点属性数组。当渲染时,它指定了通用顶点属性数组从索引index处开始的位置和数据格式。
glVertexAttribPointer()原型如下。



每个参数的含义:

index:指示将被修改的通用顶点属性的索引 
size:指点每个顶点元素个数(1~4)  
type:数组中每个元素的数据类型 
normalized:指示定点数据值是否被归一化(归一化 [-1,1]或[0,1] :GL_TRUE,直接使用:GL_FALSE)  
stride:连续顶点属性间的偏移量,如果为0,相邻顶点属性间紧紧相邻 
pointer:顶点数组 
使用函数glEnableVertexAttribArray()启用属性数组。默认状态下,所有客户端的能力被Disabled,包括所有通用顶点属性数组。如果被Enable,通用顶点属性数组中的值将被访问并被用于Rendering。函数的原型如下:


glGenTextures()就是用来产生你要操作的纹理对象的索引的,比如你告诉OpenGL,我需要5个纹理对象,它会从没有用到的整数里返回5个给你。
产生纹理索引之后,需要使用glBindTexture()绑定纹理,才能对该纹理进行操作。glBindTexture()告诉OpenGL下面对纹理的任何操作都是针对它所绑定的纹理对象的,比如glBindTexture(GL_TEXTURE_2D,1)即告诉OpenGL下面代码中对2D纹理的任何设置都是针对索引为1的纹理的。
glBindTexture()函数的声明如下所示:



函数参数的含义:

target:纹理被绑定的目标,它只能取值GL_TEXTURE_1D、GL_TEXTURE_2D、GL_TEXTURE_3D或者GL_TEXTURE_CUBE_MAP。

texture:纹理的名称,并且,该纹理的名称在当前的应用中不能被再次使用。

 


绑定纹理之后,就可以设置该纹理的一些属性了。
纹理过滤函数glTexParameteri()可以用来确定如何把图像从纹理图象空间映射到帧缓冲图象空间。即把纹理像素映射成像素。glTexParameteri()的原型如下。



部分参数功能说明如下:

pname:参数。可以指定为GL_TEXTURE_MAG_FILTER(放大过滤),GL_TEXTURE_MIN_FILTER(缩小过滤)等。
param:参数的值。例如GL_LINEAR(线性插值。使用距离当前渲染像素中心最近的4个纹素加权平均值),GL_NEAREST(临近像素插值。该方法质量较差)

 

6) 进入消息循环

glutMainLoop()将会进入GLUT事件处理循环。一旦被调用,这个程序将永远不会返回。视频播放的时候,调用该函数之后即开始播放视频。

 

2. 循环显示画面

1) 设置纹理

使用glActiveTexture()选择可以由纹理函数进行修改的当前纹理单位。后续的操作都是对选择的纹理进行的。glActiveTexture()的原型如下。



接着使用glBindTexture()告诉OpenGL下面对纹理的任何操作都是针对它所绑定的纹理对象的,这一点前文已经记录,不再重复。
然后使用glTexImage2D()根据指定的参数,生成一个2D纹理(Texture)。相似的函数还有glTexImage1D、glTexImage3D。glTexImage2D()原型如下。



参数说明如下:

target:指定目标纹理,这个值必须是GL_TEXTURE_2D。
level:执行细节级别。0是最基本的图像级别,n表示第N级贴图细化级别。
internalformat:指定纹理中的颜色格式。可选的值有GL_ALPHA,GL_RGB,GL_RGBA,GL_LUMINANCE, GL_LUMINANCE_ALPHA 等几种。
width:纹理图像的宽度。
height:纹理图像的高度。
border:边框的宽度。必须为0。
format:像素数据的颜色格式, 不需要和internalformatt取值必须相同。可选的值参考internalformat。
type:指定像素数据的数据类型。可以使用的值有GL_UNSIGNED_BYTE,GL_UNSIGNED_SHORT_5_6_5,GL_UNSIGNED_SHORT_4_4_4_4,GL_UNSIGNED_SHORT_5_5_5_1等。
pixels:指定内存中指向图像数据的指针
glUniform()为当前程序对象指定Uniform变量的值。(注意,由于OpenGL由C语言编写,但是C语言不支持函数的重载,所以会有很多名字相同后缀不同的函数版本存在。其中函数名中包含数字(1、2、3、4)表示接受该数字个用于更改uniform变量的值,i表示32位整形,f表示32位浮点型,ub表示8位无符号byte,ui表示32位无符号整形,v表示接受相应的指针类型。 )

2) 绘制

使用glDrawArrays()进行绘制。glDrawArrays()原型如下。



参数说明:

mode:绘制方式,提供以下参数:GL_POINTS、GL_LINES、GL_LINE_LOOP、GL_LINE_STRIP、GL_TRIANGLES、GL_TRIANGLE_STRIP、GL_TRIANGLE_FAN。
first:从数组缓存中的哪一位开始绘制,一般为0。
count:数组中顶点的数量。

 

3) 显示

如果使用“双缓冲”方式的话,使用glutSwapBuffers()绘制。如果使用“单缓冲”方式的话,使用glFlush()绘制。glutSwapBuffers()的功能是交换两个缓冲区指针,表现的形式即是把画面呈现到屏幕上。

简单解释一下双缓冲技术。当我们进行复杂的绘图操作时,画面便可能有明显的闪烁。这是由于绘制的东西没有同时出现在屏幕上而导致的。使用双缓冲可以解决这个问题。所谓双缓冲技术, 是指使用两个缓冲区: 前台缓冲和后台缓冲。前台缓冲即我们看到的屏幕,后台缓冲则在内存当中,对我们来说是不可见的。每次的所有绘图操作不是在屏幕上直接绘制,而是在后台缓冲中进行, 当绘制完成时,再把绘制的最终结果显示到屏幕上。

glutSwapBuffers()函数执行之后,缓冲区指针交换,两个缓冲的“角色”也发生了对调。原先的前台缓冲变成了后台缓冲,等待进行下一次绘制。而原先的后台缓冲变成了前台缓冲,展现出绘制的结果。

 

视频显示(使用Texture)流程总结

上文流程的函数流程可以用下图表示。

 

 

代码

源代码如下所示。


 * 最简单的OpenGL播放视频的例子(OpenGL播放YUV)[Texture]   * Simplest Video Play OpenGL (OpenGL play YUV) [Texture]   * 雷霄骅 Lei Xiaohua   * leixiaohua1020@126.com   * 中国传媒大学/数字电视技术   * Communication University of China / Digital TV Technology   * http://blog.csdn.net/leixiaohua1020   * 本程序使用OpenGL播放YUV视频像素数据。本程序支持YUV420P的   * 像素数据作为输入,经过转换后输出到屏幕上。其中用到了多种   * 技术,例如Texture,Shader等,是一个相对比较复杂的例子。   * 适合有一定OpenGL基础的初学者学习。   * 函数调用步骤如下:    * [初始化]   * glutInit(): 初始化glut库。   * glutInitDisplayMode(): 设置显示模式。   * glutCreateWindow(): 创建一个窗口。   * glewInit(): 初始化glew库。   * glutDisplayFunc(): 设置绘图函数(重绘的时候调用)。   * glutTimerFunc(): 设置定时器。   * InitShaders(): 设置Shader。包含了一系列函数,暂不列出。   * glutMainLoop(): 进入消息循环。   * [循环渲染数据]   * glActiveTexture(): 激活纹理单位。   * glBindTexture(): 绑定纹理   * glTexImage2D(): 根据像素数据,生成一个2D纹理。   * glUniform1i():    * glDrawArrays(): 绘制。   * glutSwapBuffers(): 显示。   * This software plays YUV raw video data using OpenGL.   * It support read YUV420P raw file and show it on the screen.   * Its use a slightly more complex technologies such as Texture,   * Shaders etc. Suitable for beginner who already has some    * knowledge about OpenGL.   * The process is shown as follows:   * [Init]   * glutInit(): Init glut library.   * glutInitDisplayMode(): Set display mode.   * glutCreateWindow(): Create a window.   * glewInit(): Init glew library.   * glutDisplayFunc(): Set the display callback.   * glutTimerFunc(): Set timer.   * InitShaders(): Set Shader, Init Texture. It contains some functions about Shader.   * glutMainLoop(): Start message loop.   * [Loop to Render data]   * glActiveTexture(): Active a Texture unit    * glBindTexture(): Bind Texture   * glTexImage2D(): Specify pixel data to generate 2D Texture   * glUniform1i():    * glDrawArrays(): draw.   * glutSwapBuffers(): show.   */   #include  stdio.h    #include "glew.h"   #include "glut.h"   #include  stdio.h    #include  stdlib.h    #include  malloc.h    #include  string.h    //Select one of the Texture mode (Set 1):   #define TEXTURE_DEFAULT   0   //Rotate the texture   #define TEXTURE_ROTATE    0   //Show half of the Texture   #define TEXTURE_HALF      1   const int screen_w=500,screen_h=500;   const int pixel_w = 320, pixel_h = 180;   //YUV file   FILE *infile = NULL;   unsigned char buf[pixel_w*pixel_h*3/2];   unsigned char *plane[3];   GLuint p;                   GLuint id_y, id_u, id_v; // Texture id   GLuint textureUniformY, textureUniformU,textureUniformV;   #define ATTRIB_VERTEX 3   #define ATTRIB_TEXTURE 4   void display(void){       if (fread(buf, 1, pixel_w*pixel_h*3/2, infile) != pixel_w*pixel_h*3/2){           // Loop           fseek(infile, 0, SEEK_SET);           fread(buf, 1, pixel_w*pixel_h*3/2, infile);       }       //Clear       glClearColor(0.0,255,0.0,0.0);       glClear(GL_COLOR_BUFFER_BIT);       //Y       //       glActiveTexture(GL_TEXTURE0);              glBindTexture(GL_TEXTURE_2D, id_y);              glTexImage2D(GL_TEXTURE_2D, 0, GL_RED, pixel_w, pixel_h, 0, GL_RED, GL_UNSIGNED_BYTE, plane[0]);               glUniform1i(textureUniformY, 0);           //U       glActiveTexture(GL_TEXTURE1);       glBindTexture(GL_TEXTURE_2D, id_u);       glTexImage2D(GL_TEXTURE_2D, 0, GL_RED, pixel_w/2, pixel_h/2, 0, GL_RED, GL_UNSIGNED_BYTE, plane[1]);              glUniform1i(textureUniformU, 1);       //V       glActiveTexture(GL_TEXTURE2);       glBindTexture(GL_TEXTURE_2D, id_v);       glTexImage2D(GL_TEXTURE_2D, 0, GL_RED, pixel_w/2, pixel_h/2, 0, GL_RED, GL_UNSIGNED_BYTE, plane[2]);           glUniform1i(textureUniformV, 2);          // Draw       glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);       // Show       //Double       glutSwapBuffers();       //Single       //glFlush();   void timeFunc(int value){       display();       // Timer: 40ms       glutTimerFunc(40, timeFunc, 0);   char *textFileRead(char * filename)       char *s = (char *)malloc(8000);       memset(s, 0, 8000);       FILE *infile = fopen(filename, "rb");       int len = fread(s, 1, 8000, infile);       fclose(infile);       s[len] = 0;       return s;   //Init Shader   void InitShaders()       GLint vertCompiled, fragCompiled, linked;              GLint v, f;       const char *vs,*fs;       //Shader: step1       v = glCreateShader(GL_VERTEX_SHADER);       f = glCreateShader(GL_FRAGMENT_SHADER);       //Get source code       vs = textFileRead("Shader.vsh");       fs = textFileRead("Shader.fsh");       //Shader: step2       glShaderSource(v, 1,  vs,NULL);       glShaderSource(f, 1,  fs,NULL);       //Shader: step3       glCompileShader(v);       //Debug       glGetShaderiv(v, GL_COMPILE_STATUS,  vertCompiled);       glCompileShader(f);       glGetShaderiv(f, GL_COMPILE_STATUS,  fragCompiled);       //Program: Step1       p = glCreateProgram();        //Program: Step2       glAttachShader(p,v);       glAttachShader(p,f);        glBindAttribLocation(p, ATTRIB_VERTEX, "vertexIn");       glBindAttribLocation(p, ATTRIB_TEXTURE, "textureIn");       //Program: Step3       glLinkProgram(p);       //Debug       glGetProgramiv(p, GL_LINK_STATUS,  linked);         //Program: Step4       glUseProgram(p);       //Get Uniform Variables Location       textureUniformY = glGetUniformLocation(p, "tex_y");       textureUniformU = glGetUniformLocation(p, "tex_u");       textureUniformV = glGetUniformLocation(p, "tex_v");    #if TEXTURE_ROTATE       static const GLfloat vertexVertices[] = {           -1.0f, -0.5f,            0.5f, -1.0f,           -0.5f,  1.0f,            1.0f,  0.5f,       };       #else       static const GLfloat vertexVertices[] = {           -1.0f, -1.0f,           1.0f, -1.0f,           -1.0f,  1.0f,           1.0f,  1.0f,       };       #endif   #if TEXTURE_HALF       static const GLfloat textureVertices[] = {           0.0f,  1.0f,           0.5f,  1.0f,           0.0f,  0.0f,           0.5f,  0.0f,       };    #else       static const GLfloat textureVertices[] = {           0.0f,  1.0f,           1.0f,  1.0f,           0.0f,  0.0f,           1.0f,  0.0f,       };    #endif       //Set Arrays       glVertexAttribPointer(ATTRIB_VERTEX, 2, GL_FLOAT, 0, 0, vertexVertices);       //Enable it       glEnableVertexAttribArray(ATTRIB_VERTEX);           glVertexAttribPointer(ATTRIB_TEXTURE, 2, GL_FLOAT, 0, 0, textureVertices);       glEnableVertexAttribArray(ATTRIB_TEXTURE);       //Init Texture       glGenTextures(1,  id_y);        glBindTexture(GL_TEXTURE_2D, id_y);           glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MAG_FILTER,GL_LINEAR);       glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MIN_FILTER,GL_LINEAR);       glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);       glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);              glGenTextures(1,  id_u);       glBindTexture(GL_TEXTURE_2D, id_u);          glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MAG_FILTER,GL_LINEAR);       glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MIN_FILTER,GL_LINEAR);       glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);       glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);              glGenTextures(1,  id_v);        glBindTexture(GL_TEXTURE_2D, id_v);           glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MAG_FILTER,GL_LINEAR);       glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MIN_FILTER,GL_LINEAR);       glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);       glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);   int main(int argc, char* argv[])       //Open YUV420P file       if((infile=fopen("../test_yuv420p_320x180.yuv", "rb"))==NULL){           printf("cannot open this file\n");           return -1;       }       //YUV Data       plane[0] = buf;       plane[1] = plane[0] + pixel_w*pixel_h;       plane[2] = plane[1] + pixel_w*pixel_h/4;       //Init GLUT       glutInit( argc, argv);         //GLUT_DOUBLE       glutInitDisplayMode(GLUT_DOUBLE | GLUT_RGBA /*| GLUT_STENCIL | GLUT_DEPTH*/);       glutInitWindowPosition(100, 100);       glutInitWindowSize(screen_w, screen_h);       glutCreateWindow("Simplest Video Play OpenGL (Texture)");       printf("Lei Xiaohua\n");       printf("http://blog.csdn.net/leixiaohua1020\n");       printf("Version: %s\n", glGetString(GL_VERSION));       GLenum l = glewInit();       glutDisplayFunc( display);       glutTimerFunc(40, timeFunc, 0);        InitShaders();       // Begin!       glutMainLoop();       return 0;  
    yuv.x = texture2D(tex_y, textureOut).r;       yuv.y = texture2D(tex_u, textureOut).r - 0.5;       yuv.z = texture2D(tex_v, textureOut).r - 0.5;       rgb = mat3( 1,       1,         1,                   0,       -0.39465,  2.03211,                   1.13983, -0.58060,  0) * yuv;           gl_FragColor = vec4(rgb, 1);  

2. 窗口的宽高为screen_w,screen_h。像素数据的宽高为pixel_w,pixel_h。它们的定义如下。



第一种是正常的映射方式,第二种是“旋转”的方式,第三种是只映射一半的方式。

结果

程序运行结果如下。默认的纹理映射:

“旋转”:

一半纹理:

 

下载

代码位于“Simplest Media Play”中



SourceForge项目地址:https://sourceforge.net/projects/simplestmediaplay/
CSDN下载地址:http://download.csdn.net/detail/leixiaohua1020/8054395


上述工程包含了使用各种API(Direct3D,OpenGL,GDI,DirectSound,SDL2)播放多媒体例子。其中音频输入为PCM采样数据。输出至系统的声卡播放出来。视频输入为YUV/RGB像素数据。输出至显示器上的一个窗口播放出来。
通过本工程的代码初学者可以快速学习使用这几个API播放视频和音频的技术。
一共包括了如下几个子工程:
simplest_audio_play_directsound:  使用DirectSound播放PCM音频采样数据。
simplest_audio_play_sdl2:  使用SDL2播放PCM音频采样数据。
simplest_video_play_direct3d:  使用Direct3D的Surface播放RGB/YUV视频像素数据。
simplest_video_play_direct3d_texture: 使用Direct3D的Texture播放RGB视频像素数据。
simplest_video_play_gdi:  使用GDI播放RGB/YUV视频像素数据。
simplest_video_play_opengl:  使用OpenGL播放RGB/YUV视频像素数据。
simplest_video_play_opengl_texture: 使用OpenGL的Texture播放YUV视频像素数据。
simplest_video_play_sdl2:  使用SDL2播放RGB/YUV视频像素数据。

 

from:http://blog.csdn.net/leixiaohua1020/article/details/40379845


【Unity3D Shader】学习笔记-图片滤镜① 效果和上面的比较相似,Photoshop CS图像黑白调整功能的计算公式为: gray= (max - mid) * ratio_max + (mid - min) * ratio_max_mid + min 公式中:gray为像素灰度值,max、mid和min分别为图像像素R、G、B分量颜色的最大值、中间值和最小值,ratio_max为max所代表的分量颜色(单色)比率,ratio_max_mid则为max与mid两种分量颜色所形成的复色比率。 默认的单色及复色比率为:
贴花简单来说就是在原贴图上面贴上细节贴图,就像墙面上的喷绘一样。下面这个只是最简单的例子,也就是只能在一张图(一个模型)上面贴其他细节。
33.FFmpeg+OpenGLES+OpenSLES播放器实现(七.FFmpeg像素格式转换和音频重采样) 项目源码FFmpeg开发文档 像素格式转换 像素格式描述了像素数据存储所用的格式。定义了像素在内存中的编码方式。FFmpeg支持的像素格式主要是rbg和yuv两种,具体可以在结构体AVPixelFormat中看到 * Pixel format.
新建材质球,赋值该shader,将材质球复制到image上即可置灰image Shader UIEffect/ImageGray Properties [PerRendererData] _MainTex( ...
片元着色器(Fragment Shader)被称为像素着色器(Pixel Shader),但 片元着色器(Fragment Shader)被称为像素着色器(Pixel Shader),但片元着色器是一个更合适的名字, 因为此时的片元并不是一个真正意义上的像素。
最简单的视音频播放示例5:OpenGL播放RGB/YUV 本文记录OpenGL播放视频的技术。OpenGL是一个和Direct3D同一层面的技术。相比于Direct3D,OpenGL具有跨平台的优势。尽管在游戏领域,DirectX的影响力已渐渐超越OpenGL并被大多数PC游戏开发商所采用,但在专业高端绘图领域,OpenGL因为色彩准确,仍然是不能被取代的主角。
最简单的视音频播放示例2:GDI播放YUV, RGB 前一篇文章对“Simplest Media Play”工程作了概括性介绍。后续几篇文章打算详细介绍每个子工程中的几种技术。在记录Direct3D,OpenGL这两种相对复杂的技术之前,打算先记录一种和它们属于同一层面的的简单的技术——GDI作为热身。