最近在学习图像处理相关的内容,看了GPUImage的源码,查阅了相关资料,收集了许多人博客的基础上做出了整理,再次感谢给博主!GPUImage 是一个开源的基于GPU的图片或视频的处理框架,其本身内置了多达120多种常见的滤镜效果,并且支持照相机和摄像机的实时滤镜,并且能够自定义图像滤镜。
美颜基本概念
OpenGL ES:(Open Graphics Library For Embedded Systems)即开源嵌入式系统图形处理框架,一套图形与硬件接口,创造了软件与图形加速间灵活强大的底层交互接口,用于把处理好的图片显示到屏幕上。
GPU:(Graphic Processor Unit图形处理单元)手机或者电脑用于图像处理和渲染的硬件。
GPU工作原理:CPU指定显示控制器工作,显示控制器根据CPU的控制到指定的地方去取数据和指令, 目前的数据一般是从显存里取,如果显存里存不下,则从内存里取, 内存也放不下,则从硬盘里取,当然也不是内存放不下,而是为了节省内存的话,可以放在硬盘里,然后通过指令控制显示控制器去取。
滤镜处理的原理:就是把静态图片或者视频的每一帧进行图形变换后再显示到屏幕上,其本质就是像素点的坐标和颜色的变化。
OpenGL ES程序处理图片步骤:
1、初始化OpenGL ES环境,编译、链接顶点着色器和片元着色器;
2、缓存顶点、纹理坐标数据,传送图像数据到GPU;
3、绘制图元到特定的帧缓存;
4、在帧缓存取出绘制的图像。
GPUImage基本概念
GPUImage是采用链式方法来处理画面,通过addTarget方法添加对象到链中,处理完一个target,就会把上一个环节处理好的图像数据传递到下一个target处理,称为GPUImage处理链。
GPUImage的四大输入基础类,都可以作为响应链的起点,这些基础类会把图像作为纹理传给OpenGL ES处理,然后把纹理传递给响应链的下一个target对象。
GPUImage处理环节
source(视频、图片源)->filter(滤镜)-> final target(处理后的视频、图片)
source
GPUImageVideoCamera 摄像头用于实时拍摄视频
GPUImageStillCamera 摄像头用于实时拍摄照片
GPUImagePicture 用于处理已经拍摄好的图片
GPUImageMovie 用于处理已经拍摄好的视频
filter
GPUImageFilter:就是用来接收源图像,通过自定义的顶点、片元着色器来渲染新的图像,并在绘制完成后通知响应链的下一个对象。
GPUImageFramebuffer:就是用来管理纹理缓存的格式与读写帧缓存的buffer。
GPUImage的filter:GPUImageFilter类或者子类,这个类继承自GPUImageOutput,遵循GPUImageInput协议,既可以流进数据,又可以流出
GPUImage的final target:GPUImageView,GPUImageMovieWriter最终输入目标,显示图片或者视频。
解析
GPUImageVideoCamera
GPUImageVideoCamera是GPUImageOutput的子类,提供来自摄像头的图像数据作为源数据,一般是响应链的源头。
1、视频图像采集 :AVCaptureSession
GPUImage使用AVFoundation框架来获取视频。AVCaptureSession类从AV输入设备的采集数据到制定的输出。
AVCaptureSession创建:
_captureSession = [[AVCaptureSession alloc] init];
[_captureSession beginConfiguration];
// 中间可以实现关于session属性的设置
[_captureSession commitConfiguration];
要实现AVCaptureSession类,需要添加合适的输入(AVCaptureDeviceInput)和输出(AVCaptureMovieFileOutput)设备
AVCaptureVideoDataOutput
AVCaptureVideoDataOutput是AVCaptureOutput的子类,用来处理从摄像头采集的未压缩或者压缩过的图像帧。
通过captureOutput:didOutputSampleBuffer:fromConnection: delegate方法,可以访问图像帧。
设置delegate
-(void)setSampleBufferDelegate:(id<AVCaptureAudioDataOutputSampleBufferDelegate>)sampleBufferDelegate queue:(dispatch_queue_t)sampleBufferCallbackQueue;
当新的视频图像帧被采集后,会被传送到output中,调用delegate,delegate函数会在队列中调用,必须使用同步队列处理图像帧,保证帧序列的顺序。
frameRenderingSemaphore 帧渲染的信号量
if (dispatch_semaphore_wait(frameRenderingSemaphore, DISPATCH_TIME_NOW) != 0)
{
return;
}
runAsynchronouslyOnVideoProcessingQueue(^{
dispatch_semaphore_signal(frameRenderingSemaphore);
});
这个方法用于等待处理完一帧后,再接着处理下一帧。
2、颜色空间:YUV
YUV是被欧洲电视系统所采用的一种颜色编码方法。采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。
YUV主要用于优化彩色视频信号的传输,使其向后相容老式黑白电视。与RGB视频信号传输相比,它最大的优点在于只需占用极少的频宽(RGB要求三个独立的视频信号同时传输)。
GPUImage中的YUV
GLProgram *yuvConversionProgram:将YUV颜色空间转换成RGB颜色空间的GLSL。
CVPixelBufferGetPlaneCount:返回缓冲区的平面数。
CVOpenGLESTextureCacheCreateTextureFromImage():
创建两个纹理luminanceTextureRef(亮度纹理)和chrominanceTextureRef(色度纹理)。
convertYUVToRGBOutput():把YUV颜色空间的纹理转换成RGB颜色空间的纹理。
顶点着色器-通用kGPUImageVertexShaderString
片元着色器:
1.kGPUImageYUVFullRangeConversionForLAFragmentShaderString
2.kGPUImageYUVVideoRangeConversionForLAFragmentShaderString
3、纹理绘制
glActiveTexture(GL_TEXTURE1);
glGenTextures(1, &_texture);
glBindTexture(GL_TEXTURE_2D, _texture);
GPUImageView
GPUImageView是响应链的终点,用于显示GPUImage图像
1、填充模式
GPUImageFillModeType fillMode图像的填充模式。
sizeInPixels 像素区域大小。
recalculateViewGeometry() 重新计算图像顶点位置数据。
AVMakeRectWithAspectRatioInsideRect() 在保证宽高比不变的前提下,得到一个尽可能大的矩形。
2、OpenGL ES绘制
源图像已经准备好,开始绘制。
-(void)newFrameReadyAtTime:(CMTime)frameTime atIndex:(NSInteger)textureIndex;
setDisplayFramebuffer()会绑定GPUImageView的帧缓存,同时调试视口大小为view的大小。
glActiveTexture是选择一个纹理单元。先选择纹理单元4,然后把源图像数据绑定到GL_TEXTURE_2D的位置上。最后告诉片元着色器,纹理单元是4。
glActiveTexture(GL_TEXTURE4);
glBindTexture(GL_TEXTURE_2D, [inputFramebufferForDisplay texture]);
glUniform1i(displayInputTextureUniform, 4);
接下来分别绑定顶点坐标数据和纹理坐标数据
glVertexAttribPointer(displayPositionAttribute, 2, GL_FLOAT, 0, 0, imageVertices);
glVertexAttribPointer(displayTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, [GPUImageView textureCoordinatesForRotation:inputRotation]);
然后设定输入的源图像数据缓存,并缓存加锁。
inputFramebufferForDisplay = newInputFramebuffer;
[inputFramebufferForDisplay lock];
最后准备好着色器、纹理数据、顶点坐标、纹理坐标数据后,就可以绘制图像了
glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);
相关资料:
http://www.tuicool.com/articles/6bIbQbQ
//www.greatytc.com/p/945fc806a9b4
//www.greatytc.com/p/7a58a7a61f4c
//www.greatytc.com/p/4646894245ba