CoreImage是一个图片分析和处理技术,提供了为静态图片和视频接近实时处理的功能,它是iOS的图像处理中非常重要的框架,要注意它与CoreGraphics等之间的区别,CoreGraphics是做绘图的,CoreImage可以接受CoreGraphics绘制的图片,经过处理,比如滤镜,然后输出。
它能处理来自CoreGraphics、CoreVideo、Image I/O的框架的数据类型,通过GPU或者CPU进行渲染。
使用CoreImage不需要知道OpenGL ES的具体细节,也不需要知道GPU的工作细节
来看一张Apple官方的图:
来看一下CoreImage的功能:
- 提供了内建的图片处理滤镜
- 一些特征识别能力,比如识别矩形
- 自动改善图像
- 链接多个滤镜达到自定义的效果,提供链式滤镜的效果,一个滤镜的输出可以是下一个滤镜的输入
- 在GPU上创建自定义滤镜的效果
- 人脸识别的能力(只能识别是不是人脸,不具备用脸刷卡的效果)
CoreImage提供了上百种内建的滤镜,提供了用key-value的形式创建滤镜,
并且一个滤镜的输出可以是下一个滤镜的输入,这使得我们可以创建各种各样的效果。
CoreImage中用到的类主要有:CIImage、CIFilter、CIContext (上下文)、 CIDetector (检测)、CIFeature (特征)
-
Processing Image
Processing Image 就是使用滤镜,滤镜是一个图片处理算法程序,能够对输入图片进行一个像素点一个像素点进行算法上的效果处理,然后生成输出的图片。Processing Image依靠的是<a name="fenced-code-block">CIFilter</a>和<a name="fenced-code-block">CIImage</a>这两个类,分别对应着滤镜和输入输出图片
看一下滤镜的基础使用:
使用CIFilter的步骤:
- 创建CIImage对象
- 创建CIContext上下文,用作画布
- 创建CIFilter对象
- 输出滤镜
不同的CIFilter会有不同的参数,如果我们想知道具体的某个CIFilter有哪些参数,可以调用它的inputKeys方法,或者调用*** outputKeys获取它的输出参数列表,我们一般使用它的参数outputImage,再或者调用** attributes***得到这个CIFilter对象的所有信息:它的名字、所属的分类、输入参数、输出参数、各参数的取值范围以及默认值等。
几乎所有的滤镜都有inputImage这个输入参数,系统已经为它预定义了kCIInputImageKey,如果没有预定义的,使用字符串。
let filter = CIFilter(name: "CIGaussianBlur")
print("\(filter.inputKeys)")
// 打印结果:["inputImage", "inputRadius"]
print("\(filter.outputKeys)")
// 打印结果: ["outputImage"]
print("\(filter. attributes)")
/* 打印结果:
["CIAttributeFilterCategories": <__NSArrayI 0x600000057af0>(
CICategoryBlur,
CICategoryStillImage,
CICategoryVideo,
CICategoryBuiltIn
)
, "CIAttributeFilterDisplayName": Gaussian Blur,
"CIAttributeFilterAvailable_iOS": 6,
"inputImage": {
CIAttributeClass = CIImage;
CIAttributeDescription = "The image to use as an input image. For filters that also use a background image, this is the foreground image.";
CIAttributeDisplayName = Image;
CIAttributeType = CIAttributeTypeImage;
},
"CIAttributeFilterAvailable_Mac": 10.4,
"CIAttributeReferenceDocumentation": http://developer.apple.com/library/ios/documentation/GraphicsImaging/Reference/CoreImageFilterReference/index.html#//apple_ref/doc/filter/ci/CIGaussianBlur,
"CIAttributeFilterName": CIGaussianBlur,
"inputRadius": {
CIAttributeClass = NSNumber;
CIAttributeDefault = 10;
CIAttributeDescription = "The radius determines how many pixels are used to create the blur. The larger the radius, the blurrier the result.";
CIAttributeDisplayName = Radius;
CIAttributeIdentity = 0;
CIAttributeMin = 0;
CIAttributeSliderMax = 100;
CIAttributeSliderMin = 0;
CIAttributeType = CIAttributeTypeScalar;
}]
*/
运行结果:
上面这个例子中使用了滤镜CISepiaTone,这个滤镜能使画面整体偏棕褐色,有点复古的效果。
-
高斯模糊
func GaussianBlur() {
let path = NSBundle.mainBundle().pathForResource("test", ofType: "jpg")!
let context = CIContext()
guard let filter = CIFilter(name: "CIGaussianBlur") else {
return
}
filter.setValue(5.0, forKey: "inputRadius")
let image = CIImage(contentsOfURL: NSURL(fileURLWithPath: path))
filter.setValue(image, forKey: kCIInputImageKey)
let result = filter.outputImage!
let cgImage = context.createCGImage(result, fromRect: result.extent)
imageView.image = UIImage(CGImage: cgImage!)
}
上面的使用了CoreImage内置的高斯模糊滤镜:** CIGaussianBlur,设置模模糊半径inputRadius**为5.0。模糊半径越大,最后生成的图像越模糊。
-
自动改善图像
上面提到过,CoreImage有自动改善图像的功能,根据一个CIImage对象,能够得到一组改善图像质量的滤镜,具体可以通过autoAdjustmentFilters 或 autoAdjustmentFiltersWithOptions来获取这个滤镜数组。
得到的滤镜数组一般是下面这几个,大部分情况已经够用了:
- CIRedEyeCorrection: 修复因相机的闪光灯导致的各种红眼
- CIFaceBalance: 调整肤色
- CIVibrance: 在不影响肤色的情况下,改善图像的饱和度
- CIToneCureve: 改善图像的对比度
- CIHighlightShadowAdjust: 改善阴影细节
func autoAjustmentImage() {
let inputImage = CIImage(image: originalImage)!
var resultImage: CIImage?
let filters = inputImage.autoAdjustmentFilters() as [CIFilter]
for filter: CIFilter in filters {
filter.setValue(inputImage, forKey: kCIInputImageKey)
resultImage = filter.outputImage!
}
if let result = resultImage {
imageView.image = UIImage(CIImage: result)
}
}