AVFoundation框架是iOS中很重要的框架,所有与音视频相关的软硬件控制都在这个框架里面。接下来主要是对这个框架中的媒体捕捉模块进行介绍和学习。
捕捉会话
AVFoundation媒体捕捉的核心类是AVCaptureSession,是用来管理数据捕捉的中央协调对象,使用一个实例来协调从输入设备到输出的数据流。相当于一个虚拟的插线板,用于连接输入和输出的资源。
捕捉设备
AVCaptureDevice为摄像头、麦克风等物理设备提供接口。大部分我们使用的设备都是内置于iphone上的,但是也可能出现外部设备。AVCaptureDevice针对物理设备提供了大量的控制方法。比如控制摄像头聚焦、曝光、白平衡和闪光灯等。
捕捉输入
AVCaptureDevice不能直接添加到AVCaptureSession中,必须封装成AVCaptureInput实例。这个对象在捕捉设备和捕捉会话间扮演接线板的作用。
捕捉输出
AVCaptureOutput是一个抽象类,用于为捕捉会话得到的数据寻找输出的目的地。框架定义了一些抽象的高级扩展类。比如AVCaptureStillImageOutput和AVCaptureMovieFileOutput类,使用它们来捕捉静态照片、视频。AVCaptureAudioDataOutput和AVCaptureVideoDataOutput,使用它们来直接访问硬件捕捉到的数字样本。
捕捉预览
AVCaptureVideoPreviewLayer顾名思义可以对捕捉到的数据进行实时预览。
捕捉连接
AVCaptureConnection: 捕捉会话中特定输入对和输出对象之间的连接。
案例
实现一个简单的图像捕捉并实时预览的功能
// 创建捕捉会话,AVCaptureSession是捕捉场景的中心枢纽
self.captureSession = [[AVCaptureSession alloc] init];
//拿到默认视频捕捉设备, iOS系统返回后置摄像头
AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
//将捕捉设备封装成AVCaptureDeviceInput,为会话添加捕捉设备必须将设备封装成AVCaptureDeviceInput对象
AVCaptureDeviceInput *deviceInput = [[AVCaptureDeviceInput alloc] initWithDevice:device error:nil];
//canAddInput: 测试是否能被添加到会话中
if ([self.captureSession canAddInput:deviceInput]) {
// 将deviceInput添加到captureSession中
[self.captureSession addInput:deviceInput];
}
//创建预览图层,能够预览到捕捉的实时画面
AVCaptureVideoPreviewLayer *previewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:self.captureSession];
previewLayer.frame = self.view.bounds;
[self.view.layer addSublayer:previewLayer];
// 运行captureSession
[self.captureSession startRunning];