视频播放
播放视频是AVFoundation的最核心功能之一,这里我们将学习创建一个自定义视频播放器.
1. 先了解关于播放功能的类
-
AVPlayer:
AVPlayer
是一个用来播放 基于时间的视听媒体 的管理对象.支持播放 本地,分布下载以及HTTP Live Streaming 协议等得到的流媒体.
AVPlayer
只管理一个单独资源的播放.如果你需要播放多个或循环播放时可以使用它的子类AVQueuePlayer
.
-
AVPlayerLayer:
由于AVPlayer
是一个不可见组件,所以如果要将视频资源导出到用户界面的目标位置,我们需要使用AVPlayerLayer
.
AVPlayerLayer
是构建于Core Animation之上的可视化组件,是扩展了的CALayer
类,作为视频内容的渲染面来在屏幕上显示视频.
因此,创建AVPlayerLayer
需要一个指向AVPlayer
对象的指针,来将图层和播放器紧密绑定在一起,从而保证当播放器基于时间的方法出现时二者能保持同步.
AVPlayerLayer使用比较简单,所以供开发者自定义的地方也少.只有一个videoGravity属性.它定义了三个不同的gravity值,用来确定在承载层的范围内 视频可以拉伸或缩放的 程度.
-
AVPlayerItem:
我们最终目的是使用AVPLayer
来播放AVAsset
. 但是AVAsset
只包含媒体资源的不可变的静态信息.我们无法获取播放的当前时间等动态信息.所以引入AVPlayerItem
和AVPlayerItemTrack
来构建相应的动态内容.
AVPlayerItem
会建立媒体资源动态视角的数据模型 并保存AVPlayer在播放资源时的呈现状态.
AVPlayerItem由一个或多个媒体曲目组成,跟AVAsset中AVAssetTrack对应. AVPlayerItemTrack实例则用于表示播放器条目中的类型统一的媒体流.比如音频流, 视频流.
// 应用流程
//1. 创建AVAsset
AVAsset *asset = [AVAsset assetWithURL:assetURL];
//2. 创建对应播放元素
AVPlayerItem *playerItem = [AVPlayerItem playerItemWithAsset:asset];
//3. 创建播放器
AVPlayer *player = [AVPlayer playerWithPlayerItem: playerItem];
//4. 创建视频显示的图层.
AVPlayerLayer * playerLayer = [AVPlayerLayer playerLayerWithPlayer: player];
// 最后添加图层到view上
当然,上面只是基本步骤,真正应用时还要看当前媒体是否已经加入到了播放队列中,播放器是否准备完全. 可以使用KVO监听AVPlayerItem的status属性得知.
-
补充:CMTime
AVPlayer和AVPlayerItem都是基于时间的对象. AVFoundation使用CMTime数据结构为时间表示. 它属于基于C的底层CoreMedia框架.使用更精确的分数格式来处理时间数据.
typedef struct {
CMTimeValue value;
CMTimeScale timescale;
CMTimeFlags flags;
CMTimeEpoch epoch;
} CMTime;
// 创建时间例子
CMTime halfSecond = CMTimeMake(1,2); // 0.5s
CMTime fiveSeconds = CMTimeMake(5,1); // 5s
CMTime time = CMTimeMake(1,44100); // 44.1赫兹
2. 视频播放器
2.1 创建视频视图UIView.
由上面的类介绍可知,我们要创建视频视图就是使用了AVPlayerLayer图层的UIView. 我们既可以手动创建layer并添加到UIView的原有图层,也可以重写layerClass
方法自定义view的图层类型来使用. 推荐第二种方法, 这样就不用考虑图层级关系了.
// THPlayerView.m
+ (Class)layerClass {
return [AVPlayerLayer class];
}
- (id)initWithPlayer:(AVPlayer *)player {
if (self = [super initWithFrame:CGRectZero]) {
self.backgroundColor = [UIColor blackColor];
self.autoresizingMask = UIViewAutoresizingFlexibleHeight |
UIViewAutoresizingFlexibleWidth;
// 使之成为AVPlayer实例视频输出的图层
[(AVPlayerLayer *) [self layer] setPlayer:player];
// THOverlayView-操作视频交互界面.
[[NSBundle mainBundle] loadNibNamed:@"THOverlayView"
owner:self
options:nil];
[self addSubview:_overlayView];
}
return self;
}
2.2 创建视频控制器
static const NSString *PlayerItemStatusContext;
- (id)initWithURL:(NSURL *)assetURL {
if (self = [super init]) {
// 加载本地或远端视频资源
_asset = [AVAsset assetWithURL:assetURL];
[self prepareToPlay];
}
return self;
}
- (void)prepareToPlay {
NSArray *keys = @[
@"tracks",
@"duration",
@"commonMetadata",
@"availableMediaCharacteristicsWithMediaSelectionOptions"
];
// iOS 7之后可自动载入资源属性.不需要再调用loadValuesAsynchronouslyForKeys
self.playerItem = [AVPlayerItem playerItemWithAsset:self.asset
automaticallyLoadedAssetKeys:keys];
// 监听 playerItem 状态是否准备完全.
[self.playerItem addObserver:self
forKeyPath:STATUS_KEYPATH
options:0
context:&PlayerItemStatusContext];
// 创建视频视图
self.player = [AVPlayer playerWithPlayerItem:self.playerItem];
self.playerView = [[THPlayerView alloc] initWithPlayer:self.player];
}
// KVO实现- 监听状态改变
- (void)observeValueForKeyPath:(NSString *)keyPath
ofObject:(id)object
change:(NSDictionary *)change
context:(void *)context {
if (context == &PlayerItemStatusContext) {
dispatch_async(dispatch_get_main_queue(), ^{
[self.playerItem removeObserver:self forKeyPath:STATUS_KEYPATH];
if (self.playerItem.status == AVPlayerItemStatusReadyToPlay) {
/*
// 此部分设置播放器的时间监听. 下面小结会介绍这个功能
[self addPlayerItemTimeObserver];
[self addItemEndObserverForPlayerItem];
// transport 是自定义的关联属性,用来沟通交互界面和实际视频播放状态信息.
CMTime duration = self.playerItem.duration;
// 设置当前时间和视频总长.将用户界面的时间和播放媒体进行同步 .
[self.transport setCurrentTime:CMTimeGetSeconds(kCMTimeZero)
duration:CMTimeGetSeconds(duration)];
// 传递视频标题, AVAsset没有title属性,这是分类添加的,增加可读性.
[self.transport setTitle:self.asset.title];
*/
// 播放
[self.player play];
} else {
[UIAlertView showAlertWithTitle:@"Error"
message:@"Failed to load video"];
}
});
}
}
通过上面代码视频资源就可以播放了.但是还需要提供用户界面的控制功能,反馈信息.
2.3 时间监听
上面使用了KVO来监听播放条目的status属性,KVO确实可以监听AVPlayerItem和AVPlayer很多属性,但是对于AVPlayer的时间变化这种明显动态特性和非常高的精确度要求,KVO难以胜任.
对此AVPlayer提供了两种基于时间方法进行监听:
- 定期监听:
一定时间间隔获得通知(如更新时间变化,进度条的移动).
- (void)addPlayerItemTimeObserver {
// 创建0.5s的刷新间隔
CMTime interval =
CMTimeMakeWithSeconds(0.5f, NSEC_PER_SEC);
// 一般主线程更新UI,所以用主队列.
dispatch_queue_t queue = dispatch_get_main_queue();
__weak THPlayerController *weakSelf = self;
void (^callback)(CMTime time) = ^(CMTime time) {
NSTimeInterval currentTime = CMTimeGetSeconds(time);
NSTimeInterval duration = CMTimeGetSeconds(weakSelf.playerItem.duration);
[weakSelf.transport setCurrentTime:currentTime duration:duration]; // 回调传入最新值
};
// 返回id型指针, 后面会用此移除监听器. [self.player removeTimeObserver:self.timeObserver];
self.timeObserver =
[self.player addPeriodicTimeObserverForInterval:interval
queue:queue
usingBlock:callback];
}
- 边界监听:
监听视频播放视频通过自定义时间轴边界点.例如播放到25%,50%等.
- (id)addBoundaryTimeObserverForTimes:(NSArray<NSValue *> *)times queue:(nullable dispatch_queue_t)queue usingBlock:(void (^)(void))block;
- 条目结束监听:
还有一个常见监听事件就是播放完毕的时间.当视频播放完毕,AVPlayerItem会发送一个AVPlayerItemDidPlayToEndTimeNotification
通知.
2.4 视频缩略图
现在流行用视频中一个或多个缩略图作为视频封面. 通过AVAssetImageGenerator
类可以实现.
它定义了两个方法实现从视频资源中检索图片.:
-
- (nullable CGImageRef)copyCGImageAtTime:(CMTime)requestedTime actualTime:(nullable CMTime *)actualTime error:(NSError * _Nullable * _Nullable)outError CF_RETURNS_RETAINED;
在指定时间点捕捉图片. -
- (void)generateCGImagesAsynchronouslyForTimes:(NSArray<NSValue *> *)requestedTimes completionHandler:(AVAssetImageGeneratorCompletionHandler)handler;
在指定时间段生成一个图片序列.
AVAssetImageGenerator可以生成本地图片,也能生成持续下载的资源.
// 1 创建AVAssetImageGenerator
self.imageGenerator = [AVAssetImageGenerator assetImageGeneratorWithAsset:self.asset];
// 2. 配置生成图片大小 @2x.
self.imageGenerator.maximumSize = CGSizeMake(200.0f, 0.0f);
// 3. 计算视频中捕捉位置. 均分20份.
CMTime duration = self.asset.duration;
NSMutableArray *times = [NSMutableArray array];
CMTimeValue increment = duration.value / 20;
CMTimeValue currentValue = 2.0 * duration.timescale;
while (currentValue <= duration.value) {
CMTime time = CMTimeMake(currentValue, duration.timescale);
[times addObject:[NSValue valueWithCMTime:time]];
currentValue += increment;
}
__block NSUInteger imageCount = times.count;
__block NSMutableArray *images = [NSMutableArray array];
// 定义handler
AVAssetImageGeneratorCompletionHandler handler;
handler = ^(CMTime requestedTime, // 请求的最初时间,对应于生成图像的调用中指定的times数组中的值.
CGImageRef imageRef, // 生成的CGImageRef.
CMTime actualTime, // 图片实际生成的时间.基于实际效率.
AVAssetImageGeneratorResult result,
NSError *error) {
if (result == AVAssetImageGeneratorSucceeded) { // 图片生成成功.保存图片和对应时间点到thumbnail 模型中
UIImage *image = [UIImage imageWithCGImage:imageRef];
id thumbnail =
[THThumbnail thumbnailWithImage:image time:actualTime];
[images addObject:thumbnail];
} else {
NSLog(@"Error: %@", [error localizedDescription]);
}
// 每次调用减一,为0表示所有图片处理完成.
if (--imageCount == 0) {
dispatch_async(dispatch_get_main_queue(), ^{
NSString *name = THThumbnailsGeneratedNotification;
NSNotificationCenter *nc = [NSNotificationCenter defaultCenter];
[nc postNotificationName:name object:images];
});
}
};
// 调用
[self.imageGenerator generateCGImagesAsynchronouslyForTimes:times
completionHandler:handler];
2.5 显示字幕
AVFoundation提供了展示和隐藏字幕的方法,AVPlayerLayer会自动渲染这些元素. 这里要使用两个类:AVMediaSelectionGroup
和AVMediaSelectionOption
-
AVMediaSelectionOption :
表示AVAsset中备用的媒体呈现方式. 例如通常一个资源可能包含中英双音频,不同指定语言的字幕等备用选择. AVAsset有一个availableMediaCharacteristicsWithMediaSelectionOptions
字符串数组属性, 保存了这些可用选项的媒体特征. 特征这些具体来说有AVMediaCharacteristicAudible(音频)
,AVMediaCharacteristicLegible(字幕或隐式字幕)
和AVMediaCharacteristicVisual(视频)
三方面. -
AVMediaSelectionGroup:
而这个则作为上面类的实例容器,因为通常一个资源可以有一个和多个互斥的AVMediaSelectionOption实例可供选择.
// 检索资源备用呈现方式.(首先需要在一开始加载资源时,添加上availableMediaCharacteristicsWithMediaSelectionOptions属性.参考上面- (void)prepareToPlay 方法)
- (void)loadMediaOptions {
// 这里只检索字幕相关的选项
NSString *mc = AVMediaCharacteristicLegible;
AVMediaSelectionGroup *group =
[self.asset mediaSelectionGroupForMediaCharacteristic:mc];
if (group) {
for (AVMediaSelectionOption *option in group.options) {
NSLog(@"字幕可选方式: %@", option.displayName);
}
}
}
// 选择想要的呈现方式.
- (void)subtitleSelected:(NSString *)subtitle {
NSString *mc = AVMediaCharacteristicLegible;
AVMediaSelectionGroup *group =
[self.asset mediaSelectionGroupForMediaCharacteristic:mc];
BOOL selected = NO;
for (AVMediaSelectionOption *option in group.options) {
// 遍历所有组选项,找到匹配你要的option.
if ([option.displayName isEqualToString:subtitle]) {
// 激活选择
[self.playerItem selectMediaOption:option
inMediaSelectionGroup:group];
selected = YES;
}
}
if (!selected) {
[self.playerItem selectMediaOption:nil
inMediaSelectionGroup:group];
}
}
3. 整合AirPlay
AirPlay是苹果旨在用无线方式将流媒体内容在Apple TV或第三方音频系统上播放.
AVPlayer有一个allowsExternalPlayback
属性,允许启用AirPlay功能,默认是YES.
- 线路选择功能
在播放过程中上滑就能打开系统AirPlay界面,但是其实应用内部也可以提供AirPlay线路选择界面.
UIImage *airplayImage = [UIImage imageNamed:@"airplay"];
self.volumeView = [[MPVolumeView alloc] initWithFrame:CGRectZero];
self.volumeView.showsVolumeSlider = NO;
self.volumeView.showsRouteButton = YES;
[self.volumeView setRouteButtonImage:airplayImage forState:UIControlStateNormal];
[self.volumeView sizeToFit];
NSMutableArray *items = [NSMutableArray arrayWithArray:self.toolbar.items];
UIBarButtonItem *item = [[UIBarButtonItem alloc] initWithCustomView:self.volumeView];
[items addObject:item];
self.toolbar.items = items;
4. AVKit
AVKit简化了视频播放器的创建过程,它使用苹果原生的视频界面,不需要我们过多的自定义.如果你只是在项目中需要简单的播放功能,推荐使用AVKit.
iOS平台AVkit是一个简单的标准框架,只包含一个AVPlayerViewController
类.用于展示并控制AVPlayer实例的播放.具有简单的界面,提供以下几个属性和方法:
使用方法也十分简单
NSString * path = [[NSBundle mainBundle]pathForResource:@"iphone" ofType:@"mp4"];
NSURL *url = [NSURL fileURLWithPath:path];
AVPlayerViewController *playerVC = [[AVPlayerViewController alloc] init];
playerVC.player = [AVPlayer playerWithURL:url];
// 若要使用更多功能.
/// AVPlayerItem *playerItem = [AVPlayerItem alloc] initWithURL: url];
/// playerVC.player = [[AVPlayer alloc] initWithPlayerItem:playerItem];
[self presentViewController:play animated:YES completion:nil];
iOS 8之前提供了MPMoviePlayerController和MPMoviePlayerViewController两个类,它们提供了一种简单的方法将完整视频播放功能整合到应用中,相比较与AVKit, MPMoviePlayerController定义了一些标准播放控件,供我们选择,但是同时它将所有基础功能隐藏,让开发者无法使用AVPlayer层的更高级的基础功能.所以iOS9之后被易用.
而新的AVKit提供了一种动态播放控件,自动为用户提供最好的体验. 并且AVPlayerViewController暴露了底层AVPlayer和AVPlayerItem的接口,也支持开发者使用AVPlayer更高级的功能,