本篇将要用到的是AVMutableComposition
,这是一个将现有的媒体资源进行合并剪切成一个新的视频、音频的类。它提供了以下功能:
- 添加/删除音视频轨道
- 选择音视频轨道的时间段
AVMutableComposition
是继承自AVComposition
。简单的来说,AVComposition
就是将来自多个基于源文件的媒体数据组合在一起显示,或处理来自多个源媒体数据的东西。它是继承自AVAsset
也就是说这都是一家子的东西。如果想更多的了解AVMutableComposition
和AVComposition
的区别的话,建议看一下这篇文章:《OC之合成资源AVComposition》
话不多说,我们先来看看,这个东西应该怎么应用起来吧。
这里大家可以先理解它其实就是一个容器,需要我们放入各种各样的音视频媒体数据,去订制出我们所希望得到的东西,当然正式导出生成视频的是另一个东西:AVAssetExportSession
首先我们导入了需要进行合并的媒体资源文件:
path = Bundle.main.path(forResource: "IMG_2735", ofType: "mp4")
let url = URL.init(fileURLWithPath: path)
let options = [AVURLAssetAllowsCellularAccessKey:false,AVURLAssetPreferPreciseDurationAndTimingKey:true]
firstAsset = AVURLAsset.init(url: url, options: options)
let voicePath = Bundle.main.path(forResource: "SuperMarioBros", ofType: "mp3")
let url2 = URL.init(fileURLWithPath: voicePath!)
secAsset = AVURLAsset.init(url: url2)
let voicePath2 = Bundle.main.path(forResource: "MaiDou", ofType: "mp3")
let url3 = URL.init(fileURLWithPath: voicePath2!)
let thireAsset = AVURLAsset.init(url: url3)
let videoAssetTrack = firstAsset.tracks(withMediaType: .video).first
let audioAssetTrack = secAsset.tracks(withMediaType: .audio).first
let audioAssetTrack2 = thireAsset.tracks(withMediaType: .audio).first
然后我们再来初始化一下容器AVMutableComposition
,并创建对应要放内容的轨道
//合成器
composotion = AVMutableComposition.init()
//视频轨道
let videoCompostiontrack = composotion.addMutableTrack(withMediaType: .video, preferredTrackID: kCMPersistentTrackID_Invalid)
//音频轨道1
let audioCompostiontrack = composotion.addMutableTrack(withMediaType: .audio, preferredTrackID: kCMPersistentTrackID_Invalid)
//音轨2
let audioCompositiontrack2 = composotion.addMutableTrack(withMediaType: .audio, preferredTrackID: kCMPersistentTrackID_Invalid)
这里导入了一个视频文件内容还有,两个音频轨道的内容
这里需要说明一下kCMPersistentTrackID_Invalid
这个ID是用来指定当前所有的资源信息,放到一个Composition里,是准备合成一个的标记。
再把这上面的三个资源都放入里面,在放进去的时候,需要选择每一个资源的时间起止,通过这样来进行准确的混合:
//为视频轨道放入视频
let v = 0.8 * Float(firstAsset.duration.seconds) * videoAssetTrack!.nominalFrameRate
let e = 0.1 * Float(firstAsset.duration.seconds) * videoAssetTrack!.nominalFrameRate
let v_start = CMTime.init(value: CMTimeValue(v), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate))
let v_endTime = CMTime.init(value: CMTimeValue(e), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate))
print(v_start.seconds)
print(v_endTime.seconds)
let theTime = CMTimeRangeMake(start: v_start, duration: v_endTime)
try?videoCompostiontrack?.insertTimeRange(theTime, of: videoAssetTrack!, at: CMTime.zero)
//为音频轨道放入音频
let theTimeAudio = CMTimeRangeMake(start: CMTime.zero, duration: CMTime.init(value: CMTimeValue(e*0.65), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate)))
try?audioCompostiontrack?.insertTimeRange(theTimeAudio, of: audioAssetTrack!, at: CMTime.zero)
//为音频轨道放入音频2
let theTimeAudio2 = CMTimeRangeMake(start: CMTime.zero, duration: (audioAssetTrack2?.timeRange.duration)!)
let st2 = CMTime.init(value: CMTimeValue(e*0.65), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate))
print(st2.seconds)
try?audioCompositiontrack2?.insertTimeRange(theTimeAudio2, of: audioAssetTrack2!, at: st2)
这里需要提醒一下的是,由于每个资源文件的时间帧间隔都有可能存在差异性,所以当为视频轨道配上音频轨道的时候,最好以视频轨道的时间帧间隔作为基准来设置截取的时间段,不然就有可能出现音视频的同步和想象中的不一样的问题。
同样的音视频的裁剪截取、视频帧获取等等,都离不开关键的CMTime,还不了解这个的,需要在进一步的学习高浩浩浩浩浩浩
最后,需要把这个容器内的音视频轨道资源,导出成一个新的文件,这时候就需要用到导出类AVAssetExportSession
:
let exporter = AVAssetExportSession.init(asset: composotion, presetName: AVAssetExportPresetHighestQuality)
let path = NSSearchPathForDirectoriesInDomains(.documentDirectory, .userDomainMask, true).first
let filePath = path!+"/test.mp4"
try?FileManager.default.removeItem(atPath: filePath)
exporter?.outputURL = URL.init(fileURLWithPath: filePath)
exporter?.outputFileType = .mp4
exporter?.shouldOptimizeForNetworkUse = true
exporter?.exportAsynchronously(completionHandler: {
if exporter?.error != nil{
print(exporter?.error)
}else{
}
DispatchQueue.main.async {
self.playIt(url: URL.init(fileURLWithPath: filePath))
}
})
为了验证我们最后是不是成功导出了该视频,我决定在导出成功之后,使用AVPlayer
来播放一下:
func playIt(url:URL) {
let item = AVPlayerItem.init(url: url)
let player = AVPlayer.init(playerItem: item)
let layer = AVPlayerLayer.init(player: player)
layer.frame = playerImgv.frame
layer.videoGravity = .resizeAspect
playerImgv.layer.addSublayer(layer)
player.play()
}
后面或有更多AVFoundation的相关知识记录在此,欢迎关注。