性能优化
面试题
- 你在项目中是怎么优化内存的?
- 优化你是从哪几方面着手?
- 列表卡顿的原因可能有哪些?你平时是怎么优化的?
- 遇到tableView卡顿吗?会造成卡顿的原因大致有哪些?
一、 CPU 和 GPU
CPU central processing unint 中央处理器
- 对象的创建、销毁、对象属性的调整、布局计算、文本的计算和排版、图片的格式转换和解码、图像的绘制【Core graphics】
- 主要负责计算,计算好后提交给GPU
GPU graphics processing unit 图形处理器
- 纹理的渲染:显示内容到屏幕的数据格式
- 负责渲染,将CPU计算好的数据渲染到屏幕上
- 渲染->存放至帧缓存->从帧缓存中读取出后显示到屏幕上
- iOS中是双缓冲机制,有前帧缓存、后帧缓存
屏幕成像原理
针对一帧画面
1、发出垂直同步信号,意味着要显示新的画面
2、水平同步信号,一行,一行,直到一帧显示完成
2、发出下一个垂直同步信号,继续显示新的画面
以此类推,实现画面连续展示
产生卡顿的原因?
- 掉帧产生卡顿【某一帧的画面CPU计算或者GPU的渲染超时】
解决卡顿的主要思路
- 尽可能减少CPU、GPU资源消耗
- 按照60FPS的刷帧率,每隔16ms就会有以此Vsync信号
卡顿优化 - CPU
- 尽量使用轻量级的对象,比如用不到时间处理的地方,可以考虑使用CALayer取代UIView
- 不要频繁的调用UIView的相关属性,比如frame、bounds、transform等属性,尽量减少不必要的修改
- 尽量提前计算好布局,在有需要时一次性调整对应的属性,不要多次修改属性
- Autolayout会比直接设置frame消耗更多的CPU资源
- 图片的size最好刚好跟UIImageView的size保持一致
- 控制一下现成的最大并发数量
- 尽量把耗时的操作放在子线程
文本处理【尺寸、位置的计算】
图片处理【解码、绘制】
卡顿优化 - GPU
- 尽量减少视图数量和层次
- 尽量避免短时间内大量图片的展示,尽可能将多张图片合并成一张进行展示
- GPU能处理的最大纹理尺寸是 4096 * 4096,一单超过这个尺寸,就会占用CPU资源进行处理,所以纹理尽量不要超过这个尺寸
- 减少透明的视图(alpha < 1),不投名的就设置opaque为YES
- 尽量避免出现离屏渲染
离屏渲染
在OpenGL中有2种渲染方式
- On-Screen Rendering:当前屏幕渲染,在当前用于显示的屏幕缓冲区进行渲染操作
- Off-Screen Rendering:离屏渲染,在当前屏幕缓冲区以外新开辟一个缓冲区进行渲染操作。
离屏渲染消耗性能的原因?
1、需要创建新的缓冲区
2、离屏渲染的整个过程,需要多次切换上下文环境,显示从当前屏幕切换到离屏;等到离屏渲染结束后,将离屏缓冲区的渲染结果显示到屏幕上,又需要将上下文环境从离屏切换到当前屏幕
哪些操作会触发离屏渲染?
1、光栅化,layer.shouldRasterize = YES;
2、遮罩:layer.mask
3、圆角,同时设置layer.masksToBounds = YES、layer.cornerRadius大于0
考虑通过CoreGraphics绘制裁剪圆角,或者叫美工提供圆角图片
4、阴影,layer.shadowXXX
如果设置了layer.shadowPath就不会产生离屏渲染
卡顿检测
1、卡顿,主要是在主线程执行了比较耗时的操作
2、可以添加Oberserver到主线程Runloop中,通过监听RunLoop状态切换的耗时,以达到监控卡顿的目的【LXDAappFluecyMonitor】