1,drawcall是什么,为什么要降低drawcall
运行时,整个游戏场景需要交给GPU绘制,因为不同的GPU性能不同,每个GPU都有自己的单次绘制上限,
而drawcall就是整个游戏场景,需要提交给显卡绘制的次数。
从GPU性能角度出发,对于同样的场景,GPU性能越好,绘制的次数越少。
GPU:吞吐量,一次性可以处理多少个三角面
CPU:假设GPU一次性可以处理1000个三角面,但是每次CPU只提交10个三角面,那就浪费了GPU的吞吐量,耗费了GPU性能
PS:通过显示和隐藏物体节点,统计各个物体drawcall的占用情况
2,Text的主要原理与drawcall的影响
Text组件底层用的Shader是和Image是一样的,用的是文字贴图
通过Text组件 + 矢量字库 + 字体大小 + 文本内容 生成一个-------->文本内容现实得效果,生成一个贴图;
底层文本也当成一个贴图来对待,只不过这个贴图,不是Image、美术做的,而是通过Text组件+矢量字库,绘制到一个纹理贴图对象上
问题来了:
两个Label--->2个不同得纹理对象,drawcall合并,label应该是2个drawcall才对;
而事实上Image+2=3个drawcall,为什么不是2个drawcall呢?
两个Label ==> 2个drawcall ==>两个label 1个drawcall
Unity在处理Label的时候,能够将文字 ==》尽可能的生成到一个纹理里面
3,Unity打包图集,进而降低drawcll的原理
UGUI的Image组件的图片,一般能够将drawcall合并,使其shader一样,纹理对象一样,
而同样的纹理,同样的shader,可以合并到一个drawcall里面。
就是讲所有这些散图,打入到一个图片里面,
然后,我们在绘制UGUI物体的时候,根据纹理坐标,找到小图,同样的纹理、shader就是合并
4,RawImage对drawcall的影响
RawImage: Texture + Sprite Image: Sprite
RawImage支持UV坐标,Image不支持
Image可以实现九宫格效果
RawImage单独占用一个drawcall,无法合并drawcall
同一图集的不同图片,RawImage也不能合并drawcall,除非是同一张图片
5,场景物体绘制
Unity会根据Object位置,对场景的影响,来改变物体的层级关系绘制顺序;
在不影响场景效果的情况下,Unity会对UGUI进行绘制顺序的优化,尽可能的降低drawcall
6,UGUI drawcall打断的情况
Image + 图集 一堆节点 ===>1个drawcall
Text组件出现重叠会打乱drawcall
7,网格、纹理、Shader、材质分别是什么
网格:模型的骨骼,由有限个三角面组成,一个三角面有三个顶点,顶点会交叉公用
纹理:图片以一种怎么的形式显示在三角面上面(图片的用途类型)
Shader:一道控制GPU渲染的指令,告诉GPU怎样对颜色、纹理等进行绘制
材质:一种配置文件,根据Shader的显示相应的渲染效果
8,GPU管道流水线:
Ps:主要在GPU上计算,CPU负责把指令插入
流程:
顶点初始化 =》顶点Shader =》Tellellation曲面化 =》
几何shader =》 裁剪,投影 =》三角形遍历 =》片元着色shader =》输出
9,实现灰飞烟灭效果:
移动顶点,给顶点以加速度。看视频弄的Shader有点问题,先贴上来,期待大牛帮我完善。
Shader "Custom/Fzm"
{
Properties
{
_MainTex ("主要的纹理", 2D) = "white" {}
}
SubShader
{
Pass
{
CGPROGRAM
#pragma vertex vert
#pragma fragment frag
struct a2v
{
float4 pos : POSITION;
float2 uv : TEXCOORD0;
};
struct v2g
{
float4 pos : POSITION;
float2 uv : TEXCOORD0;
};
struct g2f
{
float4 svpos : POSITION;
float2 svuv : TEXCOORD0;
};
sampler2D _MainTex;
float time;
float _Speed;
float _ACC;
v2g vert(a2v i)
{
v2g o;
//o.pos = UNITYObjectToClipPos(i.pos);
o.pos = i.pos;
o.uv = i.uv;
return o;
}
[maxvertexcount(1)]
void geom(triangle v2g IN[3],inout PointStream<g2f> pointStream)
{
g2f o;
float3 v1 = IN[1].pos - IN[0].pos;
float3 v2 = IN[2].pos - IN[0].pos;
float3 dir = normalize(cross(v1,v2));
float3 temp = (IN[0].pos + IN[1].pos +IN[2].pos) / 3;
float times = _Time.y - time;
temp +=(_Speed * times + .5 * _ACC * pow(times,2)) * dir;
o.svpos = UnityObjectToClipPos(temp);
o.svuv = (IN[0].uv + IN[1].uv +IN[2].uv) / 3;
pointStream.Append(o);
}
float4 frag(g2f u) : SV_TARGET
{
float4 tex = tex2D(_MainTex,u.svuv);
return tex;
}
ENDCG
}
}
}