为什么新一代的Rust、Go等编程语言都如此讨厌if-else、Switch结构

点击上图,查看图书详情

作者 | 马超

出品 | CSDN(ID:CSDNnews)

今天我们还是继续来聊高并发的话题,我们知道Swich及if-else分支是一个非常有用的语法,这是一个可以回溯到上世纪的Pascal、C等经典语言的分支结构,主要的作用就是判断变量的取值并将程序代码送入不同的分支,这种设计在当时的环境下非常的精妙,但是在当前最新的CPU环境下,却会带来很多意想不到的坑(www.hecy.cn)。

Swich的坑,环境一变效率就差远了

由于Rust并没有Switch了,因此以下代码就暂用Go语言来演示了。我们先来看以下这段代码:

package main import( "fmt" "math/rand" //"sync" "time" ) funcmain{ now := time. Now. UnixNano count:= []int{ 0, 0, 0, 0, 0, 0} fori := 0; i < 100000; i++ { random := rand. Intn( 100) switchrandom { case1: count[ 1]++ case2: count[ 2]++ case3: count[ 3]++ case4: count[ 4]++ case5: count[ 5]++ default: count[ 0]++ } } fmt. Println(time. Now. UnixNano- now) fmt. Println( count) }

它的运行结果如下:

[root@ecs-a4d3 hello_world]# time ./test1 288084 [99507 86 108 106 96 97] real 0m0.004s user 0m0.003s sys 0m0.001s

我们再稍微把Random的范围由100改为5,

package main import( "fmt" "math/rand" //"sync "time" ) funcmain{ now := time. Now. UnixNano count:= []int{ 0, 0, 0, 0, 0, 0} fori := 0; i < 100000; i++ { random := rand. Intn( 1000) switchrandom { case1: count[ 1]++ case2 count[ 2]++ case3: count[ 3]++ case4: count[ 4]++ case5: count[ 5]++ default: count[ 0]++ } } fmt. Println(time. Now. UnixNano- now) fmt. Println( count) }

上述的代码运行结果如下:

[root@ecs-a4d3 hello_world]# time ./test1 4365712 [20184 20357 19922 19897 19640 0] real 0m0.006s user 0m0.004s sys 0m0.002s

可以看到这两段程序的运行时间相差了30%多,这个结果真的是细思极恐,因为也就是实际代码执行逻辑完全没有任何变化 ,只是变量取值范围有所调整,就会使程序的运行效率大为不同,也就是说当系统遭遇到某些极端情况时,同样的程序所需要的运行时间却有天壤之别,要解释这个问题要从指令流水线说起。

CPU流水线与指令预测

我们知道CPU的每个动作都需要用晶体震荡而触发,以加法ADD指令为例,想完成这个执行指令需要取指、译码、取操作数、执行以及取操作结果等若干步骤,而每个步骤都需要一次晶体震荡才能推进,因此在流水线技术出现之前执行一条指令至少需要5到6次晶体震荡周期才能完成。

为了缩短指令执行的晶体震荡周期,芯片设计人员参考了工厂流水线机制的提出了指令流水线的想法,由于取指、译码这些模块其实在芯片内部都是独立的,完成可以在同一时刻并发执行,那么只要将多条指令的不同步骤放在同一时刻执行,比如指令1取指,指令2译码,指令3取操作数等等,就可以大幅提高CPU执行效率:

以上图流水线为例 ,在T5时刻之前指令流水线以每周期一条的速度不断建立,在T5时代以后每个震荡周期,都可以有一条指令取结果,平均每条指令就只需要一个震荡周期就可以完成。这种流水线设计也就大幅提升了CPU的运算速度。

但是CPU流水线高度依赖指指令预测技术,假如在流水线上指令5本是不该执行的,但却在T6时刻已经拿到指令1的结果时才发现这个预测失败,那么指令5在流水线上将会化为无效的气泡,如果指令6到8全部和指令5有强关联而一并失效的话,那么整个流水线都需要重新建立。

会是编译器隐式likely优化的原因吗?因此为了适应指令流水线的机制,不少对于性能要求极高的程序中,都会将不太会执行到的分支加上unlikely修饰符,从而引导CPU不要预测这个分支上的代码以提升效率,不过这个机制在本例中不太适用,会objdump –S查看原始代码也并没有发现,default前面加上了likely优化。

default: count[ 0]++ 49a0f9: 488b 442460mov 0x60(%rsp),%rax 49a0fe: 48ff 00inc q (%rax) 49a101: eb 84jmp 49a087 <main.main+ 0xa7> case 3: 49a103: 4883f8 03cmp $0x3,%rax 49a107: 750e jne 49a117 <main.main+ 0x137> count[ 3]++ 49a109: 488b 442460mov 0x60(%rsp),%rax 49a10e: 48ff 4018incq 0x18(%rax) 49a112: e9 70ff ff ff jmpq 49a087 <main.main+ 0xa7> case 4: 49a117: 4883f8 04cmp $0x4,%rax 49a11b: 750e jne 49a12b <main.main+ 0x14b>

所以可以看出这个效率差完全是CPU指令预测造成的。也就是说CPU自带的机制就是会对于执行概比较高的分支给出更多的预测倾斜。

Rust的if else 也是一样的坑

当然我们说Switch不好也就不是说if else就避免了这个问题,根据指令流水线的原理,if else在处理分支时情况也一样,因此Rust也不太推荐if else的写法,以Rust为例如下:

use rand::Rng; fn main { let mut rng = rand::thread_rng; let mut arr = [0, 0, 0, 0, 0,0]; //println!("Integer: {}", arr[random]); for i in 0..1000000 { let mut random =rng.gen_range(0,5); if random==0{ arr[0]=arr[0]+1; } else if random==1{ arr[1]=arr[1]+1; } else if random==2{ arr[2]=arr[2]+1; } else if random==3{ arr[3]=arr[3]+1; } else if random==4{ arr[4]=arr[4]+1; } else{ arr[5]=arr[5]+1; } } println!("{},{},{},{},{},{}", arr[0], arr[1], arr[2], arr[3], arr[4], arr[5]); }

将随机数的取值范围调整一下

letmut random =rng.gen_range( 0, 100);

可以观察到这两段程序运行的时间也要相差近40%,这样的结果也深刻说明了一个问题,这个例子其实模拟的是一个极端状态,也就是某一个变量取值突然从0-100变成了0-5那么程序的运行效率可能就会有极大的改变,这个推论就是一旦系统运行在某一个极端状态,比如错误占比过高或者其它极端场景,那么正常情况下的压力测试结果也许就完全不能说明问题了。

哈希表会是个好的选择吗?

我们上文也介绍过哈希表也就是字典,可以快速将键值key转化为值value,从某种程度上讲可以替换switch的作用,按照第一段代码的逻辑,用哈希表重写的方案如下:

packagemain import( "fmt" "math/rand" "time" ) funcmain{ now := time.Now.UnixNano //count := []int{0, 0, 0, 0, 0, 0} count := map[ int] int{ 0: 0, 1: 0, 2: 0, 3: 0, 4: 0, 5: 0} fori := 0; i < 100000; i++ { random := rand.Intn( 5) count[random]++ } fmt.Println(time.Now.UnixNano - now) fmt.Println(count) }

不过这段代码的运行结果如下:

[root@ecs-a4d3 hello_world]# time ./test2 5864780 map[ 0: 201841: 203572: 199223: 198974: 196405: 0] real0m0 .008s user 0m0 .007s sys 0m0 .001s

虽然这个版本性能比较稳定,但却比之前的Switch方案最慢的情况还慢60%,原因也很简单我们之前介绍过哈希表也叫散列表,它的各个元素在内存中的而已并不连续,因此高速缓存对这种数据结构的加速作用有限。

END

主营产品:金属矫直机,金属成型机械,切割设备