前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >GO、Rust这些新一代高并发编程语言为何都极其讨厌共享内存?

GO、Rust这些新一代高并发编程语言为何都极其讨厌共享内存?

原创
作者头像
beyondma
修改2021-07-31 19:21:05
5700
修改2021-07-31 19:21:05
举报
文章被收录于专栏:Rust学习专栏Rust学习专栏

今天我想再来讨论一下高并发的问题,我们看到最近以Rust、Go为代表的云原生、Serverless时代的语言,在设计高并发编程模式时往往都会首推管道机制,传统意义上并发控制的利器如互斥体或者信号量都不是太推荐。

这里我们先来看一下并发和并行的概念,我们知道并发是一个处理器同时处理多个任务,这里同时是逻辑上的,而并行同一时刻多个物理器同时执行不同指令,这里的同时物理上的。并发是要尽量在目前正在执行的任务遇到阻塞或者等待操作时,释放CPU,让其它任务得以调度,而并行则是同时执行不同任务而不相互影响。

而传统的信号量、互斥体的设计都是为了让单核CPU发挥出最大的性能,让程序在阻塞时释放CPU,通过控制共享变量的访问来达到避免冲突的目的,而想控制好这些共享变量的行为,其关键因此在于设计好时序,从本质上讲控制时序就是给系统加上红绿灯并配备路障,而这里你一定要记住,高性能系统需要的是立交桥、地下隧道这些基础设施,而不是交通信号等控制手段,好的并发系统一定要用流的概念来建模,而不是到处增加关卡路障。现在的处理都是多核架构,因此编程也要向并行倾斜,不过笔者在网上看到很多所谓标榜高并发教程中所举的例子,都把信号灯设计的时序很完美,却偏偏把立交桥全给扔了…..

信号灯应该为导流服务,而不应为限流而生

下面我们来看三段分别对应信号灯控制的操作,互斥体统治的“并发”,以及单纯的串行的代码,代码的目标其实就是要完成从0一直加到3000000的操作。

信号灯控制

其实这种信号量的代码已经基本退化回了顺序执行的方案了。正如我们在前文《GO看你犯错,但是Rust帮你排坑所说》,Rust的变量生命周期检查机制,并不能支持在不同线程之间共享内存,即便可以曲线救国,也绝非官方推荐,因此这里先用Go带各位读者说明。

代码语言:javascript
复制
package main



import (

        "fmt"



        "sync"

        "time"

)



var count int

var wg1 sync.WaitGroup

var wg2 sync.WaitGroup

var wg3 sync.WaitGroup

var wg4 sync.WaitGroup



func goroutine1() {

        wg1.Wait()

        len := 1000000

        for i := 0; i < len; i++ {

                 count++

        }

        wg2.Done()

}



func goroutine2() {

        wg2.Wait()

        len := 1000000

        for i := 0; i < len; i++ {

                 count++

        }

        wg3.Done()

}



func goroutine3() {

        wg3.Wait()

        len := 1000000

        for i := 0; i < len; i++ {

                 count++

        }

        wg4.Done()

}



func main() {

        now := time.Now().UnixNano()

        wg1.Add(1)

        wg2.Add(1)

        wg3.Add(1)

        wg4.Add(1)

        go goroutine1()



        go goroutine2()

        go goroutine3()

        wg1.Done()

        wg4.Wait()



        fmt.Println(time.Now().UnixNano() - now)

        fmt.Println(count)

}

在这里三个子协程goroutine,在4个信号量的控制下以多米诺骨牌的方式依次对于共享变量count进行操作,这段代码的运行结果如下:

代码语言:javascript
复制
4984300

3000000

成功: 进程退出代码 0.

互斥体控制

与信号量完全退化成顺序执行不同,互斥体本质上同一时刻只能有一个goroutine执行到临界代码,但每个goroutine的执行顺序却无所谓,具体如下:

代码语言:javascript
复制
package main



import (

        "fmt"



        "sync"

        "time"

)



var count int

var wg1 sync.WaitGroup

var mutex sync.Mutex



func goroutine1() {

        mutex.Lock()

        len := 1000000

        for i := 0; i < len; i++ {

               count++

        }

        mutex.Unlock()

        wg1.Done()

}



func main() {

        now := time.Now().UnixNano()

        wg1.Add(3)

        go goroutine1()

        go goroutine1()

        go goroutine1()

        wg1.Wait()



        fmt.Println(time.Now().UnixNano() - now)

        fmt.Println(count)

}

从运行实序上来看,互斥体的方案应该和信号量差不多,不过结果却令人意,在互斥体的控制下,这个程序性能反而还下降了30%,具体结果如下:

代码语言:javascript
复制
5986800

3000000

成功: 进程退出代码 0.

串行方式:

最后用最返璞归真的做法,串行操作代码如下:

代码语言:javascript
复制
package main

import (
        "fmt"

        //"sync"
        "time"
)

var count int

func goroutine1() {

        len := 1000000
        for i := 0; i < len; i++ {
               count++
        }
}

func main() {
        now := time.Now().UnixNano()

        goroutine1()
        goroutine1()
        goroutine1()

        fmt.Println(time.Now().UnixNano() - now)
        fmt.Println(count)
}

可以看到从效率上来讲,直接串行的方式和信号量的方式是差不多的,结果如下:

代码语言:javascript
复制
4986700

3000000

成功: 进程退出代码 0.

也就是说费了半天劲,最终结果可能还不如直接串行执行呢。

Rust Future初探

Rust中的future机制有点类似于 JavaScript 中的promise机制。Future机制让程序员可以使用同步代码的方式设计高并发的异步场景。目前虽然Go当中也有一些defer的机制,但远没有Rust中的future这么强大。Future机制将返回值value与其计算方式executor分离,从而让程序员可以不再关注于具体时序机制的设计,只需要指定Future执行所需要的条件,以及执行器即可。

我们来看以下代码。

注:cargo.toml

代码语言:javascript
复制
[dependencies]

futures = { version = "0.3.5", features = ["thread-pool"] }

代码如下:

代码语言:javascript
复制
use futures::channel::mpsc;

use futures::executor;

use futures::executor::ThreadPool;

use futures::StreamExt;

fn main() {

    let poolExecutor = ThreadPool::new().expect("Failed");

    let (tx, rx) = mpsc::unbounded::<String>();

    let future_values = async {

        let fut_tx_result = async move {

       let hello = String::from("hello world");

         for c in hello .chars() {

        tx.unbounded_send(c.to_string()).expect("Failed to send");

    }

           

        };

        poolExecutor.spawn_ok(fut_tx_result);

        let future_values = rx

            .map(|v| v)

            .collect();

        future_values.await

    };

    let values: Vec<String> = executor::block_on(future_values);

    println!("Values={:?}", values);



}

上述代码中我们通过async指定了future_values ,并将这个Future指定给poolExecutor这个线程池执行,最后通过await方法,就可以让future全部执行完毕,而不必再用信号量控制具体的时序。

这样一来,只要深度掌握future机制,就可以不必再关心互斥体、信号量,具体的高度方式完全放心交给计算机去做优化,不但可以节约程序员的时间,也能充分发挥编译器的威力,尾号是避免出现那种扔掉立交桥,只要信号灯低级的错误方式。

Java虽然也有一定的Future实现,并且有Rust不具备的反射能力,但是冷起动一直是困扰Java的痛。因此在目前云原生的时代,Go和Rust尤其是Rust语言以其近首于C语言的启动速度,和运行效率真是很有可能在未来称王。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 信号灯应该为导流服务,而不应为限流而生
    • 信号灯控制
      • 互斥体控制
        • 串行方式:
        • Rust Future初探
        相关产品与服务
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档