Dig101-Go之string那些事

文章目录

  1. 1. 0x01 string对 “+” 拼接的优化
  2. 2. 0x02 string也是一种切片
  3. 3. 0x03 string不能修改
  4. 4. 0x04 string和[]byte,[]rune的相互转化
    1. 4.1. rune => string
    2. 4.2. byte => string
    3. 4.3. string => rune
    4. 4.4. string => byte
  5. 5. 0x05 零拷贝实现[]byte转string
  6. 6. 0x06 string的拼接效率

Dig101: dig more, simplified more and know more

string这么简单,我想你也一直是这样想的,没关系,我也没打算把它搞复杂。

别着急,我们先从string的拼接操作 + 开始

0x01 string对 “+” 拼接的优化

如下代码, s2, s3, s4 具体执行时有啥不同

1
2
3
4
5
s1 := "x"
s2 := s1 + "y" + "x" + "z"
s3 := s1 + "y" + s1 + "z" + s1
s4 := s1 + "y" + s1 + "z" + s1 + "z"
println(s2, s3, s4)

乍一看都是字符串拼接感觉没啥不同,但是当我们用go tool compile -m来打印编译优化时发现

字面量拼接会在编译时就合并到一起"y" + "x" + "z" => "xyz"

1
2
3
4
5
$ go tool compile -m  plus.go
plus.go:21:6: can inline plus
plus.go:23:11: s1 + "yxz" does not escape
plus.go:24:28: s1 + "y" + s1 + "z" + s1 does not escape
plus.go:25:33: s1 + "y" + s1 + "z" + s1 + "z" does not escape

再使用-S打印汇编调用concat相关

1
2
3
4
5
6
7
$ go tool compile -S  plus.go|grep concat
0x0068 00104 (plus.go:20) CALL runtime.concatstring2(SB)
0x00eb 00235 (plus.go:21) CALL runtime.concatstring5(SB)
0x01e1 00481 (plus.go:22) CALL runtime.concatstrings(SB)
rel 105+4 t=8 runtime.concatstring2+0
rel 236+4 t=8 runtime.concatstring5+0
rel 482+4 t=8 runtime.concatstrings+0

发现这三个拼接调用了不同的concatstring方法

其实当string相加是:

  • 编译器先优化掉字面量拼接后
  • 再将剩余待拼接string作为一个切片参数传入concatstring相关函数
    • 当切片长度为 2-5 之间则调用数组参数的concatstring2-concatstring5
    • 否则调用切片参数的concatstrings
  • 如果所有待拼接string总长度小于32, 则会初始化一个栈上的tmpBuf,来避免堆上内存分配。

具体代码调用点如下,感兴趣可以自行查看下

1
2
3
4
5
6
7
8
9
10
// cmd/compile/internal/gc/walk.go 中 addstr
// 调用 runtime/string.go 中 concatstrings

// tmpBuf用来拼接处理过程中优化分配小字符串对象
const tmpStringBufSize = 32
type tmpBuf [tmpStringBufSize]byte

func concatstrings(buf *tmpBuf, a []string) string
func concatstring2(buf *tmpBuf, a [2]string) string
...

0x02 string也是一种切片

如果你查看过concatstrings的内部调用,你会发现有切片的操作

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
func concatstrings(buf *tmpBuf, a []string) string
...
s, b := rawstringtmp(buf, l)
for _, x := range a {
copy(b, x)
b = b[len(x):]
}
...
}

//具体看内部 rawstring 方法,你能发现 b 从何而来
func rawstringtmp(buf *tmpBuf, l int) (s string, b []byte) {
if buf != nil && l <= len(buf) {
b = buf[:l]
s = slicebytetostringtmp(b)
} else {
s, b = rawstring(l)
}
return
}

type stringStruct struct {
str unsafe.Pointer
len int
}

func rawstring(size int) (s string, b []byte) {
p := mallocgc(uintptr(size), nil, false)

stringStructOf(&s).str = p
stringStructOf(&s).len = size

// 这里的 slice 有没有熟悉的感觉
*(*slice)(unsafe.Pointer(&b)) = slice{p, size, size}

return
}

重点就是*(*slice)(unsafe.Pointer(&b)) = slice{p, size, size}

所以string底层不过是caplen一样的[]byte罢了

0x03 string不能修改

1
2
3
4
5
6
s:="abc"
// 可以换底层数据
s="xyz"
// 不能直接修改底层数据
s[0]='b'
// Error: cannot assign to s[0]

那一般怎么改局部字符呢, 有两类利用[]byte[]rune

1
2
3
4
5
6
7
8
9
10
s := "abc好"
// 1.替换byte
bs := []byte(s)
bs[0] = 'x'
println(string(bs))

// 2.替换中文
rs := []rune(s)
rs[3] = '啊'
println(string(rs))

0x04 string和[]byte,[]rune的相互转化

那么对于上边的转化,我们可以依次分析一下,会有一些有趣的地方

rune => string

每个rune底层是int32,是用来utf8字符表示的编码点(Unicode code point),4个byte(uint8)大小

转化前内部先开辟[]byte, 再调用 func encoderune(p []byte, r rune)
判断r底层的[]byte大小, 依次实现拷贝写入。

这里如果你仔细查看encoderune函数,
诸如 _ = p[1],_ = p[2] ...

其实是一种边界检查的优化:消除边界检查
感兴趣的同学可以自行查看

byte => string

直接基于[]byte的首地址和长度构造string结构体,并拷贝内容到数据指向

string => rune

直接开辟[]rune, 遍历string[]rune赋值

因为string遍历等价于对[]rune(string)的遍历

另外string不可修改,所以转换中不需要检测数据竞争(race detect)

string => byte

直接开辟[]byte, 利用copy([]byte, string)拷贝

0x05 零拷贝实现[]byte转string

上边的转化方式都有拷贝,有一种不需要拷贝就可以将[]byte转为string
出现在如下函数

1
2
3
4
5
6
7
8
// 有些编译器会对以下操作中的转string使用优化
// - m[T1{... Tn{..., string(k), ...} ...}] and m[string(k)]
// - "<"+string(b)+">"
// - string(b)=="foo"
func slicebytetostringtmp(b []byte) string {
...
return *(*string)(unsafe.Pointer(&b))
}

原理就是利用string底层是[]byte,所以直接做指针转换。

但是有注意点,转换后不能修改,否则string不可被修改的原则就被破坏了。属于特定使用场景了。

string拼接类库strings.Builder的String方法就利用这一点零拷贝优化转化速度

0x06 string的拼接效率

针对长(long: 256b)、短string(short: 16b)在少量和大量拼接的benchmark,代码见concat_benchmark

对于sprintsprintfstrings.Join压测代码都是提前构建好全部待拼接string列表
其他三个是遍历拼接

concat benchmark

压测结果分析如下:

  • 提前构造好参数情况下

    • sprintsprintf差别不大
    • strings.Join效率最佳(其底层使用strings.Builder这个我们后边对比时再讲)
  • 遍历拼接情况下

    • + 性能差距会越来越大
    • 少量拼接次数下: strings.Builderbytes.Buffer 快, 大量了就不行了

可是官方宣称strings.Builder在结果为string情况下效率更好啊。

仔细看我们发现strings.Builder对应的每次操作alloc数比buffer的多很多,可能是内存分配过多影响了效率。查看压测代码,都是遍历前bf.Reset()重置。

再看源码

1
2
3
4
5
6
7
8
9
10
11
12
13
// Reset resets the buffer to be empty,
// but it retains the underlying storage for use by future writes.
// Reset is the same as Truncate(0).
func (b *Buffer) Reset() {
b.buf = b.buf[:0]
b.off = 0
b.lastRead = opInvalid
}
// Reset resets the Builder to be empty.
func (b *Builder) Reset() {
b.addr = nil
b.buf = nil
}

原来Buffer只是将大小设置为0,没清空内容,而Builder直接清空了内容

也对,Builder利用了零拷贝优化转化string的效率,是不允许修改的。

这也是为啥其内部写操作之前会调用b.copyCheck()去检测是否存在拷贝。

除此之外,其实BufferBuilder还有优化的空间:就是减少内存分配次数

他们底层都使用了[]byte,且都有Grow(size int)方法,所以可以一次分配好大小,

避免多次内存不够去reslice扩容, 详见代码: concatIterWithGrowInit

如此优化后,benchmark的数据能和官方说的对上了,Builder变快了,而且他们每次操作的alloc次数都变成了1.

优化后benchmark

好了,就到这里,希望我没把它搞复杂。

本文代码见 NewbMiao/Dig101-Go

如有疑问,请文末留言交流或邮件:newbvirgil@gmail.com 本文链接 : https://newbmiao.github.io/2020/01/18/dig101-golang-string.html
分享到 次阅读   |  最近更新 :