之前c++服务器,是端游转过手游来的,在我不断的优化下,成功从c++98到c++11,以及32位到64位的转变,从端游服务器,转到手游服务器,上线人数单服1W+没太大压力。 go是我业余的时候接触到的,在现在大环境下,高并发和跨平台是现在开发游戏服务器的主流,之前那套c++说实在是够用,只要能达到那个量,单服性能极致,我只服c++。 skynet+lua,c底层,lua逻辑,我也过来过c++底层,lua逻辑,但实际效果是lua并不是我想要去写的,可能我对lua脚本不感兴趣。go做的事情和skynet做的大同小异,都是携程,抢占式g调度模式,go 有个goroutine和channel,skynet lua虚拟机。 当时设计go的时候,由于跟c++大轮子有点出路,c++是循环轮子模式,单逻辑处理能力有目共睹,再设计go的时候我选择了actor模式,每个角色都相互独立,这点携程和信道立功了。全服中,没用到锁的地方不用锁,全服用到锁的地方就一两处,acotr模式立功了,每个角色有各自的消息队列,接受和处理信息。 大体主流网络模式是rpc,不过不是第三方的rpc,而是自己的rpc,不用protbuf那样定义消息体,只需要类型即可,通过refeclt go里面神奇的东西,用好事半功倍,在c++里面只能用宏来实现,或者用template,当然通信方面也支持protobuf客户端与服务器之间的传输。 image.png
第 1 条附言 · 2018-12-13 11:19:28
第 2 条附言 · 2018-12-13 11:20:07
go架设的服务器源码如下https://github.com/bobohume/go-server
8楼 @bobohume "channel本身内部有锁。不过效率比较高点" 我不知道这个结论是怎么得出来的.锁就是锁,不同类型的锁可能性能有区别.但是消费者每次通过channel获取生产者数据,都需要经过锁.那么效率必定高不到那里去.channel如果能实现数据批量处理和队列不限长度,通过一次互斥操作来消耗大量生产者数据,那么锁的消耗就被拉平.或者以其他方式实现队列,比如类似于.NET framework的concurrentqueue采用segment加cas方式实现无锁.那么性能肯定会上去. 有一篇分析golang写的消息队列软件的文章.其中大量使用channel的那一款,性能也出现过瓶颈.