本系列主要是为了对redis的网络模型和集群原理进行学习,我会用golang实现一个reactor网络模型,并实现对redis协议的解析。
系列源码已经上传github
https://github.com/HobbyBear/tinyredis/tree/chapter2
在介绍redis网络模型前,我们先来看看redis的一条命令执行涉及到哪些阶段。
从连接读取数据 => 协议解析 => 命令执行 => 将结果返回给客户端
而平时我们说的redis的单线程指的则是 命令执行阶段是单线程的,而redis6.0以后协议解析和返回结果给客户端都可以是多线程去进行处理。
由此衍生出redis6.0的网络模型如下:
主线程通过一个epoll实例负责监听连接和等待数据的到达,并且执行解析好的命令。
举个例子,当主线程执行epoll wait时发现有100个socket可读,并且这100个socket都是已经完成连接建立的socket,然后主线程就会把这100个socket分给子线程去进行读取, 当子线程将这些socket的 字节数据解析成redis命令后,会再把这些命令交再给主线程去执行。主线程执行完以后又将这些命令执行结果交给子线程去进行发送。
整个过程可以看到实际的网络io的读取是交给多个线程去执行了,但是命令的执行还是在一个线程完成的。
再用流程图去表示整个过程将会更加清晰,
可以看见,整个过程中命令执行是在主线程去顺序执行的。而现在我们就是要用golang去实现这样一个模型。
要实现主线程等待子线程池执行的效果,我们可以用golang的sync.WaitGroup 实现主协程等待子协程执行完毕的效果,子协程去进行协议的解析,为此,在前面代码的基础上,我封装了两个队列,一个用于读,一个用于写,主协程在需要读写时就将任务丢给队列执行,并等待队列执行完毕。
type Server struct { Poll *poll addr string listener net.Listener ConnMap sync.Map readQueue *ioReadQueue writeQueue *ioWriteQueue }
队列的实现则是利用sync.WaitGroup实现的等待效果,
type ioReadQueue struct { seq atomic.Int32 handle ioReadHandle conns []chan *Conn wg sync.WaitGroup requests []*Request }
handle则是进行协议解析的方法,conns 存放的则是待解析协议的连接,在队列创建时,会启用conns长度大小的协程对conns里的连接进行读取。
func newIoReadQueue(perChannelLen int, handle ioReadHandle, goNum int) *ioReadQueue { res := &ioReadQueue{handle: handle, wg: sync.WaitGroup{}, requests: make([]*Request, 0)} conns := make([]chan *Conn, goNum) for i := range conns { conns[i] = make(chan *Conn, perChannelLen) connlist := conns[i] go func() { for conn := range connlist { .... res.wg.Done() } }() } res.conns = conns return res }
这样便最简单的实现了一个固定大小的协程池,然后继续进行接下来的代码编写。
最终读队列是要对redis协议进行解析,redis的协议是被称作resp协议,由于我的重点并不是放在协议解析上,所以我不打算对resp协议的解析进行具体的讲解。但是我们要做的是对协议层进行抽象,因为当你实现一个网络框架后,你应该让你的框架支持不止一种协议,比如它同时支持http,icmp等等。
源码部分实现了对resp协议和行协议的解析,篇幅有限,所以本文只关注关键逻辑和设计即可
由于网络中传输的都是字节,要转换成特定的协议,必然涉及到字节与协议体的相互转换,所以协议必然有编码和解码的方法。并且对协议的处理也应该有上层应用定义,网络框架只管对数据传输。
这样我便设计出了下面的接口
type ProtocolMsg interface { Bytes() []byte } type Protocol interface { ReadConn(c *Conn) (ProtocolMsg, error) OnExecCmd(msg ProtocolMsg) ProtocolMsg }
ReadConn 用于在连接可读时从连接读取协议数据,这将由应用层自己定义解码操作,OnExecCmd 用于处理解析出的协议消息,OnExecCmd返回结果到时则会由网络框架层进行发送,协议消息编码为字节数据的方式则是ProtocolMsg的Bytes 方法中定义的,ProtocolMsg 会由应用层自己实现。
❗️❗️不过这里还有一点要做修改,ReadConn定义的是解码的操作,直接将网络框架内部的Conn传递给应用层进行读写不够安全,更安全的方式是只传递一个读缓冲区给应用层进行读写。这样的好处还有一个,因为我们的目的是非阻塞的读取连接里的数据,如果连接到达的数据还不能够组成一个完整的协议,那么这个连接已经读取出来的数据应该保存起来,供下次读取时,组成一个完整的协议。
所以,我们要为Conn这个结构定义一个缓冲区了。在通过redis学网络(1)-用go基于epoll实现最简单网络通信框架 里我们定义的Conn结构是
type Conn struct { s *Server conn *net.TCPConn nfd int }
现在还需要为它加一个缓冲区结构,并且为了复用缓冲区内存,我实现了一个RingBuffer 结构,关于其实现的讲解可以参考我的这篇文章go 实现ringbuffer以及ringbuffer使用场景介绍
目前Conn结构将变为
type Conn struct { s *Server conn *net.TCPConn reader *RingBuffer nfd int }
然后协议解码接口我将把缓冲区传进去
type Protocol interface { ReadConn(c *Conn) (ProtocolMsg, error) OnExecCmd(msg ProtocolMsg) ProtocolMsg }
环形缓冲区RingBuffer 的方法我再在这里列举一下
func (r *RingBuffer) Peek(readOffsetBack, n int) ([]byte, error) { ... } func (r *RingBuffer) PeekBytes(readOffsetBack int, delim byte) ([]byte, error) { ... } func (r *RingBuffer) AddReadPosition(n int) { ... }
RingBuffer的peek开头的方法不会改变读指针的位置,但是会读取数据,AddReadPosition则是应用层在判断是完整协议后调用的方法,用于更新读指针的位置。
接着再来看服务器的handle方法主要做的改动。我在关键步骤标记了注释
func (s *Server) handler() { for { // 等待连接事件到达 events, err := s.Poll.WaitEvents() if err != nil { log.Error(err.Error()) continue } for _, e := range events { connInf, ok := s.ConnMap.Load(int(e.FD)) if !ok { continue } conn := connInf.(*Conn) if IsClosedEvent(e.Type) { conn.Close() continue } // 连接可读,则放到读队列 if IsReadableEvent(e.Type) { s.readQueue.Put(conn) } } // 等待读队列任务完成 s.readQueue.Wait() requests := s.readQueue.requests replyMsgs := make([]*Request, 0) // 将读队列解析好的命令进行执行 for _, request := range requests { replyMsgs = append(replyMsgs, &Request{msg: s.protocol.OnExecCmd(request.msg), conn: request.conn}) } // 将执行结果放回到写队列执行 for _, replyMsg := range replyMsgs { s.writeQueue.Put(replyMsg) } // 等待些队列执行完毕 s.writeQueue.Wait() // 由于读队列缓存了中间结果,一次轮询后进行清除 s.readQueue.Clear() } }
对于代码的讲解和设计思路,我这里只是列出了关键的点,细节可能还是需要去看下源码是如何实现的。但是最重要的是通过这个小demo,理解epoll的网络编程并且理解了redis的网络模型。