免费试用
作者: 李建俊
产品技术解读
2019-06-12

上一篇《gRPC Server 的初始化和启动流程》为大家介绍了 gRPC Server 的初始化和启动流程,本篇将带大家深入到grpc-rs这个库里,查看 RPC 请求是如何被封装和派发的,以及它是怎么和 Rust Future 进行结合的。

gRPC C核心

gRPC 包括了一系列复杂的协议和流控机制,如果要为每个语言都实现一遍这些机制和协议,将会是一个很繁重的工作。因此 gRPC 提供了一个统一的库来提供基本的实现,其他语言再基于这个实现进行封装和适配,提供更符合相应语言习惯或生态的接口。这个库就是 gRPC C Core,grpc-rs 就是基于 gRPC C Core 进行封装的。

要说明 grpc-rs 的实现,需要先介绍 gRPC C Core 的运行方式。gRPC C Core 有三个很关键的概念grpc_channelgrpc_completion_queuegrpc_callgrpc_channel在RPC里就是底层的连接,grpc_completion_queue就是一个处理完成事件的队列。grpc_call代表的是一个 RPC。要进行一次 RPC,首先从grpc_channel创建一个 grpc_call,然后再给这个grpc_call发送请求,收取响应。而这个过程都是异步,所以需要调用grpc_completion_queue的接口去驱动消息处理。整个过程可以通过以下代码来解释(为了让代码更可读一些,以下代码和实际可编译运行的代码有一些出入)。

grpc_completion_queue* queue = grpc_completion_queue_create_for_next(NULL); grpc_channel* ch = grpc_insecure_channel_create("example.com", NULL); grpc_call* call = grpc_channel_create_call(ch, NULL, 0, queue, "say_hello"); grpc_op ops[6]; memset(ops, 0, sizeof(ops)); char* buffer = (char*) malloc(100); ops[0].op = GRPC_OP_SEND_INITIAL_METADATA; ops[1].op = GRPC_OP_SEND_MESSAGE; ops[1].data.send_message.send_message = "gRPC"; ops[2].op = GRPC_OP_SEND_CLOSE_FROM_CLIENT; ops[3].op = GRPC_OP_RECV_INITIAL_METADATA; ops[4].op = GRPC_OP_RECV_MESSAGE; ops[4].data.recv_message.recv_message = buffer; ops[5].op = GRPC_OP_RECV_STATUS_ON_CLIENT; void* tag = malloc(1); grpc_call_start_batch(call, ops, 6, tag); grpc_event ev = grpc_completion_queue_next(queue); ASSERT_EQ(ev.tag, tag); ASSERT(strcmp(buffer, "Hello gRPC"));

可以看到,对grpc_call的操作是通过一次grpc_call_start_batch来指定的。这个 start batch 会将指定的操作放在内存 buffer 当中,然后通过grpc_completion_queue_next来实际执行相关操作,如收发消息。这里需要注意的是tag这个变量。当这些操作都完成以后,grpc_completion_queue_next会返回一个包含 tag 的消息来通知这个操作完成了。所以在代码的末尾就可以在先前指定的buffer读出预期的字符串。

由于篇幅有限,对于 gRPC C Core 的解析就不再深入了,对这部分很感兴趣的朋友也可以在github.com/grpc/grpc阅读相关文档和源码。

封装与实现细节

通过上文的分析可以明显看到,gRPC C Core 的通知机制其实和 Rust Future 的通知机制非常类似。Rust Future 提供一个 poll 方法来检验当前 Future 是否已经 ready。如果尚未 ready,poll 方法会注册一个通知钩子task。等到 ready 时,task会被调用,从而触发对这个 Future 的再次 poll,获取结果。task其实和上文中的tag正好对应起来了,而在 grpc-rs 中,tag就是一个储存了task的 enum。

pub enum CallTag { Batch(BatchPromise), Request(RequestCallback), UnaryRequest(UnaryRequestCallback), Abort(Abort), Shutdown(ShutdownPromise), Spawn(SpawnNotify), }

tag之所以是一个 enum 是因为不同的 call 会对应不同的行为,如对于服务器端接受请求的处理和客户端发起请求的处理就不太一样。

grpc-rs 在初始化时会创建多个线程来不断调用grpc_completion_queue_next来获取已经完成的tag,然后根据tag的类型,将数据存放在结构体中并通知task来获取。下面是这个流程的代码。

// event loop fn poll_queue(cq: Arc) { let id = thread::current().id(); let cq = CompletionQueue::new(cq, id); loop { let e = cq.next(); match e.event_type { EventType::QueueShutdown => break, // timeout should not happen in theory. EventType::QueueTimeout => continue, EventType::OpComplete => {} } let tag: Box = unsafe { Box::from_raw(e.tag as _) }; tag.resolve(&cq, e.success != 0); } }

可以看到,tag会被强转成为一个CallTag,然后调用resolve方法来处理结果。不同的 enum 类型会有不同的resolve方式,这里挑选其中CallTag::BatchCallTag::Request来进行解释,其他的CallTag流程类似。

BatchPromise是用来处理上文提到的grpc_call_start_batch返回结果的tagRequestCallback则用来接受新的 RPC 请求。下面是BatchPromise的定义及其resolve方法。

/// A promise used to resolve batch jobs. pub struct BatchPromise { ty: BatchType, ctx: BatchContext, inner: Arc>>, } impl BatchPromise { fn handle_unary_response(&mut self) { let task = { let mut guard = self.inner.lock(); let status = self.ctx.rpc_status(); if status.status == RpcStatusCode::Ok { guard.set_result(Ok(self.ctx.recv_message())) } else { guard.set_result(Err(Error::RpcFailure(status))) } }; task.map(|t| t.notify()); } pub fn resolve(mut self, success: bool) { match self.ty { BatchType::CheckRead => { assert!(success); self.handle_unary_response(); } BatchType::Finish => { self.finish_response(success); } BatchType::Read => { self.read_one_msg(success); } } } }

上面代码中的ctx是用来储存响应的字段,包括响应头、数据之类的。当next返回时,gRPC C Core 会将对应内容填充到这个结构体里。inner储存的是task和收到的消息。当resolve被调用时,先判断这个tag要执行的是什么任务。BatchType::CheckRead表示是一问一答式的读取任务,Batch::Finish表示的是没有返回数据的任务,BatchType::Read表示的是流式响应里读取单个消息的任务。拿CheckRead举例,它会将拉取到的数据存放在inner里,并通知task。而task对应的 Future 再被 poll 时就可以拿到对应的数据了。这个 Future 的定义如下:

/// A future object for task that is scheduled toCompletionQueue. pub struct CqFuture { inner: Arc>, } impl Future for CqFuture { type Item = T; type Error = Error; fn poll(&mut self) -> Poll { let mut guard = self.inner.lock(); if guard.stale { panic!("Resolved future is not supposed to be polled again."); } if let Some(res) = guard.result.take() { guard.stale = true; return Ok(Async::Ready(res?)); } // So the task has not been finished yet, add notification hook. if guard.task.is_none() || !guard.task.as_ref().unwrap().will_notify_current() { guard.task = Some(task::current()); } Ok(Async::NotReady) } }

Inner是一个SpinLock。如果在 poll 时还没拿到结果时,会将task存放在锁里,在有结果的时候,存放结果并通过task通知再次 poll。如果有结果则直接返回结果。

下面是RequestCallback的定义和resolve方法。

酒吧struct RequestCallback {ctx: RequestContext,} impl RequestCallback { pub fn resolve(mut self, cq: &CompletionQueue, success: bool) { let mut rc = self.ctx.take_request_call_context().unwrap(); if !success { server::request_call(rc, cq); return; } match self.ctx.handle_stream_req(cq, &mut rc) { Ok(_) => server::request_call(rc, cq), Err(ctx) => ctx.handle_unary_req(rc, cq), } } }

上面代码中的ctx是用来储存请求的字段,主要包括请求头。和BatchPromise类似,ctx的内容也是在调用next方法时被填充。在resolve时,如果失败,则再次调用request_call来接受下一个 RPC,否则会调用对应的 RPC 方法。

handle_stream_req的定义如下:

pub fn handle_stream_req( self, cq: &CompletionQueue, rc: &mut RequestCallContext, ) -> result::Result<(), Self> { let handler = unsafe { rc.get_handler(self.method()) }; match handler { Some(handler) => match handler.method_type() { MethodType::Unary | MethodType::ServerStreaming => Err(self), _ => { execute(self, cq, None, handler); Ok(()) } }, None => { execute_unimplemented(self, cq.clone()); Ok(()) } } }

从上面可以看到,整个过程先通过get_handler,根据 RPC 想要执行的方法名字拿到方法并调用,如果方法不存在,则向客户端报错。可以看到这里对于UnaryServerStreaming返回了错误。这是因为这两种请求都是客户端只发一次请求,所以返回错误让resolve继续拉取消息体然后再执行对应的方法。

为什么get_handler可以知道调用的是什么方法呢?这是因为 gRPC 编译器在生成代码里对这些方法进行了映射,具体的细节在生成的create_xxx_service里,本文就不再展开了。

小结

最后简要总结一下 grpc-rs 的封装和实现过程。当 grpc-rs 初始化时,会创建数个线程轮询消息队列(grpc_completion_queue)并resolve。当 server 被创建时,RPC 会被注册起来,server 启动时,grpc-rs 会创建数个RequestCall来接受请求。当有 RPC 请求发到服务器端时,CallTag::Request就会被返回并resolve,并在resolve中调用对应的 RPC 方法。而 client 在调用 RPC 时,其实都是创建了一个 Call,并产生相应的BatchPromise来异步通知 RPC 方法是否已经完成。

还有很多 grpc-rs 的源码在我们的文章中暂未涉及,其中还有不少有趣的技巧,比如,如何减少唤醒线程的次数而减少切换、如何无锁地注册调用各个 service 钩子等。欢迎有好奇心的小伙伴自行阅读源码,也欢迎大家提 issue 或 PR 一起来完善这个项目。

点击查看更多TiKV 源码解析系列文章