@chnmagnus 没事,多谢了~目前我这边不是很急
ceph rbd:nbd原理前言 rbd是ceph提供的块存储服务。主要有几种使用场景: map成块设备直接使用 结合iSCSI使用 结合OpenStack使用 map成块设备,主要有两种方式: 通过R...
@chnmagnus 我觉得是不是搞错了呢?官方文档里的server和client应该指的是它自己实现的server和client,server不是指内核的nbd模块。总共应该有三个模块:内核的nbd模块、文档中实现的nbd_client和nbd_server。ceph中实现的rbd_nbd应该是集成了文档中的nbd_client和nbd_server,其中server是ceph后端存储。
ceph rbd:nbd原理前言 rbd是ceph提供的块存储服务。主要有几种使用场景: map成块设备直接使用 结合iSCSI使用 结合OpenStack使用 map成块设备,主要有两种方式: 通过R...
@chnmagnus 我看了下ceph源码的实现,使用的ioctl完成了参数的配置,ceph的代码中有通过ioctl配置包括NBD_SET_BLKSIZE、NBD_SET_SIZE、NBD_SET_FLAGS、NBD_SET_TIMEOUT的参数,应该是nbd支持这两种方式的握手。
ceph rbd:nbd原理前言 rbd是ceph提供的块存储服务。主要有几种使用场景: map成块设备直接使用 结合iSCSI使用 结合OpenStack使用 map成块设备,主要有两种方式: 通过R...
请教下,NBD的官方文档里,协议是包括握手和传输两个步骤的,但是看了ceph的rbd_nbd的代码,发现并没有握手的过程,另外,看到官方文档写了一句:Note that there are other ioctl calls available, that are used by the
client to communicate the options to the kernel which were negotiated
with the server during the handshake. This document does not describe
those.不知道是不是说明,在rbd-nbd的代码里,ioctl的通信代替了握手的过程呢?
ceph rbd:nbd原理前言 rbd是ceph提供的块存储服务。主要有几种使用场景: map成块设备直接使用 结合iSCSI使用 结合OpenStack使用 map成块设备,主要有两种方式: 通过R...
前言 rbd是ceph提供的块存储服务。主要有几种使用场景: map成块设备直接使用 结合iSCSI使用 结合OpenStack使用 map成块设备,主要有两种方式: 通过R...