Glusterfs的nfs服务器启动命令如下:
/usr/local/sbin/glusterfs -f /etc/glusterd/nfs/nfs-server.vol -p /etc/glusterd/nfs/run/nfs.pid
-l /usr/local/var/log/glusterfs/nfs.log
说明:所有列出的代码都把错误处理、参数检查和日志输出去掉了!
上面的命令会启动glusterfsd程序,下面是入口函数main的代码实现:
[cpp] view plain copy
整个main做的工作在代码中都有注释了,对于nfs启动比较关心的就是两个函数,一个是命令行参数解析函数parse_cmdline,按照上面给出的命令解析出程序启动的需要的卷文件路径、日志文件路径和存放进程ID的文件。而且程序是以glusterfs模式(有三种模式:(1)glusterfsd;(2)glusterfs;(3)glusterd)运行。
另外一个函数就是初始化具体的卷服务函数glusterfs_volumes_init,根据我们的启动命令是启动nfs类型的服务,每一个卷服务都会用一个xlator表示,代码如下:
[cpp] view plain copy
从启动命令可以看出并没有设置cmd_args->sock_file和cmd_args->volfile_server参数,所以直接进入卷处理函数glusterfs_process_volfp,下面继续看这个函数的实现,如下:
[cpp] view plain copy
继续关注比较重要的,上面代码中最重要的就是激活卷(graph)服务的函数glusterfs_graph_activate 了,所以继续看这个函数的实现,代码如下:
[cpp] view plain copy
在graph初始化函数中有具体初始化xlator的实现,这个就关系到是怎样连接到nfs服务器,所以继续看这个函数的实现:
[cpp] view plain copy
继续看初始化节点xlator的函数xlator_init ,代码如下:
[cpp] view plain copy
继续看__xlator_init (xl);
static int __xlator_init(xlator_t *xl)
{
xlator_t *old_THIS = NULL;
int ret = 0;
old_THIS = THIS;
THIS = xl;
ret = xl->init (xl);//调用具体xlator的init函数完成初始化工作
THIS = old_THIS;
return ret;
}
到此为止就可以看到真正调用NFS的init函数了,这个时候才真正开始执行与nfs服务相关功能的代码。当然在结束服务的时候还会执行fini函数。
先看看这个函数的代码吧,如下:
int init (xlator_t *this) {
struct nfs_state *nfs = NULL;
int ret = -1;
if (!this)
return -1;
nfs = nfs_init_state (this);//初始化一些nfs的选项参数
ret = nfs_add_all_initiators (nfs);//添加所有协议的初始化器
ret = nfs_init_subvolumes (nfs, this->children);//初始化nfs的所有子卷
ret = nfs_init_versions (nfs, this);//初始化所有nfs协议的版本
return ret;
}
上面代码可以看出,init函数的主要作用就是初始化nfs协议的所有版本以及其所有的子卷。下面依次分析各个函数实现的功能。
这个函数代码比较多,分步骤解析:
第一步:判断nfs是否存在子卷,如果不存在就退出,因为必须要有子卷才能正常工作,代码如下:
if ((!this->children) || (!this->children->xlator)) {
gf_log (GF_NFS, GF_LOG_ERROR, “nfs must have at least one” ” child subvolume”);
return NULL;
}
第二步:为nfs_state结构体指针分配内存,分配失败就报错并退出程序,分配内存代码如下:
nfs = GF_CALLOC (1, sizeof (*nfs), gf_nfs_mt_nfs_state);
第三步:启动rpc服务:nfs->rpcsvc = nfs_rpcsvc_init (this->ctx, this->options);
第四步:根据参数nfs.mem-factor设置内存池的大小,用于提高访问速度。
这一步首先调用函数xlator_get_volopt_info 得到参数的值,然后转换为无符号整型并赋值给nfs->memfactor,表示内存因子,然后计算整个内存池的大小并新建这样大小的一个内存池,代码如下;
fopspoolsize = nfs->memfactor * GF_NFS_CONCURRENT_OPS_MULT;
nfs->foppool = mem_pool_new (struct nfs_fop_local, fopspoolsize);
第五步:安装第四步同样的方式解析参数nfs.dynamic-volumes、nfs.enable-ino32和nfs.port,并且赋值给nfs_state结构体中相应的字段保存。
第六步:将nfs_state保存到xlator的私有数据部分并初始化nfs协议版本的链表。
this->private = (void *)nfs;
INIT_LIST_HEAD (&nfs->versions);
经过上面6步这个函数就执行完了,如果其中有地方出错都会进行相应的处理,尤其是资源的释放处理尤为重要,保证不会发生内存泄露。其中第三步是比较重要的复杂的,涉及到rpc服务的初始化工作,所以需要详细分析,因为后面很多操作都会依赖于rpc服务进行通信,nfs_rpcsvc_init函数定义和实现如下:
rpcsvc_t * nfs_rpcsvc_init (glusterfs_ctx_t *ctx, dict_t *options)
{
rpcsvc_t *svc = NULL;
int ret = -1;
int poolsize = 0;
svc = GF_CALLOC (1, sizeof (*svc), gf_common_mt_rpcsvc_t);//分配内存资源
pthread_mutex_init (&svc->rpclock, NULL);//初始化锁
INIT_LIST_HEAD (&svc->stages);//初始化rpc服务的阶段处理链表
INIT_LIST_HEAD (&svc->authschemes);//初始化可用的身份验证方案链表
INIT_LIST_HEAD (&svc->allprograms);//初始化存放所有程序的链表
ret = nfs_rpcsvc_init_options (svc, options);//初始化一些选项信息
ret = nfs_rpcsvc_auth_init (svc, options);//初始化权限信息
poolsize = RPCSVC_POOLCOUNT_MULT * RPCSVC_DEFAULT_MEMFACTOR;//计算内存池大小
svc->connpool = mem_pool_new (rpcsvc_conn_t, poolsize);//为连接对象分配内存池空间
svc->defaultstage = nfs_rpcsvc_stage_init (svc);//初始化默认阶段执行服务
svc->options = options;//赋值选项信息
svc->ctx = ctx;//设置属于哪一个glusterfs的上下文
return svc;
}
这个函数是rpc服务的全局初始化函数,这是rpc服务的开始阶段(rpc服务分为多个阶段实现),等待rpc程序注册的到来。整个函数其实都是在初始化一个结构体的相关内容,就是rpcsvc_t结构体,它的作用就是描述rpc服务的状态(包括各个阶段的,对rpc各个阶段进行统一管理)。下面看看这个结构体的具体定义:
/* Contains global state required for all the RPC services. */
typedef struct rpc_svc_state {
/* Contains the list of rpcsvc_stage_t list of (program, version) handlers. other options. */
/* At this point, lock is not used to protect anything. Later, it’ll be used for protecting stages. */
pthread_mutex_t rpclock;
/* This is the first stage that is inited, so that any RPC based services that do not need multi-threaded
* support can just use the service right away. This is not added to the stages list declared later.
* This is also the stage over which all service listeners are run. */
rpcsvc_stage_t *defaultstage;
/* When we have multi-threaded RPC support, we’ll use this to link to the multiple Stages.*/
struct list_head stages; /* All stages */
unsigned int memfactor;
struct list_head authschemes;/* List of the authentication schemes available. */
dict_t *options;/* Reference to the options */
int allow_insecure;/* Allow insecure ports. */
glusterfs_ctx_t *ctx;
gf_boolean_t register_portmap;
struct list_head allprograms;
struct mem_pool *connpool;/* Mempool for incoming connection objects. */
} rpcsvc_t;
在nfs_rpcsvc_init函数中,有一个初始化权限信息的函数nfs_rpcsvc_auth_init 和一个初始化rpc执行阶段信息的函数nfs_rpcsvc_stage_init需要重点分析。先分析权限信息的初始化函数nfs_rpcsvc_auth_init,如下:
(1)nfs_rpcsvc_auth_init函数
函数定义和实现如下:
int nfs_rpcsvc_auth_init (rpcsvc_t *svc, dict_t *options)
{
int ret = -1;
ret = nfs_rpcsvc_auth_add_initers (svc);//增加auth-null和auth-unix两个关键字代表的初始化函数
ret = nfs_rpcsvc_auth_init_auths (svc, options);//开启权限使能相关选项并且执行初始化函数
return ret;
}
这个函数主要实现增加权限的初始化函数到权限操作链表中,然后通过执行执行初始化函数得到一个描述相关权限信息的结构体,这个结构体包括一些操作函数指针的结构体地址和一些基本信息(如名称)。执行初始化函数并且得到权限描述信息的实现是在如下代码中(在nfs_rpcsvc_auth_init_auths中调用的):
int nfs_rpcsvc_auth_init_auth (rpcsvc_t *svc, dict_t *options, struct rpcsvc_auth_list *authitem)
{
…..
authitem->auth = authitem->init (svc, options);//执行权限的初始化函数
authitem->enable = 1;//权限使能
……
}
这里执行的初始化函数是在上面初始化的,有两类权限的初始化函数,相关内容定义如下:
1)auth-null
rpcsvc_auth_ops_t nfs_auth_null_ops = {//权限操作相关的处理函数
.conn_init = NULL,
.request_init = nfs_auth_null_request_init,
.authenticate = nfs_auth_null_authenticate
};
rpcsvc_auth_t nfs_rpcsvc_auth_null = {//权限描述的结构体和默认值
.authname = “AUTH_NULL”,
.authnum = AUTH_NULL,
.authops = &nfs_auth_null_ops,
.authprivate = NULL
};
rpcsvc_auth_t * nfs_rpcsvc_auth_null_init (rpcsvc_t *svc, dict_t *options)//初始化函数
{
return &nfs_rpcsvc_auth_null;//返回权限描述信息结构体
}
2)auth-unix
rpcsvc_auth_ops_t nfs_auth_unix_ops = {//权限操作相关的处理函数
.conn_init = NULL,
.request_init = nfs_auth_unix_request_init,
.authenticate = nfs_auth_unix_authenticate
};
rpcsvc_auth_t nfs_rpcsvc_auth_unix = {//权限描述的结构体和默认值
.authname = “AUTH_UNIX”,
.authnum = AUTH_UNIX,
.authops = &nfs_auth_unix_ops,
.authprivate = NULL
};
rpcsvc_auth_t * nfs_rpcsvc_auth_unix_init (rpcsvc_t *svc, dict_t *options)//初始化函数
{
return &nfs_rpcsvc_auth_unix;//返回权限描述信息结构体
}
(2)nfs_rpcsvc_stage_init函数
首先还是看看这个函数的定义和实现吧:
rpcsvc_stage_t * nfs_rpcsvc_stage_init (rpcsvc_t *svc)
{
rpcsvc_stage_t *stg = NULL;
int ret = -1;
size_t stacksize = RPCSVC_THREAD_STACK_SIZE;
pthread_attr_t stgattr;
unsigned int eventpoolsize = 0;
stg = GF_CALLOC (1, sizeof(*stg), gf_common_mt_rpcsvc_stage_t);//分配内存资源
eventpoolsize = svc->memfactor * RPCSVC_EVENTPOOL_SIZE_MULT;//计算事件内存池大小
stg->eventpool = event_pool_new (eventpoolsize);//分配内存资源
pthread_attr_init (&stgattr);//初始化线程熟悉值
ret = pthread_attr_setstacksize (&stgattr, stacksize);//设置线程的堆栈大小
ret = pthread_create (&stg->tid, &stgattr, nfs_rpcsvc_stage_proc, (void *)stg);//创建线程
stg->svc = svc;
return stg;
}
这个函数主要就是启动一个线程然后开始分发事件,事件分发函数会等待某一个事件的发生,发生以后会执行以前已经注册的函数指针,在这里就是注册的是权限操作相关的函数。具体的事件处理和分发过程就不在详细分析了!
这个函数主要是添加各个版本的nfs协议的初始化。它三次调用函数nfs_add_initer分别来为mnt3、mnt1和nfs3版本的nfs协议(各个版本的协议内容见附件)进行初始化。详细看看nfs_add_initer函数的代码,如下:
int nfs_add_initer (struct list_head *list, nfs_version_initer_t init)
{
struct nfs_initer_list *new = NULL;
new = GF_CALLOC (1, sizeof (*new), gf_nfs_mt_nfs_initer_list);//分配内存
new->init = init;//赋值初始化函数指针
list_add_tail (&new->list, list);//添加到协议版本链表的末尾
return 0;
}
每个版本的nfs协议都有自己的初始化函数,以便处理那些特殊的协议部分,上面的过程就是将各个版本nfs协议初始化保存到链表中,在使用协议的时候以便调用相应的初始化函数初始化相关协议内容。
(1)mnt3版本协议
mnt3版本的nfs协议的实现函数,代码如下:
rpcsvc_program_t * mnt3svc_init (xlator_t *nfsx)
{
struct mount3_state *mstate = NULL;
mstate = mnt3_init_state (nfsx);
mnt3prog.private = mstate;
return &mnt3prog;
}
这个函数代码很简单,只有两个重点内容需要关注,一个结构体和一个函数,结构体就是mount3_state,它的定义如下:
/* Describes a program and its version along with the function pointers
* required to handle the procedures/actors of each program/version.
* Never changed ever by any thread so no need for a lock. */
struct rpc_svc_program {
struct list_head proglist;
char progname[RPCSVC_NAME_MAX];
int prognum;
int progver;
uint16_t progport; /* Registered with portmap */
int progaddrfamily; /* AF_INET or AF_INET6 */
char *proghost; /* Bind host, can be NULL */
rpcsvc_actor_t *actors; /* All procedure handlers */
int numactors; /* Num actors in actor array */
int proghighvers; /* Highest ver for program supported by the system. */
int proglowvers; /* Lowest ver */
/* Program specific state handed to actors */
void *private;
/* An integer that identifies the min auth strength that is required
* by this protocol, for eg. MOUNT3 needs AUTH_UNIX at least.
* See RFC 1813, Section 5.2.1. */
int min_auth;
/* The translator in whose context the actor must execute. This is
* needed to setup THIS for memory accounting to work correctly. */
xlator_t *actorxl;
};
这个结构体的定义中注释已经很清晰,就不具体分析了,在看看程序中使用这个结构体的赋值,如下:
rpcsvc_program_t mnt3prog = {
.progname = “MOUNT3”,
.prognum = MOUNT_PROGRAM,
.progver = MOUNT_V3,
.progport = GF_MOUNTV3_PORT,
.progaddrfamily = AF_INET,
.proghost = NULL,
.actors = mnt3svc_actors,
.numactors = MOUNT3_PROC_COUNT,
};
这个是这个结构体的静态赋值方式,还有动态的赋值方式,就是上面提到的一个函数mnt3_init_state,也是下面将要分析的,这个函数实现代码如下:
struct mount3_state * mnt3_init_state (xlator_t *nfsx)
{
struct mount3_state *ms = NULL;
int ret = -1;
ms = GF_CALLOC (1, sizeof (*ms), gf_nfs_mt_mount3_state);//分配结构体对象内存
ms->iobpool = nfsx->ctx->iobuf_pool;//IO缓冲池
ms->nfsx = nfsx;//属于哪一个xlator
INIT_LIST_HEAD (&ms->exportlist);//初始化导出列表
ret = mnt3_init_options (ms, nfsx->options);//初始化选项信息
INIT_LIST_HEAD (&ms->mountlist);//初始化挂载列表
LOCK_INIT (&ms->mountlock);//初始化锁
return ms;
}
上面这个函数最主要的工作还是初始化一些相关的参数和选项,其中主要的的内容还是一个结构体和一个函数,结构体就是mount3_state,它的定义如下:
struct mount3_state {
xlator_t *nfsx;
/* The buffers for all network IO are got from this pool. */
struct iobuf_pool *iobpool;
/* List of exports, can be volumes or directories in those volumes. */
struct list_head exportlist;
/* List of current mount points over all the exports from this
* server. */
struct list_head mountlist;
/* Used to protect the mountlist. */
gf_lock_t mountlock;
/* Set to 0 if exporting full volumes is disabled. On by default. */
int export_volumes;
int export_dirs;
};
上面这个结构体基本上描述了mnt3版本的nfs协议的一些状态信息,注释中都有具体的描述了,下面这个函数就是针对这些信息做一些初始化的工作,如下:
int mnt3_init_options (struct mount3_state *ms, dict_t *options)
{
xlator_list_t *volentry = NULL;
int ret = -1;
__mnt3_init_volume_export (ms, options);//根据nfs3.export-volumes配置选项设置导出卷的信息
__mnt3_init_dir_export (ms, options);//根据nfs3.export-dirs配置选项设置导出目录的信息
volentry = ms->nfsx->children;//初始化xlator的链表
while (volentry) {//遍历所有的子xlator
gf_log (GF_MNT, GF_LOG_TRACE, “Initing options for: %s”, volentry->xlator->name);
ret = __mnt3_init_volume (ms, options, volentry->xlator);//初始化xlator的卷信息
volentry = volentry->next;//下一个xlator
}
return ret;
}
上面的代码主要是初始化所有子xlator的卷相关信息,调用函数__mnt3_init_volume实现,代码定义如下(把所有错误处理代码、变量定义和参数检查删掉后的代码):
int __mnt3_init_volume (struct mount3_state *ms, dict_t *opts, xlator_t *xlator)
{
uuid_clear (volumeid);//清除uuid,即设置为0
if (gf_nfs_dvm_off (nfs_state (ms->nfsx)))//关闭动态卷
goto no_dvm;
ret = snprintf (searchstr, 1024, “nfs3.%s.volume-id”, xlator->name);//格式化选项key的字符串
if (dict_get (opts, searchstr)) {//根据选项key得到选项的值
ret = dict_get_str (opts, searchstr, &optstr);//得到字符串形式的值
}
if (optstr) {//如果不为null
ret = uuid_parse (optstr, volumeid);//根据得到的值解析uuid
}
no_dvm:
ret = snprintf (searchstr, 1024, “nfs3.%s.export-dir”, xlator->name);//export-dir选项key
if (dict_get (opts, searchstr)) {//同上
ret = dict_get_str (opts, searchstr, &optstr);
ret = __mnt3_init_volume_direxports (ms, xlator, optstr, volumeid);//初始化卷导出目录
}
if (ms->export_volumes) {//如果导出卷使能
newexp = mnt3_init_export_ent (ms, xlator, NULL, volumeid);//初始化导出环境
list_add_tail (&newexp->explist, &ms->exportlist);//添加导出列表到导出列表的末尾
}
ret = 0;
err:
return ret;
}
由上面代码可知:主要在初始化导出目录和导出环境,具体的实现都是调用相应的函数实现。
总结:这个初始化过程主要是在分配一些资源和建立一些关系,真正处理客户端请求的功能是在很多注册的或关联的函数中,客户端的某一个请求可能就需要调用一个专门的函数来处理。
(2)mnt1版本协议
这个版本的协议实现基本上和mnt3的实现一样,很多函数基本都就是调用mnt3的,不同的就是具体描述相关谢谢的结构体内容不同吧,例如有关信息的客户端请求是执行的处理函数等等。所以不再分析此版本协议初始化。
(3)nfs3版本协议
此版本的nfs协议初始化流程和前面分析的mnt3版本协议基本相同,下面只分析不同的部分,具体流程就不在那么分析了,主要介绍一些重点信息。第一需要介绍的就是nfs3_state结构体,定义如下:
struct nfs3_state {
/* The NFS xlator pointer. The NFS xlator can be running
* multiple versions of the NFS protocol.*/
xlator_t *nfsx;
/* The iob pool from which memory allocations are made for receiving
* and sending network messages. */
struct iobuf_pool *iobpool;
/* List of child subvolumes for the NFSv3 protocol.
* Right now, is simply referring to the list of children in nfsx above. */
xlator_list_t *exportslist;
struct list_head exports;
/* Mempool for allocations of struct nfs3_local */
struct mem_pool *localpool;
/* Server start-up timestamp, currently used for write verifier. */
uint64_t serverstart;
/* NFSv3 Protocol configurables */
size_t readsize;
size_t writesize;
size_t readdirsize;
/* Size of the iobufs used, depends on the sizes of the three params above. */
size_t iobsize;
unsigned int memfactor;
struct list_head fdlru;
gf_lock_t fdlrulock;
int fdcount;
};
上面的结构体主要是记录一些nfs3协议运行过程中的状态信息,每一项的意义代码中有详细注释,理解这些信息对后面其他代码的理解是有非常大的好处的。在看看下面这个结构体的初始化默认值:
rpcsvc_program_t nfs3prog = {
.progname = “NFS3”,
.prognum = NFS_PROGRAM,
.progver = NFS_V3,
.progport = GF_NFS3_PORT,
.progaddrfamily = AF_INET,
.proghost = NULL,
.actors = nfs3svc_actors,
.numactors = NFS3_PROC_COUNT,
/* Requests like FSINFO are sent before an auth scheme
* is inited by client. See RFC 2623, Section 2.3.2. */
.min_auth = AUTH_NULL,
};
在看看里面的nfs3svc_actors这个结构体的值,如下:
rpcsvc_actor_t nfs3svc_actors[NFS3_PROC_COUNT] = {
{“NULL”, NFS3_NULL, nfs3svc_null, NULL, NULL},
{“GETATTR”, NFS3_GETATTR, nfs3svc_getattr,NULL, NULL},
{“SETATTR”, NFS3_SETATTR, nfs3svc_setattr,NULL, NULL},
{“LOOKUP”, NFS3_LOOKUP, nfs3svc_lookup, NULL, NULL},
{“ACCESS”, NFS3_ACCESS, nfs3svc_access, NULL, NULL},
{“READLINK”, NFS3_READLINK, nfs3svc_readlink,NULL, NULL},
{“READ”, NFS3_READ, nfs3svc_read, NULL, NULL},
{“WRITE”, NFS3_WRITE, nfs3svc_write, nfs3svc_write_vec, nfs3svc_write_vecsizer},
{“CREATE”, NFS3_CREATE, nfs3svc_create, NULL, NULL},
{“MKDIR”, NFS3_MKDIR, nfs3svc_mkdir, NULL, NULL},
{“SYMLINK”, NFS3_SYMLINK, nfs3svc_symlink,NULL, NULL},
{“MKNOD”, NFS3_MKNOD, nfs3svc_mknod, NULL, NULL},
{“REMOVE”, NFS3_REMOVE, nfs3svc_remove, NULL, NULL},
{“RMDIR”, NFS3_RMDIR, nfs3svc_rmdir, NULL, NULL},
{“RENAME”, NFS3_RENAME, nfs3svc_rename, NULL, NULL},
{“LINK”, NFS3_LINK, nfs3svc_link, NULL, NULL},
{“READDIR”, NFS3_READDIR, nfs3svc_readdir,NULL, NULL},
{“READDIRPLUS”, NFS3_READDIRP, nfs3svc_readdirp,NULL, NULL},
{“FSSTAT”, NFS3_FSSTAT, nfs3svc_fsstat, NULL, NULL},
{“FSINFO”, NFS3_FSINFO, nfs3svc_fsinfo, NULL, NULL},
{“PATHCONF”, NFS3_PATHCONF, nfs3svc_pathconf,NULL, NULL},
{“COMMIT”, NFS3_COMMIT, nfs3svc_commit, NULL, NULL}
};
由上面两个结构体的值可以看出,一个具体版本的nfs协议都有一个对应的结构体描述其基本信息,还有一个结构体存储了消息与函数的对应关系,当接受到什么消息就执行对应的函数,明白了这一点,其实对于各个版本的协议分析都大同小异了,关键就是在各个函数具体的实现了。而开头就介绍的那个结构体存放的都是一些各个版本不同的信息部分,所以会在rpc_svc_program结构体的private保存(void *类型可以保存任何数据类型,也表示是各个版本的nfs协议的私有部分数据)。
这个函数完成初始化所有子卷的任务,它首先计算需要分配给inode表使用的缓存大小,然后遍历存放子卷的链表,然后依次调用nfs_init_subvolume函数分别初始化每一个子卷,这个函数定义和实现如下:
int nfs_init_subvolume (struct nfs_state *nfs, xlator_t *xl)
{
unsigned int lrusize = 0;
int ret = -1;
lrusize = nfs->memfactor * GF_NFS_INODE_LRU_MULT;//计算在lru链表中inodes的数量
xl->itable = inode_table_new (lrusize, xl);//新建一个inode的表
ret = 0;
err:
return ret;
}
这里最重要的是inode_table_t结构体和inode_table_new函数,inode_table_t定义如下:
struct _inode_table {
pthread_mutex_t lock;
size_t hashsize; /* bucket size of inode hash and dentry hash */
char *name; /* name of the inode table, just for gf_log() */
inode_t *root; /* root directory inode, with number 1 */
xlator_t *xl; /* xlator to be called to do purge */
uint32_t lru_limit; /* maximum LRU cache size */
struct list_head *inode_hash; /* buckets for inode hash table */
struct list_head *name_hash; /* buckets for dentry hash table */
struct list_head active; /* list of inodes currently active (in an fop) */
uint32_t active_size; /* count of inodes in active list */
struct list_head lru; /* list of inodes recently used.
lru.next most recent */
uint32_t lru_size; /* count of inodes in lru list */
struct list_head purge; /* list of inodes to be purged soon */
uint32_t purge_size; /* count of inodes in purge list */
struct mem_pool *inode_pool; /* memory pool for inodes */
struct mem_pool *dentry_pool; /* memory pool for dentrys */
struct mem_pool *fd_mem_pool; /* memory pool for fd_t */
};
结构体中每一项都有详细的注释了,就不多解析了,下面继续分析inode_table_new函数,由于这个函数代码还是有点点多,所以还是采取分步骤来解析,如下:
第一步:定义一个inode_table_t结构体并且分配内存:
inode_table_t *new = NULL;
new = (void *)GF_CALLOC(1, sizeof (*new), gf_common_mt_inode_table_t);
第二步:初始化各个参数;
第三步:初始化各个链表,如下:
INIT_LIST_HEAD (&new->active);//初始化激活链表
INIT_LIST_HEAD (&new->lru);//最近使用链表
INIT_LIST_HEAD (&new->purge);//清楚了的链表
第四步:为inode表设置root的inode节点信息:__inode_table_init_root (new);
第五步:为inode表初始化锁。
上面的第四步是操作inode节点相关的信息,在ext2/3文件系统中也有inode节点,所以具体看看inode节点信息的管理和操作,就从初始化一个inode表的根节点开始,定义如下:
static void __inode_table_init_root (inode_table_t *table)
{
inode_t *root = NULL;//定义inode表的根节点
struct iatt iatt = {0, };//inode节点的属性信息
root = __inode_create (table);//创建一个inode表的根节点
iatt.ia_gfid[15] = 1;//inode节点的属性赋值
iatt.ia_ino = 1;
iatt.ia_type = IA_IFDIR;
table->root = root;//赋值inode表的根节点
__inode_link (root, NULL, NULL, &iatt);//inode节点和属性连接起来
}
整个inode表的初始化完成根节点创建和属性的赋值,下面主要看看两个结构体定义和两个函数的实现,先看看inode和iatt两个结构体的定义,他们的定义中包含很多重要的信息,他们的定义如下:
struct _inode {
inode_table_t *table; /* the table this inode belongs to */
uuid_t gfid;
gf_lock_t lock;
uint64_t nlookup;
uint32_t ref; /* reference count on this inode */
ino_t ino; /* inode number in the storage (persistent) */
ia_type_t ia_type; /* what kind of file */
struct list_head fd_list; /* list of open files on this inode */
struct list_head dentry_list; /* list of directory entries for this inode */
struct list_head hash; /* hash table pointers */
struct list_head list; /* active/lru/purge */
struct _inode_ctx *_ctx; /* replacement for dict_t *(inode->ctx) */
};
struct iatt {
uint64_t ia_ino; /* inode number */
uuid_t ia_gfid;
uint64_t ia_dev; /* backing device ID */
ia_type_t ia_type; /* type of file */
ia_prot_t ia_prot; /* protection */
uint32_t ia_nlink; /* Link count */
uint32_t ia_uid; /* user ID of owner */
uint32_t ia_gid; /* group ID of owner */
uint64_t ia_rdev; /* device ID (if special file) */
uint64_t ia_size; /* file size in bytes */
uint32_t ia_blksize; /* blocksize for filesystem I/O */
uint64_t ia_blocks; /* number of 512B blocks allocated */
uint32_t ia_atime; /* last access time */
uint32_t ia_atime_nsec;
uint32_t ia_mtime; /* last modification time */
uint32_t ia_mtime_nsec;
uint32_t ia_ctime; /* last status change time */
uint32_t ia_ctime_nsec;
};
上面的定义代码中都有很详细的注释了,下面继续看inode节点的创建函数,定义如下:
static inode_t * __inode_create (inode_table_t *table)
{
inode_t *newi = NULL;
newi = mem_get0 (table->inode_pool);//从inode表中的inode内存池中得到一个inode内存
newi->table = table;//想创建的inode属于哪一个inode表
LOCK_INIT (&newi->lock);//操作inode节点以前初始化锁
INIT_LIST_HEAD (&newi->fd_list);//初始化各个链表
INIT_LIST_HEAD (&newi->list);
INIT_LIST_HEAD (&newi->hash);
INIT_LIST_HEAD (&newi->dentry_list);
newi->_ctx = GF_CALLOC (1, (sizeof (struct _inode_ctx) *table->xl->graph->xl_count),
gf_common_mt_inode_ctx);//为多键值对结构体分配内存
if (newi->_ctx == NULL) {
LOCK_DESTROY (&newi->lock);//释放锁
mem_put (table->inode_pool, newi);//把inode节点放回内存池
newi = NULL;
goto out;
}
list_add (&newi->list, &table->lru);//增加链表到最近使用链表
table->lru_size++;//最近使用链表的数量加1
out:
return newi;
}
这里面最难懂也最重要的是mem_get0 函数,它的重要就是从inode节点的内存池中获取一个inode节点对象所需要的内存空间,具体的内存池的管理和分配使用到了slab分配器相关的知识。Slab分配器的思想就是把以前已经分配过的对象内存缓存起来,下一次同类的对象来分配对象就直接从缓存中取得,这样省去分配和初始化的时间(因为是同样的内存对象)。除了mem_get0函数其余代码做一些初始化的相关工作,后面有一个分配多键值对的内存结构体需要分配,如果失败就是归还内存池和释放锁占用的资源。这里可以在学习一点知识就是多键值对的结果,定义如下:
struct _inode_ctx {
union {
uint64_t key; xlator_t *xl_key;
};
union {
uint64_t value1; void *ptr1;
};
union {
uint64_t value2; void *ptr2;
};
};
这个结构体的作用是可以有两种类型的键,也可以有两种类型的值,其中一种可以是任意数据结构,而且这是一种一个键对应两个值的结构,特殊情况特殊的处理,从这里可以学习到,如果以后有一个键关联三个值的时候也可以采取这种方式。虽然这个结构体在这里具体是什么作用还不是很明朗,但是可以肯定的是用处大大的,后面可能会用到。
继续看__inode_link 函数的定义和实现,代码如下:
static inode_t * __inode_link (inode_t *inode, inode_t *parent, const char *name, struct iatt *iatt)
{
dentry_t *dentry = NULL;//目录项和inode相关的变量定义
dentry_t *old_dentry = NULL;
inode_t *old_inode = NULL;
inode_table_t *table = NULL;
inode_t *link_inode = NULL;
table = inode->table;
if (parent) {
if (inode->table != parent->table) {//防止不同的inode表连接起来(成为父子关系)
GF_ASSERT (!”link attempted b/w inodes of diff table”);
}
}
link_inode = inode;
if (!__is_inode_hashed (inode)) {//此inode是否有hash链表
if (!iatt)//属性值不能为null
return NULL;
if (uuid_is_null (iatt->ia_gfid))//uuid不能为null
return NULL;
uuid_copy (inode->gfid, iatt->ia_gfid);//复制uuid到inode节点
inode->ino = iatt->ia_ino;//赋值inode节点数量
inode->ia_type = iatt->ia_type;//inode节点的类型
old_inode = __inode_find (table, inode->gfid);//在inode表里面查找是否存在此inode节点
if (old_inode) {
link_inode = old_inode;//存在
} else {
__inode_hash (inode);//不存在进行hash并进入hash链表
}
}
if (parent) {//父节点不为null
old_dentry = __dentry_grep (table, parent, name);//搜索目录项
if (!old_dentry || old_dentry->inode != link_inode) {//没有找到目录项或目录项不等于当前目录项
dentry = __dentry_create (link_inode, parent, name);//创建一个目录项
if (old_inode && __is_dentry_cyclic (dentry)) {//如果inode已经存在并且目录项是循环的
__dentry_unset (dentry);//取消设置目录项
return NULL;
}
__dentry_hash (dentry);//hash此目录项
if (old_dentry)
__dentry_unset (old_dentry);//取消设置老的目录项
}
}
return link_inode;
}
这个函数比较复杂,主要涉及到一个目录项的操作,目录项本身有inode节点,也有父节点,还包括很多属于此目录项的inode节点,这里使用的链表进行管理的,还有可能维护一个hash链表。对于目录项的各种具体操作就不在详细分析了。毕竟这次的主要任务是分析nfs协议的实现,所以init函数分析到此结束。
前面主要完成了nfs协议相关信息的静态内容初始化,这个函数会根据前面的初始化信息执行各个nfs协议版本的初始化函数init,然后会注册监听事件来监听客户端的请求。这个函数的实现如下:
int nfs_init_versions (struct nfs_state *nfs, xlator_t *this)
{
struct nfs_initer_list *version = NULL;//nfs各个版本协议初始化函数列表
struct nfs_initer_list *tmp = NULL;
rpcsvc_program_t *prog = NULL;//定义个描述rpc服务程序的结构体
int ret = -1;
struct list_head *versions = NULL;
versions = &nfs->versions;//需要遍历的协议链表
list_for_each_entry_safe (version, tmp, versions, list) {//变量所有的nfs协议版本
prog = version->init (this);//调用协议版本的初始化函数(前面已经分析了具体的初始化过程)
prog->actorxl = this;//执行属于哪一个xlator
version->program = prog;//保存初始化函数返回描述协议的rpc服务程序结构体
if (nfs->override_portnum)//是否覆盖端口
prog->progport = nfs->override_portnum;//覆盖端口
ret = nfs_rpcsvc_program_register (nfs->rpcsvc, *prog);//注册rpc服务监听端口
}
return ret;
}
这个函数的作用主要在初始化由rpc服务相关的内容,某个nfs版本的协议初始化在前面已经分析了,所以这个函数中重点需要分析的内容就是注册rpc服务的函数了,先看看实现,如下:
int nfs_rpcsvc_program_register (rpcsvc_t *svc, rpcsvc_program_t program)
{
rpcsvc_program_t *newprog = NULL;
rpcsvc_stage_t *selectedstage = NULL;
int ret = -1;
newprog = GF_CALLOC (1, sizeof(*newprog),gf_common_mt_rpcsvc_program_t);//分配资源
memcpy (newprog, &program, sizeof (program));//拷贝
INIT_LIST_HEAD (&newprog->proglist);//初始化程序链表
list_add_tail (&newprog->proglist, &svc->allprograms);//添加到所有程序链表的末尾
selectedstage = nfs_rpcsvc_select_stage (svc);//选择rpc服务阶段程序
ret = nfs_rpcsvc_stage_program_register (selectedstage, newprog);//执行rpc阶段程序的注册
ret = nfs_rpcsvc_program_register_portmap (svc, newprog);//注册本地端口映射服务
return ret;
}
真正实现监听功能的是在函数nfs_rpcsvc_stage_program_register中,所以下面继续看这个函数的实现:
int nfs_rpcsvc_stage_program_register (rpcsvc_stage_t *stg, rpcsvc_program_t *newprog)
{
rpcsvc_conn_t *newconn = NULL;
rpcsvc_t *svc = NULL;
svc = nfs_rpcsvc_stage_service (stg);//获得阶段服务程序
newconn = nfs_rpcsvc_conn_listen_init (svc, newprog);//创建监听的socket
//注册监听事件发生执行的函数
if ((nfs_rpcsvc_stage_conn_associate (stg, newconn, nfs_rpcsvc_conn_listening_handler, newconn)) == -1) {
}
return 0;
}
这个函数调用nfs_rpcsvc_conn_listen_init函数创建监听使用的socket并且绑定,开始监听客户端的请求,并且初始化一些链接相关的状态信息。具体实现如下:
rpcsvc_conn_t * nfs_rpcsvc_conn_listen_init (rpcsvc_t *svc, rpcsvc_program_t *newprog)
{
rpcsvc_conn_t *conn = NULL;
int sock = -1;
//创建监听socket对象并且设置相应参数和绑定到对应端口,例如地址重用、设置为非阻塞等
sock = nfs_rpcsvc_socket_listen (newprog->progaddrfamily, newprog->proghost, newprog->progport);
conn = nfs_rpcsvc_conn_init (svc, sock);//初始化链接的核心,例如分配链接池等资源
nfs_rpcsvc_conn_state_init (conn);//初始化rpc为已连接状态
return conn;
}
在nfs_rpcsvc_stage_program_register中还有一个很重要的函数是nfs_rpcsvc_stage_conn_associate,它关联一些当有链接请求来的时候执行的函数,这里主要是指客户端链接来的时候服务器响应事件时执行的函数。看看是怎么注册和关联的,如下:
conn->stage = stg;
conn->eventidx = event_register (stg->eventpool, conn->sockfd, handler, data, 1, 0);
终于到达事件处理的核心函数之一了: event_register事件注册函数并且返回注册后id值。这个函数中就一句重点代码:
event_pool->ops->event_register (event_pool, fd, handler, data, poll_in, poll_out);
由前面初始化过程可知,这里的event_pool->ops的值如下:
static struct event_ops event_ops_epoll = {
.new = event_pool_new_epoll,
.event_register = event_register_epoll,
.event_select_on = event_select_on_epoll,
.event_unregister = event_unregister_epoll,
.event_dispatch = event_dispatch_epoll
};
所以这里就是执行event_register_epoll函数,这个函数会在socket描述符上注册一些事件,然后广播一个条件信号,在阻塞的线程就会开始执行并开始调用epoll_wait等待具体的IO事件,当注册的IO事件响应以后会调用响应的函数处理,上面是注册了socket读取事件,也就是如果有客户端的链接请求到来时会执行这里注册的函数,注册的函数定义如下:
int nfs_rpcsvc_conn_listening_handler (int fd, int idx, void *data, int poll_in, int poll_out, int poll_err)
{
rpcsvc_conn_t *newconn = NULL;
rpcsvc_stage_t *selectedstage = NULL;
int ret = -1;
rpcsvc_conn_t *conn = NULL;
rpcsvc_t *svc = NULL;
if (!poll_in)//值处理读取的IO,这里是指客户端发出的链接请求
return 0;
conn = (rpcsvc_conn_t *)data;//得到传输过来的数据
svc = nfs_rpcsvc_conn_rpcsvc (conn);//得到链接阶段的处理程序
newconn = nfs_rpcsvc_conn_accept_init (svc, fd);//接收链接请求并且返回一个新的套接字用于通信
selectedstage = nfs_rpcsvc_select_stage (svc);//选择一个rpc阶段处理程序(链接阶段)
//已经接受连接,需要关联下一个阶段的事件处理程序:指的应该就是数据传输相关,如读写等
ret = nfs_rpcsvc_stage_conn_associate (selectedstage, newconn, nfs_rpcsvc_conn_data_handler, newconn);
return ret;
}
这个函数的功能就是接受客户端的链接并建立新的套接字用于以后单独与客户端通信(传输数据),当然这个新的套接字需要注册相应的读写等epoll事件,注册流程和监听事件完全一样,只是不同的参数(socket和事件类型等)而已。这些事件的处理函数也就是在这里传递函数指针:nfs_rpcsvc_conn_data_handler函数,当有数据传输时就会执行这个函数中的代码,看看它是怎么处理的:
int nfs_rpcsvc_conn_data_handler (int fd, int idx, void *data, int poll_in, int poll_out, int poll_err)
{
rpcsvc_conn_t *conn = NULL;
int ret = 0;
conn = (rpcsvc_conn_t *)data;
if (poll_out)
ret = nfs_rpcsvc_conn_data_poll_out (conn);//处理可写事件(套接字可写)
if (poll_err) {
ret = nfs_rpcsvc_conn_data_poll_err (conn);//处理套接字出错事件
return 0;
}
if ((ret != -1) && poll_in) {//如果处理可写事件失败以后就不处理可读事件了
ret = 0;
ret = nfs_rpcsvc_conn_data_poll_in (conn);//处理可读事件
}
if (ret == -1)
nfs_rpcsvc_conn_data_poll_err (conn);//出错处理
return 0;
}
这个函数基本上就处理客户端与服务器连接以后的各种可读可写事件,具体的处理在各个函数中,就不在详细分析了,相信到达这里以后就不在有其他的难点了。
到此为止这个nfs协议初始化部分分析完毕!
这个函数和init函数做的基本上是完全相反的工作,主要工作就是卸载掉nfs的各个版本的协议并且释放各种资源,实现如下:
int fini (xlator_t *this)
{
struct nfs_state *nfs = NULL;
nfs = (struct nfs_state *)this->private;//从xlator获得私有数据转换为struct nfs_state结构体
nfs_deinit_versions (&nfs->versions, this);//卸载协议
return 0;
}
这个函数代码简单,首先从xlator得到struct nfs_state结构体数据,这是在初始化的时候设置的,然后就调用函数nfs_deinit_versions 来完成协议具体卸载。卸载函数定义如下:
int nfs_deinit_versions (struct list_head *versions, xlator_t *this)
{
struct nfs_initer_list *version = NULL;
struct nfs_initer_list *tmp = NULL;
struct nfs_state *nfs = NULL;
nfs = (struct nfs_state *)this->private;
list_for_each_entry_safe (version, tmp, versions, list) {//遍历所有版本的协议
if (version->program)
nfs_rpcsvc_program_unregister (nfs->rpcsvc, *(version->program));//注销rpc服务过程
list_del (&version->list);//从版本链表中依次删除
GF_FREE (version);//释放内存资源
}
return 0;
}
整个过程都比较简单就不在详细分析卸载过程了。