我在玩NFS来测试一些客户端选项。
在讨论“选项”问题之前,我只是测试两个客户端到给定服务器的“默认”连接,所以稍后我将能够比较我与默认行为相比的可选行为。
但我注意到,即使客户端都基于ubuntu:20.04,并且都安装了相同版本的nfs-common,它们的行为也有所不同。
下面是设置:
服务器
Ubuntu20.40在一个显示IP 192.168.3.81的桥接病毒盒中。服务器是ubuntu20.04的默认包。
这些是已安装的NFS包:
xavi@iridio:~$ apt list --installed | grep nfs
WARNING: apt does not have a
我无法启动nfs服务。
# systemctl start nfs-server
Failed to start nfs-server.service: Unit is masked.
# service nfs status
Redirecting to /bin/systemctl status nfs.service
Unit nfs.service could not be found.
RPC和NFS都已安装,我注意到在以下文件中没有文件:
# cd /lib/systemd/system/nfs-common.service
bash: cd: /lib/systemd/syste
出于一个非常具体的原因,我试图编译Linux2.6.32.6内核中内置的几个模块。我在NFS上包含了根文件系统,试图通过局域网启动我自己的自定义拯救Live。在包含ROOT_NFS所需的依赖项和模块之后,我尝试只使用make bzImage编译Linux内核。当它运行时,我会得到错误
make[4]: *** No rule to make target './linux-2.6.32.6/include/linux/netfilter/xt_CONNMARK.h', needed by './linux-2.6.32.6/usr/include/linux/netfi
好吧,所以我对这一切都很陌生。我以前从未在Linux服务器上工作过。我有一个Ubuntu服务器和Debian扩展服务器9,我在Ubuntu上安装了nfs服务器,在Debian上安装了nfs客户机。这些机器可以互相切换,但问题是,当我尝试将nfs共享从Ubuntu挂载到debian时,它说。
mount.nfs: connection timed out
我在Debian上运行的命令是:
# mount <ip of Ubuntu>:/export/nfs /mnt/nfs
我在Debian中创建了/mnt/nfs。这里,/export/nfs是我在Ubuntu上创建的目录,所有权是
当我试图在本地kubernetes集群中创建基于nfs的持久卷时,我会得到以下错误:
# kubectl create -f nfs.yaml
error: error validating "nfs.yaml": error validating data: the server could not find the requested resource; if you choose to ignore these errors, turn validation off with --validate=false
nfs.yaml有以下内容:
apiVersion: v1
k
当使用mount和表单<domain/ip>:<path>/<path>或<domain/ip>:/<path>/<path>的路径手动挂载NFS共享时,umount无法在/proc/mounts中找到路径,尽管该路径实际上是在/proc/mounts中列出的。
这与问题中的问题相同:如何解决这个NFS的问题?
复制步骤:
# mount --version
mount from util-linux 2.24.1 (libmount 2.24.0: debug, assert)
# mkdir mountpath
# m
我们注意到,这些错误是在对节点池进行自动标度并将现有节点替换为新的计算实例之后开始的。这种情况也发生在维护窗口中。我们在使用NFS服务器。GCP Kubernetes集群版本为1.21.6
该问题似乎只影响集群上的某些节点。我们已经封锁了安装错误的节点和“健康”节点上的吊舱。
"Unable to attach or mount volumes: unmounted volumes=[vol],
unattached volumes=[vol]: timed out waiting for the condition"
我们也看到了情报人员的错误:
"connectio
我有一个基于BusyBox的嵌入式Linux系统,通过NFS安装RFS。这很好,除非我尝试使用udhcpd来获取eth0的DHCP地址。这会导致NFS挂载停止工作。对发生了什么事有什么想法吗?
/etc/网络/接口是:
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet dhcp
我在启动时看到的问题是:
udhcpc (v1.20.2) started
Sending discover...
Sending select for 10.140.9.57...
Lease of 10.140.9.57 obtained, leas
nfs客户机和服务器都是红帽子企业linux。服务器之间没有防火墙。
nfs服务器在/etc/exports中拥有正确的共享和数据。所有服务都已启动并运行。portmap rpcbind,nfsd.当试图挂载nfs共享时,什么都不会发生。我尝试使用tcpdump来嗅探流量,并在从客户端执行时获取数据:
showmounts -e < nfs server>
rpcinfo -p <nfs server>
这是rpcinfo -p 的输出。
program vers proto port service
100000 4 tcp 1