我正在Linux系统中安装SAP DB,我已经下载并将文件移到所需的目录中。我正在用以下命令解压缩存档:unrar x 5104xxxx_part1.exe
提取之后,所有提取的文件都无法访问(没有rwx),因为需要提取文件的目录是在提取结束时创建的。我尝试在解压缩之前手动创建目录,但在解压缩结束时将删除该目录并重新创建该目录。
我在GCP中有一些非常大的文件,在复制到AWS由lambda处理之前,我想拆分这些文件。据我所知,gsutils中没有任何东西可以做到这一点。Exceeded hard memory limit of 1024 MB with 1787 MB after servicing 0 requests tota
我有一个带有VZFS文件系统的VPS主机。如何确定VZFS分区的最大文件大小?
UPD:自由空间(或全部空间)不是我所需要的。我需要使用一个大型数据库文件(例如,64 it ),所以我需要知道VPS托管的文件系统是否能够处理它。ext3文件系统使用tune2fs很容易计算,但是VPS通过Virtuozzo使用VSFS,而且它被记录为糟糕。对于linux中的某些文件系统,是否有计算最大文件大小的通用方法?