zfs专题提供zfs的最新资讯内容,帮你更好的了解zfs。
我的正常ZFS文件系统构建过程可能类似于: zpool create vol1 -o autoexpand=on -o autoreplace=on mirror nvme0n1 nvme1n1 -f zfs set compression=lz4 vol1 zfs set atime=off vol1 zfs set xattr=sa vol1 zfs set acltype=posixacl
现在我有一个带有ZFS和NFSv4的FreeBSD主机.它被复制到另一个FreeBSD盒子以备份. 对我来说重要的ZFS功能是 >软件RAID6 >快照或其他主机复制方式 >配额 > ACL >在不使主机脱机的情况下更换故障磁盘 题 可以在CentOS 6上使用XFS或GlusterFS进行相同或类似的设置吗? 更新 硬件是 > Supermicro CSE-847E16-R1400LPB机箱,3
这是关于 Linux(CentOS 7)上的zfs的问题.我有一个非常简单的设置,有两个8 TB磁盘,一个磁盘镜像另一个磁盘. zpool create -f -o ashift = 12 $zpoolName mirror $disksById 如果需要更换其中一个磁盘,则根据zpool手册页,替换磁盘的大小必须等于或大于配置中两个磁盘中的最小磁盘.根据我的理解,通常精确的尺寸通常在不同品牌和型
这可能是一个天真的问题,因为我是新手,我找不到任何关于mdadm zfs的结果,但经过一些测试后,它似乎可能有效: 用例是一个带有RAID6的服务器,用于某些不经常备份的数据.我认为任何ZFS或RAID6都能让我受益匪浅.平台是Linux.表现是次要的.所以我正在考虑的两个设置是: > RAID6阵列加常规LVM和ext4 > RAID6阵列加ZFS(无冗余).这是我根本没有看到的第二个选项. 为
使用FreeBSD 9,创建了一个像这样的ZFS文件系统 zfs create tank/project1 zfs set sharenfs=on tank/project1 网上有很多关于在FreeBSD上设置NFSv3的方法,但是我找不到任何一个NFSv4,以及什么时候用ZFS完成NFS共享. 例如. this如何说我必须通过nfsd -u -t -n 4重新启动(NFSv3),但我甚至没有n
首先,快速解释潜在的问题. 我作为系统管理员获得了一份新工作,并使用ZFS作为共享数据的基础继承了一个文件服务器.该池包含许多文件系统但没有卷.最近,服务器上的Samba共享停止工作,这似乎是一个身份验证问题.我们正在与提供AD身份验证集成的Centrify合作,以找出原因. 在我们等待的时候,已经过了一个星期,因此用户变得非常焦躁不安,管理层开始瞪着我们,我们一直试图想出一种以另一种方式分享数据
我已将Ubuntu从版本13.04更新到版本13.10,但发现SATA磁盘ID已更改,我的ZFS池现已失败. 在新的Ubuntu 13.10上,磁盘ID现在是ata- *而不是scsi-SATA_ *. 这是更新后的池状态: pool: nestpool state: UNAVAIL status: One or more devices could not be used because th
我在 Linux上使用ZFS并且遇到了一个相当奇怪的症状,当我向系统添加更多磁盘时,每个驱动器写入的速度都会降低,从而有效地否定了顺序写入性能的额外主轴. 磁盘通过SAS磁盘架上的HBA(LSI 9300-8E)与主机连接 在下面的测试中,我在IO Zone上运行了以下命令 iozone -i 0 -s 10000000 -r 1024 -t 10 以下是我的测试结果: 在我的第一次测试中,我创建
我完全没有意识到ZFS上的 native SMB/CIFS.这个维基文档没有提到性能差异.两者之间存在什么样的性能差异? 根据我的经验,内核模式服务器在我的客户端执行samba.如果性能是您的首要考虑因素,请跳过samba.也就是说,Solaris内核模式SMB / CIFS服务器存在许多限制,最值得注意的是: >仅在全局区域中运行. Samba可以同时在多个隔离区域和/或全局区域中运行. >共享
我在Ubuntu 14.04上创建了一个ZFS池而没有指定RAID或冗余选项,向它写了一些数据,重新启动了机器并且池不再可用(UNAVAIL).我手头没有确切的错误,但它提到没有足够的复制可用.我在池中创建了两个数据存储区,其中包含2个3TB磁盘.我建议ZFS使用重复数据删除功能,此时我并不关心冗余. 我实际上只想要RAID0,所以短期内不需要镜像或冗余.有没有办法用ZFS做到这一点,或者我会更好
我一直在从OpenSloarins中导出NFS(成功): zfs set sharenfs=root=rw=host1:host2:host3 pool1 我按照手册页sharefs,share_nfs行事,但以下不起作用: zfs set sharenfs=root=rw=host1:host2:host3,ro=host4 pool1 所有主机都有松散的访问权 如何以读/写方式与某些主机共享,
我正在尝试使用以下命令创建ZFS池: zpool create MyPool disk /dev/sda 但是,我收到以下错误: cannot use ‘/dev/disk’: must be a block device or regular file 我觉得我应该找到有这个问题的人,但是我无法做到. / dev / sda是​​一个空白驱动器.我哪里错了?在创建zpool之前是否必须格式化驱动
我的测试系统设置是一个简单的raidz 5磁盘(每个8 TB)zpool,256 GB RAM.性能开始良好,吞吐量达到650 MB /秒左右.最终, Linux缓冲区缓存填满并开始导致ZFS ARC缓存缩小,直到它达到大约32 MB的大小.一旦发生这种情况,吞吐量将降至约60 MB /秒. 我尝试了一些内核调优选项,例如将vm.vfs_cache_pressure设置为200,但没有改变问题.
我正在使用 zfs-fuse作为在现有CentOS 5服务器上提供文件系统压缩的方法.我正在处理高度可压缩的数据集(80%),因此zfs-fuse派上用场.我遇到了存储池的文件权限问题. 似乎zfs-fuse忽略或仅部分识别非所有者的文件权限. 假设zfs-fuse文件系统安装在:/ app / november由权限为666(-rw-rw-rw-)和所有者“jack”的文件组成,我可以读取文件并
我运行了一个Proxmox集群,在这个集群上,我在专用网络上有一些虚拟机,其中有一个(Proxmox管理的)CEPH存储后端用于VM磁盘. 运行“Ubuntu 16.04服务器最小虚拟机”的一个(KVM)VM配置了第二个“硬盘”,设置为一个磁盘ZFS池“存储”,使用 zpool create storage /dev/sdb1 它被自动安装到/ storage.该VM还运行nfs-kernel-s
我的服务器在zfs卷上保存增量备份.由于数据非常相似,我可以显着减少增长 – 每天大约有500GB的“新数据”,但池只增加了大约5-10GB /天,其余的存储在重复数据删除/压缩中. 我想将备份复制到加密的USB磁盘,出于这个原因我也将其设置为zfs卷.当我使用rsync或zfs send / recieve同步备份时,似乎所有数据都被再次传输(仅在usb驱动器上存储为重复数据删除).因此,备份目
我在Ubuntu 11.10上运行本机ZFS,在镜像设置中使用2×2 TB驱动器. ZFS文件系统直接安装在Ubuntu中,而不是通过NFS或类似的东西安装,权限也设置为777. 我的问题是,当我删除文件时,它会像你期望的那样消失,但是当我输入zfs列表时,它仍然会报告已用空间,就像文件仍在那里一样.我等了几个小时,我正在运行一个磨砂膏,看看是否能修复它,但这不应该是必要的,是吗? 我猜,答案非常
这个消息对某人来说很熟悉吗? zfs-clu-01a rpcmod: [ID 851375 kern.warning] WARNING: svc_cots_kdup no slots free zfs-clu-01a last message repeated 75220 times 我们在ZFS上使用NFS时遇到了很多麻烦. 实际上我们不能通过NFS复制大文件(> 500mo),我们有性能 的
NFSv3当然不支持ZFS ACL,但如果我有以下设置会发生什么?: +-----------------------------------------+ +-------------+ | FreeBSD ZFS serv1 | NFSv3 | Linux serv2 | | user1: read/writ
我一直很高兴地使用 zfsnap与CentOS和ZFSonLinux以类似于在网站上描述的方式编写脚本,但遇到了一个问题. 不幸的是,几天前备份没有运行,现在我陷入了困境.我的主ZFS服务器上的备份ZFS服务器上有一系列增量备份,主服务器上有一些较新的快照.不幸的是,由于在主服务器上丢失了备份和自动销毁旧快照,因此两个系统之间不再存在执行增量发送的公共快照. 即在备份时有: backuppool/