zfs专题提供zfs的最新资讯内容,帮你更好的了解zfs。
我计划在 Linux中设置一组3x 2TB 7200rpm驱动器作为LUKS加密的Z-RAID池(用于NAS解决方案). 我对手头问题的理解是,实现这一目标的唯一方法是在每个物理设备上使用luksFormat,然后从解锁的LUKS容器中组装一个zpool. 我对此有以下疑虑: >它会不会严重影响写入性能?在此设置中,冗余数据被多次加密,因为LUKS不“意识到”Z-RAID.在LUKS-on-mda
我已经阅读了很多关于规划ZFS重复数据删除的RAM要求的信息.我刚刚升级了我的文件服务器的RAM以支持ZFS zvols上的一些非常有限的重复数据删除,我不能使用快照和克隆(因为它们是zvols格式化为不同的文件系统)但是将包含很多重复的数据. 我想确保我添加的新RAM将支持我打算做的有限重复数据删除.在计划中,我的数字看起来不错,但我想确定. 如何判断我的实时系统上的ZFS重复数据删除表(DDT
我们是一家进行视频编辑的小公司,除此之外,还需要一个地方来保存大型媒体文件的备份副本,并且可以轻松共享它们. 我有一个设置了Ubuntu Server和4 x 500 GB驱动器的盒子.他们目前使用Samba作为四个共享文件夹设置,Mac / Windows工作站可以看得很好,但我想要一个更好的解决方案.这有两个主要原因: > 500 GB还不够大(有些项目更大) >管理当前设置非常麻烦,因为单个
我在Ubuntu 12.04上从 their PPA开始运行ZoL 0.6.2.它位于具有16GB内存的主机上,旨在使用KVM / Libvirt运行某些VM.一段时间后,ZoL使用了大量内存,在运行一些虚拟机时达到了98%的RAM使用率.这导致新进程拒绝启动“无法分配内存”.在使用ZFS之前,我甚至无法启动所有虚拟机,使用大约40-50%的RAM. 据我所知,如果没有调整,ZoL应该在系统内存不
我在 Linux上有一个ZFS zpool,内核为2.6.32-431.11.2.el6.x86_64,它有一个vdev. vdev是SAN设备.我扩展了SAN的大小,尽管zpool将autoexpand设置为on,但即使重新启动计算机,导出/导入池,并使用zpool online -e,我也无法让池扩展.我确信vdev更大,因为fdisk显示它已从215GiB增加到250 GiB.以下是我所做的
我的任务是通过WAN进行异地备份.两个存储盒都是基于FreeBSD的运行ZFS的NAS盒. 每周一到两次,15-60演出的摄影数据被倾倒到办公室NAS.我的工作是弄清楚如何使用非常慢的DSL连接(~700Kb / s上传)尽可能可靠地获取这些数据.接收盒的形状要好得多,速度为30Mb / s,速度为5Mb / s. 我知道,在场外携带硬盘会更快地移动数据,但在这种情况下它不是一个选项. 我的选择似
Linux上的ZFS是否已经支持加密?如果没有,是否有计划? 我找到了大量的ZFS LUKS信息,但这绝对无趣:我想要ZFS加密,以便我可以使用zfs发送到“不受信任”的备份服务器进行复制.即,zfs发送片段应加密. 如果ZoL不支持加密,除了创建zVol并在其上使用LUKS EXT之外,是否有更优雅的方式(失去了许多ZFS优势)? 还没. 工作正在进行中 ZFS Crypto support ·
我最近刚刚将批量数据存储池(ZFS On Linux 0.6.2,Debian Wheezy)从单设备vdev配置迁移到双向镜像vdev配置. 之前的池配置是: NAME STATE READ WRITE CKSUM akita ONLINE 0 0 0 ST400
我正在使用ZFS为我的主文件服务器运行OpenSolaris.我最初选择ZFS,因为我听到了很多很棒的东西: >自动磁盘跨越(zpools) >软件RAID(RAID-Z) >通过替换RAIDZ’d磁盘自动调整池大小 >块级校验和 >没有实际的单音量限制 >“即将推出”重复数据删除 在开启OpenSolaris一段时间后,它真的让我感到困惑.我知道Fedora / CentOS和Debian /
我在运行在带有12个Midline(7200 RPM)SAS驱动器的HP ProLiant DL180 G6上运行的辅助存储服务器上使用Nexentastor.该系统具有E5620 CPU和8GB RAM.没有ZIL或L2ARC设备. 上周,我创建了一个750GB的稀疏zvol,启用了重复数据删除和压缩功能,可以通过iSCSI与VMWare ESX主机共享.然后,我创建了一个Windows 200
我有一个由6个RAIDZ组成的ZFS池.其中一个RAIDZ降级,原因是单个RAIDZ中的两个磁盘松散合在一起足以使ZFS无法在第二个磁盘发生故障之前从第一个故障中恢复.以下是重启后不久“zpool status”的输出: pool: pod2 state: DEGRADED status: One or more devices has experienced an error resultin
我想使用cron来安排我的ZFS池的定期擦洗,并且在擦除完成后的某个合理的短时间内,通过电子邮件将状态报告发送给我自己.这样做的目的是捕获任何问题而无需手动查找它们(推动而不是拉动). 第一部分很简单:只需设置一个cron作业,以root身份运行zpool scrub $POOL,无论在我的特定情况下是否合理. 第二部分,我不太确定该怎么做. zpool scrub立即返回,然后系统在后台运行sc
使用条带镜像(Raid 10)作为示例,如果两个磁盘扩展到四个,那么两个磁盘中的数据如何在两个镜像中“重新平衡”(展开)? 也就是说,如何将写入一个镜像的文件写入两个镜像以利用条带化磁盘? 只有新写入(附加)数据在所有当前活动的vdev之间拆分,ZFS中没有明确的重新平衡操作. 两种可能的方案: >等到所有旧数据再次写入(因为CoW,这可能需要很长时间,在最坏的情况下,完全写入磁盘所需的时间加倍)
我在自动挂载具有嵌套挂载点的单独池时遇到问题.我使用的是ZfsOn Linux 0.6.2. 目前的情况如下: zpool1 ---> /var zpool1/log ---> /var/log zpool1/mail ---> /var/mail 现在我需要为db添加一个单独的zpool.为了保持目录层次结构一致,我想到了这个: zpool2 ---> /var/db 现在
我开始创建16个完全10亿字节的空文件: for i in {1..16}; do dd if=/dev/zero of=/mnt/temp/block$i bs=1000000 count=1000 &> /dev/null; done 然后我在文件上创建了越来越大的RAIDZ2卷,迫使ashift = 12来模拟4K扇区驱动器,例如 zpool create tank raidz2 -o as
我已经在我的Centos 7中安装了ZFS(0.6.5)并且我还创建了一个zpool,除了我的数据集在重新启动时消失这一切之外,一切正常. 我一直试图在各种在线资源和博客的帮助下调试此问题,但无法获得所需的结果.重启后,当我发出zfs list命令时,我得到“没有数据集可用”,zpool list给出“没有可用的池” 在做了大量的在线研究之后,我可以通过使用zpool import -c cach
我的文件管理器目前有两套基本的md-type软件raid 5套.一个8 x 500 GB和一个4 x 1TB.为了使配置更灵活,我正在考虑添加LVM.在我做之前,我想我也应该研究ZFS. ZFS是否可以在Ubuntu上使用,它可以取代md-raid和lvm吗? ZFS随CDDL许可证一起发布,因此它无法内置到 Linux内核中. 可以在Ubuntu上安装ZFS,有几个人已经发布了howto文档.如
我计划很快建立一个FreeNAS盒子,但如果 Linux上的ZFS最终被证明是可靠的,我可能想切换,只是为了拥有一个更熟悉的操作系统. 所以我想知道我是否可以相信ZFS的不同实现是兼容的.换句话说,如果我只是将引导盘从FreeNAS换成Linux或OpenIndiana,我可以相信我的数据不会发生任何不好的事吗? 这似乎是一个愚蠢的问题 – 显然它应该是兼容的 – 但我猜测ZFS不常用于驱动器在计
我想了解通过10 GbE链接连接的两个ZFS on Linux(ZoL)盒之间的实时复制的最佳解决方案是什么.目标是将它们用于虚拟机;一次只有一个框将运行虚拟机和ZFS文件系统本身.需要在第一个(活动)框上创建快照.我计划使用企业级/近线级SATA磁盘,因此双端口SAS磁盘是不可能的. 我想到了以下几种可能性: >使用iSCSI导出远程磁盘,并在本地机箱的ZFS磁盘和远程iSCSI磁盘之间建立镜像
我正在考虑使用 ZFS on Linux从我的Debian Linux主机上的ext3迁移到ZFS以进行数据存储.我真正想要的ZFS的一个杀手级功能是它的数据完整性保证.随着我的存储需求增加,平凡增长存储的能力也是我期待的. 但是,我也在同一主机上运行了一些VM. (虽然通常情况下,在我的情况下,任何时候主机上只运行一个VM.) 考虑到ZFS的数据校验和写入时复制行为,以及VM磁盘映像是相对较大的