zfs专题提供zfs的最新资讯内容,帮你更好的了解zfs。
我在SAN上有一个96GB的iSCSI卷,它上面有ZFS池.我已将SAN卷的大小从96重量调整为120GB,但zpool列表仅显示旧空间(96GB).如何实现120G的空间或调整zfs池的大小来利用或识别120GB的空间? 这是一个棘手的问题……过去,重新扫描LUN会使操作系统识别新的设备大小.我的公式曾经是: zpool set autoexpand=on vol1 # Then expand
遇到写入I / O时,zpool iostat -v中的日志列不会显示任何ZIL活动.这会导致将数据写入磁盘时的等待时间高于预期(在争用期间有时超过80毫秒). capacity operations bandwidth pool alloc free read write read write ---------------- -
我在我的工作站上运行 Linux上的ZFS,已经有两年了: [ 273.779699] SPL: Loaded module v0.6.4.2-1~vivid [ 273.824212] ZFS: Loaded module v0.6.4.2-1~vivid, ZFS pool version 5000, ZFS filesystem version 5 [ 280.179534] SPL:
我有一个带有zfs文件系统的服务器(nexenta core),我正在使用zfs share share_nfs共享nfs文件. 当我在我的客户端(一个ubuntu工作站)上挂载文件系统时,我不能拥有原始的UID / GID
我正在使用带有NFSv3的ZFS存储(FreeNAS 9.1). NFS安装在Debian机器上,在那里创建了 linux用户(它们不存在于FreeNAS上).如何启用基于标准 Linux用户的配额?我想在Debian上获得/设置配额,FreeNAS应该进行核算. 这有可能吗? NFSv4会对此有所帮助吗?如果是,如何在FreeNAS上没有相同的Linux用户的情况下挂载NFSv4共享. 谢谢 在
我在托管我们主目录的Ubuntu机器上运行ZFS.该池具有以下ACL设置: # zfs get all homes | grep acl homes aclinherit restricted default homes acltype off default 这里我有两个具有相同权
存储做的RAID-5, SCSI硬盘,操作系统是FreeBSD,文件系统是zfs。 本案例共有12块硬盘,11块硬盘里有数据,1块硬盘是热备盘。其中第6块数据硬盘出现故障,重组时需要将其剔除。  物理盘:     物理盘是指创建RAID所用的每块独立的物理硬盘,组建RAID后,它们叫做RAID的成员盘。 去RAID化:     出现故障后,把物理盘从服务器的槽位上取下来进行检测和分析。离开了服务器
我在FreeBSD机器上制作zpools.在创建zpool时,我观察到以下两种情况: >如果我采用原始磁盘并创建zpool,那么我就可以形成zpool并且它们工作正常. >如果我使用gpart以freebsd-zfs格式格式化磁盘,然后创建zpool,那么它们也能正常工作. 我感到困惑的是,哪种方法更适合创建zpool? 在可能的情况下,最好将整个磁盘与ZFS一起使用. 您的用例无需分区.
首先是一些背景: 我在一家运行 PHP-web应用程序的公司工作.我们在几个Web服务器上通过NFS安装了一个存储后端.今天我们遇到的问题是,如果一个Web服务器通过NFS写入文件,有时该文件在几分钟之后才出现在其他已安装的客户端上.它也没有多余,所以我们不能进行任何“隐形”维护. 我一直在寻找迁移到GlusterFS解决方案(两个或三个复制的砖/机器以实现冗余).现在,使用XFS作为存储文件系统
我正在尝试在CentOS 7(3.10.0-327.10.1)上创建zpools,而zpool命令似乎讨厌“wwn-0x”ID. “zpool status”很明确 – 当前没有在计算机上配置zpool.我有驱动器: lrwxrwxrwx. 1 root root 9 Mar 11 14:30 wwn-0x5000cca2440ba0a0 -> ../../sds lrwxrwxrwx. 1
从概念上讲,我不认为我在这里,我喜欢ZFS的概念.您可以创建一个大磁盘,一切都存储在多个驱动器上,您可以随时增大和缩小池和驱动器.另外,磁盘不需要相同等. 我最讨厌ZFS的是,我可以说,它是在Oracle(以前称为Sun)硬件上运行的Solaris上唯一真正稳定的形式.当然,OpenSolaris存在,FreeBSD支持ZFS,但在非oracle硬件上使用FreeBSD / OpenSolairs
这是我的设置:我正在运行双四核Xeon 2.0Ghz,配备16GB Ram和2 x 2TB WD Green驱动器,FreeBSD 7在根目录上有ZFS.硬盘驱动器位于ZFS镜像中.我正在运行VirtualBox 4.0.14.我有2个 Windows Server 2003 Guest,每个分别使用4 GB的Ram,并且有320 VDI虚拟磁盘,大约70%已满.一台Windows Server是
情况: 在运行OmniOS r151018(95eaa7e)的单个文件服务器上发生以下奇怪问题,该服务器通过SMB向Windows和OS X guest虚拟机提供文件. 通过SMB共享上的“另存为…”对话框窗口保存某些文件(.docx,.xlsx,某些图像)会导致大约3到5秒的延迟,此时应用程序根本没有响应,之后文件正常保存. 问题确实发生在“过夜”,没有对服务器做任何事情,但很难确定确切的日期,
我在Fedora 22计算机上配置了LIO iSCSI Target,将1个LUN导出到2个 Windows Server 2016计算机,这两个计算机都能够无问题地访问磁盘. 这些服务器是HA群集的一部分,当我尝试将磁盘添加到群集时,我收到错误消息,指出“设备尚未就绪”.验证工具说存储因为SCSI-3持久保留而没有通过,但是从我的研究中,这应该给出与我收到的不同的错误. Creating the
我使用ZFS并喜欢它.我知道BtrFS也支持校验和.我被告知在 Windows 2008中可以使用校验和,但我无法验证这一点. 除了ZFS和BtrFS在任何平台上都有校验和文件系统,尤其是Windows吗? Windows因为只有一个文件系统NTFS而闻名.我也无法挖出任何暗示NTFS有校验和的东西.我最接近的是描述保护动态磁盘上GPT块的校验和的文档. “2008年新增内容”文档没有显示NTFS
这是我的愚蠢,数据绝不是至关重要的,现在是第一次学习经验,节省时间第二. 我通过napp-it中的裸骨指令设置了100GB的iSCSI目标.这是一卷LU. 然后我将我的Windows 7机器连接到iSCSI目标,将其格式化为NTFS,并使用一些大型iso文件传输测试其性能.然后我取消映射驱动器,重新连接到目标,并被迫再次格式化为NTFS. 就在那时我意识到我转移的文件只存在于iSCSI目标上.我投
我正在为一家小公司实施一个新的文件存储解决方案,我想使用Server 2008 R2提供Active Directory身份验证,但是在Unix / ZFS文件服务器上托管文件以利用ZFS的重复数据删除,快照和池管理提供.是否有一种简单的方法可以根据Active Directory凭据控制对ZFS共享的访问? 我只想在文件服务器上创建iSCSI目标并让Windows Server处理存储,但我很确
由于PPA zfs-native / stable,我有一个支持ZFS的Ubuntu(13.04)桌面. 一切都很好.我使用以下命令创建了一个名为inground的RAID-Z1池: zpool create inground raidz1 sdb sdc sdd sde sdf 后来,在我无法访问我创建的挂载点之后,当我在池中看到1个不可用和2个损坏的vdev时,我跑了zpool状态并且差点从椅
在我的Ubuntu服务器上,我有几个自动挂载的zfs池.我遇到的问题是,当我尝试在保留权限的同时复制文件时,我收到以下错误: cp: preserving permissions for `blah.txt’: Operation not supported 尽管如此,该文件仍然与原始文件属性重复. 任何人都可以帮助解决这个问题吗? 解决方案:禁用ACL制作 它因为额外的ACL权限 见&给予好评:
我在Ubuntu 16.04上使用Docker CE,ZFS作为Docker的存储.安装程序非常标准: >有一个zpool有多个磁盘 >在zpool上,有一个带有mountpoint / var / lib / docker的zfs文件系统. > Docker发现文件系统是ZFS,并自动使用它 一切都在大部分时间都有效.但是,偶尔我的VM启动时,zpool无法挂载.我相信(虽然我不是100%肯定)