mdadm专题提供mdadm的最新资讯内容,帮你更好的了解mdadm。
关于SSD和TRIM的相关问题(参见: Possible to get SSD TRIM (discard) working on ext4 + LVM + software RAID in Linux?),事实证明dmraid现在(或不久)可以支持RAID-1上的TRIM. 通常,我们使用md(通过mdadm)创建我们的RAID-1卷,然后使用LVM创建卷组,然后使用我们选择的文件系统格式化(最
我们有一些服务器在非常恶劣的环境(研究船)中运行,需要具备高可用性. 我们有软件RAID 1用于某种弹性测量,以及适当的数据备份(磁带等),但是我们希望能够打破新服务器并从已知的良好副本中重新映像(包括RAID设置)生产箱上的硬件完全失效.简单的过程是一个很大的优点. 我对有关解决此问题的最佳方法的任何建议感兴趣.我目前的方法(相对较新的Linux管理,对MDADM来说是全新的)是使用DD来获取其
问题主要在于标题. mdadm和/ proc / mdstat坚持用他们的“传统”/ dev / sdX名称列出md成员. 我想要的是让他们使用更新的udev设备名称(例如/ dev / disk / by-path和by-id). 我已经改变了/etc/mdadm/mdadm.conf DEVICE partitions 至 DEVICE /dev/disk/by-path/* 但这似乎根本没有
我的RAID1降级了,我需要替换/ dev / sdb.但是,我可以将/ dev / sdb5(在/ dev / md1中)标记为失败并将其删除,但我不能对/ dev / sdb1(安装在/上的/ dev / md0)执行相同的操作: root@kes:~# mdadm /dev/md0 --fail /dev/sdb1 mdadm: set /dev/sdb1 faulty in /dev/md
首先,我更愿意提到我已找到并阅读 this. 我正在使用标准的3.16内核运行Debian Jessie. 我手动定义了一个RAID1阵列.但它不会在启动时自动组装.因此,在尝试安装/ etc / fstab中描述的FS之后,systemd会回退到某些降级的shell.如果fstab中的那一行被注释,那么引导过程就会结束但是RAID阵列不可用.手动组装它不会触发任何错误.然后安装FS很简单. 手动
我刚刚用mdadm完成了一个CentOS 6.3 64位服务器的设置,但是一个灯泡继续运行,我意识到grub只能安装在第一个驱动器上,这个驱动器和摩托车上的烟灰缸一样多. 我试着证实我的怀疑: grub> find /grub/stage1 find /grub/stage1 (hd0,0) 所以我将设备地图更新为: (fd0) /dev/fd0 (hd0) /dev/sda (hd1)
我有一个带有MD raid的Debian服务器(2个活动,一个备用): Personalities : [raid1] md1 : active raid1 sdc2[0] sdb2[1] sda2[2](S) 1068224 blocks [2/2] [UU] md0 : active raid1 sdc1[2](S) sdb1[1] sda1[0] 48731558
我不知道为什么,但是在我重新启动ec2实例后,/ dev / md0没有像往常那样启动.在我看到/ dev / md *中可用的内容之后,有一个名为/ dev / md127的设备,而不是看到/ dev / md0.我更新了fstab以反映新设备并能够成功安装它.查看/ proc / mdstat,它使用最初创建RAID的正确的基础临时卷: [root@ip-10-0-1-21 ~]# cat /
我最近将RAID5中的磁盘从3x2TB更改为3x3TB.我还想将块大小从默认的512k更改为128k.我已将所有新设备添加到阵列中并运行: mdadm /dev/md1 --grow --backup-file=/boot/md1_grow_backup_file --chunk=128 –backup-file选项是必需的,因为块大小更改并且由它指定的文件位于不同的块设备上. 我必须关闭服务器以
我正在运行Ubuntu 12.04 LTS.昨天我在邮箱中发现一条消息说我的服务器已关闭.我继续重新启动系统,但几分钟后它没有出现,我没有硬件KVM系统来查看内核打印到终端的内容.所以我重新启动系统到 Linux救援映像,我看到软件RAID 1阵列不同步.救援系统也开始重建RAID阵列. 到目前为止,没有证据表明任何磁盘存在硬件错误.到目前为止,SMART状态看起来很好. 即使在/etc/mdad
使用Debian 6.0 / squeeze设置的服务器.在挤压安装期间,我将两个500GB SATA磁盘(/ dev / sda和/ dev / sdb)配置为RAID1(使用mdadm管理). RAID保留500 GB LVM卷组(vg0).在卷组中,有一个逻辑卷(lv0). vg0-lv0使用extfs3格式化并作为根分区挂载(没有专用/启动分区).系统使用GRUB2启动. 在正常使用中,系
就这样我们清楚发生了什么: >我买了4个新的sata 2驱动器,目的是在raid5中使用它们 >所有驱动器都被我的BIOS和我的linux盒子(gentoo)完全识别 >我创建了一个raid5数组,用它来摆弄它以了解它是如何工作的,如何监视等等. >在某些时候,这会触发降级阵列事件,即使阵列是全新的.我试图停止阵列并使用相同的驱动器重新创建一个新阵列,但新阵列也开始降级. 这是我用来创建它的原因:
这可能是一个天真的问题,因为我是新手,我找不到任何关于mdadm zfs的结果,但经过一些测试后,它似乎可能有效: 用例是一个带有RAID6的服务器,用于某些不经常备份的数据.我认为任何ZFS或RAID6都能让我受益匪浅.平台是Linux.表现是次要的.所以我正在考虑的两个设置是: > RAID6阵列加常规LVM和ext4 > RAID6阵列加ZFS(无冗余).这是我根本没有看到的第二个选项. 为
我有一个4磁盘RAID5阵列,其中一个根据smartd开始失败.但是,由于我在/ dev / md0上使用的空间不到一半,我想重建阵列而不会出现故障磁盘. 我能在网上找到的最接近的场景是this post,但它包含的内容不适用于我(LVM卷),也没有解释我在完成后如何调整分区大小. 请注意我有重要数据的备份,但我想尽可能避免从头开始重建阵列. 更新:失败的磁盘已被踢出阵列,我还能这样做吗? 根据谷
我使用Rackspace的CloudBlockStorage作为他们的设备,在3个Rackspace CloudServers上使用mdadm创建了3个RAID0阵列.每个阵列都有自己的一组CBS卷. RS-CBS的驱动器上限为1TB,我需要更大的存储空间.其中一个服务器用于数据存储,第二个是该服务器的实时镜像,第三个是夜间快照.我使用以下命令在每个服务器上创建了数组: mdadm --creat
我正在寻找一种能够扫描我的无GUI服务器的工具,并以一些丰富的可视化格式创建一个易于理解的所有块设备及其关系(磁盘分区,mdadm设备,LVM PV和LV等)的粗略概述(html,pdf,svg,png …). 这是一个简单的示例可视化: +--------+---------------------+ +-------------------+ | sda1 |
我有一个RAID1阵列.我正在购买另外4个相同大小的磁盘(它们是相同型号的驱动器),我正在尝试列举我的安全升级选项.理想情况下,它们将是一个很大的ext3音量. 首先,我疯了吗?我真的想将软件RAID1移动到5或6吗?我希望我从未有过吗?这台机器功能相当强大(带有12GB内存的i7)但性能会明显变差吗? R6比R5差吗? 我应该补充一点,这个磁盘没有“运行” – 它纯粹是一个小型网络的存储. 第二
我有一个全新的CentOS 6.5安装,带有两个(安装到/ mnt / data)1tb Western Digital Black驱动器,带有mdadm的raid 1,通过安装程序配置. 不幸的是,整个系统内核不时会出现类似于下面的跟踪: 有关诊断或修复此问题的任何提示吗? 非常感激! 编辑:这似乎发生在raid数据检查发生的同时: 编辑2:最后两次崩溃发生在星期日凌晨1点,同时发生数据检查.
我有24个驱动器上的RAID6. raid是用mdadm设置的,所以这是一个软件raid.其中一个驱动器死亡,服务器因此而冻结,因此必须使用Power Cycle重新启动(关闭电源). 当服务器启动时,它启动了带有23个设备的RAID阵列,并启动了重新同步操作.如果我理解正确,这个重新同步只读取所有驱动器上的数据,并检查一切是否正常,不执行写入.我可以通过iostat -m 1确认这一点,它只显示
我最近在我的QNAP TS-412 NAS中安装了三个新磁盘. 这三个新磁盘应该与已存在的磁盘组合成一个4磁盘RAID5阵列,因此我开始了迁移过程. 经过多次尝试(每次大约需要24小时)后,迁移似乎有效,但导致无响应的NAS. 那时我重置了NAS.一切都从那里走下坡路: > NAS启动但将第一个磁盘标记为失败并将其从所有阵列中删除,使它们保持跛行. >我在磁盘上运行检查并且找不到任何问题(无论如何