方案专题提供方案的最新资讯内容,帮你更好的了解方案。
有没有人发现Mozy(或Backblaze)类似的解决方案来备份 Linux机箱?我希望能为理想的备用计划支付固定费用. Crashplan:1年计划是每月4.50美元,无限制. 3年计划是每月3.50美元. 本地备份或备份给朋友是免费的.
我对以前的工作(主要是Nagios)的服务器监控产品有一点经验,但从未有机会从头开始设置监控方案.每次有多台机器需要监控时,运行Nagios守护程序(我认为这有一个奇特的名称,但此时我的记忆力不足),还有一台运行Nagios的专用机器. 既然我是自雇人士,大多数时候,我发现自己为我的客户设置了一台服务器(存储,邮件,WLAN控制器等……). 是否有某种LIGHTWEIGHT监控解决方案可以在应该监
我们正在寻找一种快速的方法来拍摄我们的gluster砖块的时间点快照. >它是一个完美的时间点快照并不重要(即 如果文件在备份期间更改/添加/删除它 好的备份有/没有这些变化). >理想情况下会 能够作为实时(无停机)备份运行,但我们可以处理 从群集中删除一个节点,然后再添加一个节点 需要. >需要将备份传输到远程位置,但这可以在需要时在本地进行初始备份后完成. >我们有多块砖.所有这些都需要备份
有两个互连的Cisco WS-2950T. 通过第一个交换机上的一个GBIC端口连接第一个NIC的绑定接口,并通过第二个交换机上的一个GBIC端口连接第二个NIC的绑定接口. 当然,两个交换机仅在一个接口上看到绑定MAC地址(例如,它在第一个交换机上是GBIC),并且用于绑定接口的所有传入流量都通过该GBIC. 但是在“mode = 5”中,所有传出流量都在所有进行绑定的接口之间分配.在这种情况下
我正在寻找一个很好的解决方案来协作Microsoft Office文档,我们目前只是直接在Samba共享上编辑,但它是一个大混乱,因为有时人们离开办公室与他们的笔记本电脑,而文档是开放的,所以交换文件仍然存在,然后你没有人确定发生了什么. 有没有基于 Linux的优秀而简单的开源解决方案?我已经尝试了 Alfresco,但它远远超出了我的需要,我们为大多数协作获得了一个内部维基,我只需要一些解决方
背景:虚拟专用服务器 我有一个虚拟专用服务器,我希望在其上托管多个网站,并提供对另一个Web开发人员的访问权限.我并不关心对他施加太多限制,但我不介意将他将要开发的网站与我将要开发的服务器上的其他网站隔离开来. 问题:保持控制 主要是我想要的是确保我将来保持对服务器的控制.我想保留创建/升级/降级以及其他不处理Web软件的管理功能的能力.如果我让他成为管理员,他可以sudo su – 并成为roo
我们遇到的问题很简单,我怀疑我们是否一个人拥有它,我们的用户希望从校外访问他们的 Windows共享.我们需要一个安全而简单的解决方案. ATM我们正在运行Davenport SMB到WebDAV桥,它确实有效,但代码有点儿错误,而且还没有进行积极的开发. WebDAV方面很有用.我们还运行WebDisk,这是一个到SMB桥的HTTP(即网页),也可以工作,但是远远不能像通过WebDAV一样删除共
我打算建立一个高性能的Web服务.它应该使用数据库(或任何其他存储系统),某种处理语言(无论是否是脚本)和Web服务器守护程序.系统应分发给大量服务器,以便服务快速可靠地运行. 它应该复制数据以实现可靠性,同时它必须提供分布式计算功能,以便处理大量数据(主要是对大型数据库的查询,这些查询无法在具有适当响应级别的单个服务器上执行).缓存技术不在主题之内. 我应该考虑哪些集群/云解决方案? 有很多单系
我甚至不确定这涉及到什么,但我目前的理解是这样的: >仅使用经过批准的加密算法进行网络流量(很简单,我们使用SSL并将算法锁定为非常强大的算法). >某种形式的物理数据保护,涉及磁盘加密和物理防篡改包装. 显然,如果我们需要防篡改产品,我们就是自己的.但是加密软件怎么样?我的猜测只是使用LUKS(虽然安全)不会被认证,因为它是开源的(这似乎有点偏向专有解决方案). 有人提到了Guardian Ed
我必须创建heapdumps,它适用于jmap.我的问题是,jmap创建heapdump文件需要很长时间.特别是当堆越来越大(> 1GB)时,它需要太长时间. 一种情况为例: 当服务器遇到堆空间问题时,我想自动重启它并在重启之前创建一个heapdump.这有效,但写入dumpdump需要很长时间.这样服务器停机时间过长. heapdump创建需要超过一个小时. 我知道-XX:HeapDumpOnO
我们有几十个 Linux服务器和几个开发人员,每个开发人员都有部分服务器. 目前每个服务器都有一个管理员帐户,如果有人想要管理该服务器,他的pubkey将被添加到服务器管理员帐户的ssh authorized_keys中,这样他就可以访问和编辑这个服务器了.但这不是一个好的解决方案: >每个服务器的ssh端口都不应该向公众开放,这很危险. >如果一个服务器由具有相同帐户的多个人访问,我们无法确定谁
我正在运行一个存储服务器,必须在几(5)个服务器上安装不同用户的home-dirs. NFS存储服务器具有直接的Fibrechannel存储(高速,经过验证). 当NFS安装在客户端上时,大文件写入速度很快(30MB / s).然而,许多小文件存在严重问题.如果我写入NFS,或者更糟糕的是,将文件从NFS上的一个文件夹复制到另一个NFS文件夹,这非常慢(~100kB / s).第一次搜索显示NFS
我有一个源文件的大目录树.我想搜索所有这些文件.我的第一直觉是使用grep -R或ack,但无论哪种方式,它们只是顺序读取所有文件. 是否有一些我可以安装的轻量级程序将扫描所有文件,构建和索引,然后在以后任何时候我都可以搜索某些单词?这应该比仅仅加载grep更快.我想要搜索的文件不会改变,所以我不需要自动索引文件的东西. 我不是在寻找可以扫描硬盘上所有文件的东西,我想要一些本地易于安装和设置在本地
我最近需要做一些更复杂的图形和绘图.虽然我知道gnuplot可以完成任务,并且可以从命令行完成所有工作,但是我还缺少其他更简单或更强大的工具吗? 我有点老了,所以当我想到统计数据和图表时,我倾向于想到sed,awk,bash和gnuplot. 理想情况下,我想将内容解析为本地mysql数据库,创建批处理作业,设置传入数据的警报等.实时图表也很棒. Gnuplot可以做到这一切,但如果我不需要,我不
我有2个关键服务器运行不受支持的&古老版本的 Linux,目前还没有针对它们的灾难计划. 我想为他们建立一个备份系统,并能够创建一个foolprof灾难计划. 服务器不能关闭,因此冻结快照或复制是不可能的.我看着厨师和傀儡,我不知道这些是否值得一试.我想听听建议. 距离准备好考虑Puppet或Chef大约一百万英里. 首先担心您的(不存在的)备份和灾难恢复计划. 如果我在你的鞋子里(我3年前),这
您将使用哪种备份工具或解决方案来备份生产 Linux服务器上的TB和大量文件? 请注意,这些文件都是不同的,几乎从未修改过,而且主要用于添加文件,因此今天的数据量增长到3TB,大约每天15GB. 请不要回复rsync.基本的unix工具是不够的,rsync不会保留历史记录,rdiff-backup会不时地失败并且会破坏历史记录.而且这些都是基于文件的备份,它将很多IOwait用于浏览目录和查询st
我们有一台服务器接收一些数据,充当TCP客户端,以某种方式处理它,并将处理后的数据提供给客户端,充当TCP服务器.它还将此数据存储在磁盘上,并可以从文件而不是实时流中提供. 问题是该服务必须以24×7模式提供,不允许中断.现在它通过两个服务器完成,一个作为热备份 – 客户端维护与两个服务器的连接,如果主服务器发生某些事情,他们只需切换到备份.虽然这个解决方案已经运行了大约15年,但它有点不方便,并
我有一个不同的远程VPS /“云”/共置服务器网络,我想从中央位置监控,使用Zenoss / Zabbix / Nagios / OpenNMS / Opsview / Observium等开源软件……这些服务器不是必须在物理上彼此靠近.我在一个合理快速的电路上有一个核心服务器网络,其中一个将收集数据. 我需要尽可能地减少远程服务器上的负载(例如,一些是小型的256MB Web服务器),所以我正在
简单地说,是否有任何快速替代iptables -F命令(只是“删除一切”)为nftables? 这样的事情没有太多的理论目的,但它通常是管理糟糕/错误设置的救星. 我相信你正在寻找nft flush命令.语法是: $nft flush table <name> 你也可以冲洗链: $nft flush chain <table> <name> 或者,您始终可以使用nft delete rule命令删
我在公司工作了一个月,我的任务是将3台物理服务器迁移到虚拟化技术.该公司编辑了用于电子学习的软件,因此有很多数据,如视频,flash和压缩(zip). 这是服务器库存的一部分:操作系统:Debian,2个redhat,apache,php / mysql,sendMail / Dovecot,带有virtualmin模板的webmin,动态创建网站,因为没有系统管理员……未来的提供商将负责安全,更