在我的位置,我们有一台
Linux机器,我们的员工和外部公司可以下载并获取数据.目前我们只允许ssh,scp和sftp.不幸的是,我们处理大量的丢弃和数据,人们在完成文件时从不删除文件,从而导致存储问题.将敏感数据留在可由外部访问的计算机中存在很多风险,我们已经在实施数据保留策略.我知道这种情况并不罕见,那么有没有为管理这种情况而开发的软件呢?
解决方法
我认为你的根本问题是政策问题,而不一定是技术问题.说实话,这是我必须处理的问题,以下是我们如何解决这个问题.
>员工需要使外部世界可以访问文件.他们要求这样做,IT设置一个外部工作者可以访问文档的文件夹
>为了实现这一点,必须填写表格.表单信息包括外部人员,他们为什么需要访问文件,以及他们需要多长时间.此时间表严格执行.如果提供IT通知,则可以给出扩展,如果是这种情况,则表单将更新为新的“截止”日期.
>如果截止日期到达且文件的截止日期尚未延长,则帐户将被切断,外部世界将无法访问该特定文件.
所有文件都存储在服务器上的锁定存储区域中,并且只向用户提供他们需要访问的文件.我们保留sftp日志并偶尔审核它们.磁盘空间对我们来说并不是一个问题,但是这个问题可以通过管理员在截止日期过后删除文件或编写一个简单的脚本并在那个时间安排它来解决.
虽然人们起初有点犹豫不决,但我们确保坚持政策并加以执行.您甚至可以编写一个简单的bash脚本,通知您计算机上的磁盘使用情况,并自动删除X天内未访问过的文件.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。