Ceph专题提供Ceph的最新资讯内容,帮你更好的了解Ceph。
环境信息一共三套 Ceph 环境进行对比,配置如下:配置版本12.2.1212.2.1314.2.16节点数量101
本书致力于帮助读者形成有关Linux开源存储世界的细致的拓扑,从存储硬件、Linux存储堆栈、存储加速、存储安全、存储管理、分布式存储、云存储等各个角
我卡在Django的文件的覆盖存储中。我从api获取xlsx文件,需要将其保存在名为CEPH的存储中。我发现我需要
我有一个运行18个600GB OSD的Ceph集群。有三个池(大小:3,pg_num:64),每个池上的映像大小为200GB,并且
我是Ceph的新手,我正在尝试安装和配置ceph-cluster。 成功安装ceph-cluster后,我遇到了一些有关存储的问题
我对ceph不太了解。据我所知,RBD是ceph的分布式块存储设备,并且相同的数据应该存储在组成ceph集群的
我正在将rook-ceph部署到minikube集群中。一切似乎都正常。我将3个未格式化的磁盘添加到了vm及其连接中。
我正在<code>aws-sdk</code>应用中使用<code>node</code>模块,<br/> 尤其是<code>S3</code>库,以便写入<code>ceph</code>
我的应用程序每个存储桶每秒将10个对象上载到群集<code>ceph</code>中的几个存储桶中。<br/> 在达到约100,000
我从DockerHub Ceph / Daemon中提取了最新映像。我这样运行容器: <pre><code>docker run -d --net=host \ -v ~/ceph-cont
我在Kubernetes 1.18中设置了<code>RookIO 1.4</code>集群。 3个节点在每个节点上分配了1TB的存储空间。 创建集群
<pre><code>aws --endpoint http://endpoint-to-a-ceph-s3-interface s3 sync local s3://bucket/path/ upload failed: file_60mb to s3://bucket/pa
我们正在使用ceph作为openstack cinder的后端。我们从cinder中删除了许多大卷,相关的rbd映像也从ceph中删除
使用Ceph v1.14.10,在内部k8s 1.16上运行Rook v1.3.8。经过10天没有任何麻烦之后,我们决定排干一些节点,然
我有这种情况,无法访问ceph仪表板。我有5个星期一,但其中2个崩溃了,其中一个是bootstrap mon节点,所
首先对我的英语不好对不起 在我的ceph集群中,当我运行<code>ceph df detail</code>命令时,它显示如下所示的
自章鱼以来,ceph群集默认将<code>osd_pool_default_pg_autoscale_mode</code>标志设置为<code>on</code>。 到目前为
我们有一个基于ceph rbd-mirroring功能的灾难恢复解决方案。 DC(本地)和DR(对等)群集都配置了OSD级压缩
我正在尝试遵循Ceph文档的<a href="https://docs.ceph.com/en/latest/radosgw/STS/#examples" rel="nofollow noreferrer">examples</a>
信息: 主机名: 猫/ etc / hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 :: 1本地