hdfs专题提供hdfs的最新资讯内容,帮你更好的了解hdfs。
我正在尝试使用HDFS命令检查目录是否存在,是否要将其存储到变量中并在以后使用。 到目前为止
从HDP 3.0开始,WebHDFS UI(即端口50070上的namenode UI文件浏览器)现在包括一个bin图标,可用于删除HDFS文件
设置后 <pre><code>LocalDate</code></pre> 它将日志发送到 <pre><code>xasecure.audit.destination.log4j=true </code></pr
当我使用distcp命令时 <pre><code>hadoop distcp /a/b/c/d gs:/gcp-bucket/a/b/c/ , where d is a folder on HDFS containing subfold
我正在尝试使用Scala或Java读取spark .7z文件。我找不到任何合适的方法或功能。 对于zip文件,我能够
我编写了以下代码来查找最高温度,但是当我尝试检索输出时,文件已创建但为空。我不太明白为什么
我最近使用pyspark处理以镶木地板和json格式存储的Twitter json文件。我正在尝试运行一个代码,同时将大约
我想从Redis读取数据,然后将这些数据写入HDFS。你知道这种方法吗? Redis对我来说是新事物,现在
您好,我正在尝试通过使用webhdfs将文件上传到datanode。 <pre><code> C:\Users\&gt;curl -i -X PUT &#34;http://&lt;I
我有一个简单的akka​​流媒体应用程序(使用alpakka hdfs连接器),可将数据写入HDFS。 持久存储纯数据
kafka融合连接器出现问题,连接器在一段时间后停止工作,当我查看连接器的日志文件时没有错误。
是否可以使用定义的主键创建impala外部表? 这只是一个带hdfs底层木地板文件的impala外部表。
我正在HDFS环境上并使用ACL。当我添加ACL用户时,掩码已更新,并且组文件夹所有者将权限从r-x更新为rwx
我正在尝试将某些.csv文件与 <code>hdfs dfs -getmerge /path/folderfile filename.csv</code>命令。 如果我从终端或rstudio
在我们公司中,我们拥有非常庞大的HBase(或多或少10 TB),可以收集多年的信息。由于配置错误或其他
我想将Spark Dataframe以json格式写入aws s3。 数据框具有以下列: <code>id| year| month| day| location_id| data|</c
我不知道为什么不能将文件从一个目录移动到另一个目录。我可以查看文件的内容,但是不能将同一文
我不熟悉HIVE,我试图通过独立的MySQL DB设置hive metastore服务,并且我意识到我需要在hive-site.xml中配置hive.
我想使用<code>pyhdfs</code>在我的hdfs系统上进行操作。我可以正常获取<code>lstdir</code>或<code>NameNode</code>的
我在HDFS中有一个带有5维numpy数组的h5大文件。文件大小为〜130Gb。即使计算机具有256Gb RAM,使用进程加载