如何解决R读取带有自由文本列的URL表
我想读取URL内的txt表。该表确实有3列;第二列是一个字符列,其中包含少量单词,并在单词周围加上引号。数据不能被公众访问,这就是为什么我不能在此处提供链接,但是我举了一个示例,说明您打开http链接时的数据外观:
col1 "column second"
col3
1 "a city name" 2323
20 second 4343
30 "third row" 43434
'col1','“ column second”','col3'是列名,这是标题在真实URL中的样子。我尝试了一些读取功能,例如read_delim(),readline(),read.table和fread,但是它们都无法正确读取数据。当我下载或复制/粘贴到文件中时,它可以正常工作,但是当我想直接从URL读取时失败。问题出在第二栏中的“”上。例如,如果我设置sep =“”,则数据的第一行有5列,第二行有3列,第三行有4列。
感谢您的帮助。
解决方法
使用scan
将数据读入字符向量s
中,并将除前3个元素之外的所有元素重构为矩阵,然后将这3个元素用作列将数据帧DF
重新构建名称。最后,转换DF
的每一列的类型。我们已经使用scan
从末尾的注释中显示的Lines
进行读取,但是它也可以使用file=
的{{1}}参数从文件或连接中读取。不使用任何软件包。
scan
给予:
s <- scan(text = Lines,what = "",quiet = TRUE)
DF <- setNames(as.data.frame(matrix(tail(s,-3),3,byrow = TRUE)),s[1:3])
DF[] <- lapply(DF,type.convert)
注意
以可重复的形式输入:
> DF
col1 column second col3
1 1 a city name 2323
2 20 second 4343
3 30 third row 43434
,
格洛腾迪克的答案是完美的。对于那些对读取URL表感兴趣的人,我刚刚找到了另一种解决方案https://www.r-bloggers.com/getting-data-from-an-online-source/。
library(RCurl)
# The url link provided in the comment by Grothendieck
url <- 'https://raw.githubusercontent.com/CSSEGISandData/COVID-
19/master/archived_data/archived_daily_case_updates/02-12-2020_1020.csv'
myfile <- getURL(url,ssl.verifyhost=FALSE,ssl.verifypeer=FALSE)
mydat <- read.csv(textConnection(myfile),header=T)
head(mydat)
问题帖中我的url的问题是数据不是原始格式。就像OneDrive或Google Drive中的文件一样。它可以提出另一个问题。或欢迎您在此处分享您的答案或链接,以阅读此类数据。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。