使用python清理.txt文件中的HTML并将其转换为csv应该非常简单,但我是新手

如何解决使用python清理.txt文件中的HTML并将其转换为csv应该非常简单,但我是新手

好的,在这里对我好一点。我已经累计编码了大约48小时(coding)

我的文件夹充满了完全相同的.txt文件(例如,值有所不同,但格式完全相同)。它们中的文本如下所示:

<html><head></head><body><html><head></head><body>{"Flashpoint Swindon":{"count":3,"capacity":88,"lastUpdated":"Last updated: now (4:49 PM)"},"Oakwood":{"count":45,"capacity":75,"Big Depot Leeds":{"count":32,"capacity":105,"Depot Birmingham":{"count":45,"capacity":180,"Depot Climbing Sheffield":...}}</body></html>

每个文件中有43条记录。文本文件的开头和结尾都有HTML标记。

我的最终目标是一个csv文件,其中包含如下所示的所有日期的信息:

+----------+--------------------+-------+-----------+--------+
| Date     | Centre             | Count | Capacity  | Time   |
| 20200822 | Flashpoint Swindon | 3     | 88        | 19:07  |
| 20200822 | Oakwood            | 45    | 75        | 18:11  |
| 20200822 | Big Depot Leeds    | 32    | 105       | 20:20  |
+----------+--------------------+-------+-----------+--------+

文件名提供了日期信息(例如2020-08-22-17-49-40_capacity.txt)。所以所有信息都在那里,我只是不知道如何完成从A到B的获取。

到目前为止,我已经编写了将文本文件清理为可以用作csv的文件的方法:

import re

my_file = open("2020-08-22-17-49-40_capacity","r+")
text = my_file.read()
text = re.sub('<html><head></head><body>','',text)
text = re.sub('</body></html>',text)
text = re.sub('},','\n',text)
text = re.sub('{',text)
text = re.sub('}}',text)
text = re.sub(':',text)

print(text)

import sys 

stdoutOrigin=sys.stdout 
sys.stdout = open("cleaned.txt","w")

这似乎正常,这就是文本的最终外观:

"Flashpoint Swindon","count","capacity",88,"lastUpdated","Last updated,1 hour ago (7,07 PM)"
"Oakwood",75,2 hours ago (6,11 PM)"
"Big Depot Leeds",11,105,1 min ago (8,20 PM)"
"Depot Birmingham",8,180,20 PM)"
"Depot Climbing Sheffield"...

输出有点气质-有时可以正常工作,有时会吐出空白的.txt文件。我不知道为什么。

我知道我在这里寻求巨大的帮助,但是如果任何人都可以为我所做的部分工作提供帮助,那将是惊人的。

非常感谢。

解决方法

如评论中所述,使用BeautifulSoup解析HTML /输入文件并将'body'读取为json。
将时间转换为日期时间对象,因此可以使用它进行计算和/或正确设置其格式:

import re
import csv
import json
import datetime as dt
from bs4 import BeautifulSoup

now = dt.date.today()
data = """<html><head></head><body>{"Flashpoint Swindon":{"count":0,"capacity":88,"lastUpdated":"Last updated: 1 hour ago (7:07 PM)"},"Oakwood":{"count":0,"capacity":75,"lastUpdated":"Last updated: 2 hours ago (6:11 PM)"},"Big Depot Leeds":{"count":11,"capacity":105,"lastUpdated":"Last updated: 1 min ago (8:20 PM)"},"Depot Birmingham":{"count":8,"capacity":180,"lastUpdated":"Last updated: 1 min ago (8:20 PM)"}}</body></html>"""
soup = BeautifulSoup(data,'html.parser')

content = json.loads(soup.body.text)

with open('test.csv','w') as csvfile:
    writer = csv.writer(csvfile,delimiter=";")
    writer.writerow(["Date","Centre","Count","Capacity","Time"])  # write headers
    for item in content:
        # parse the time and create a datetime object
        _time = re.search(r"\((.*)\)",content[item]['lastUpdated']).groups()[0]
        _timeObj = dt.datetime.strptime(_time,"%I:%M %p")
        writer.writerow([now,item,content[item]['count'],content[item]['capacity'],_timeObj.strftime('%H:%M')])

print(open('test.csv').read())

输出:

Date;Centre;Count;Capacity;Time
2020-08-23;Flashpoint Swindon;0;88;19:07
2020-08-23;Oakwood;0;75;18:11
2020-08-23;Big Depot Leeds;11;105;20:20
2020-08-23;Depot Birmingham;8;180;20:20
,

虽然可接受的答案有效-但出于两个原因,我想提出这种选择: 首先,用regex解析html并不是一个好主意-到处搜索,关于它的讨论很多。因此通常最好使用html解析器。其次,实际数据为json格式,因此最好将其加载到pandas中并另存为csv。

所以不考虑dt格式等。我会做这样的事情:

import lxml.html as lh
import json
import pandas as pd

events = """[your html]"""
doc = lh.fromstring(events)
jst= json.loads(doc.xpath('//body/text()')[0])
df = pd.DataFrame(jst)
df

输出(请格式化)

               Flashpoint Swindon   Oakwood     Big Depot Leeds     Depot Birmingham
count          0                     0          11                  8
capacity       88                    75          105               180
lastUpdated     Last updated: 1 hour ago (7:07 PM)  Last updated: 2 hours ago (6:11 PM)     Last updated: 1 min ago (8:20 PM)   Last updated: 1 min ago (8:20 PM)

然后您可以使用以下命令将其保存到csv:

df.transpose().to_csv()

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


依赖报错 idea导入项目后依赖报错,解决方案:https://blog.csdn.net/weixin_42420249/article/details/81191861 依赖版本报错:更换其他版本 无法下载依赖可参考:https://blog.csdn.net/weixin_42628809/a
错误1:代码生成器依赖和mybatis依赖冲突 启动项目时报错如下 2021-12-03 13:33:33.927 ERROR 7228 [ main] o.s.b.d.LoggingFailureAnalysisReporter : *************************** APPL
错误1:gradle项目控制台输出为乱码 # 解决方案:https://blog.csdn.net/weixin_43501566/article/details/112482302 # 在gradle-wrapper.properties 添加以下内容 org.gradle.jvmargs=-Df
错误还原:在查询的过程中,传入的workType为0时,该条件不起作用 &lt;select id=&quot;xxx&quot;&gt; SELECT di.id, di.name, di.work_type, di.updated... &lt;where&gt; &lt;if test=&qu
报错如下,gcc版本太低 ^ server.c:5346:31: 错误:‘struct redisServer’没有名为‘server_cpulist’的成员 redisSetCpuAffinity(server.server_cpulist); ^ server.c: 在函数‘hasActiveC
解决方案1 1、改项目中.idea/workspace.xml配置文件,增加dynamic.classpath参数 2、搜索PropertiesComponent,添加如下 &lt;property name=&quot;dynamic.classpath&quot; value=&quot;tru
删除根组件app.vue中的默认代码后报错:Module Error (from ./node_modules/eslint-loader/index.js): 解决方案:关闭ESlint代码检测,在项目根目录创建vue.config.js,在文件中添加 module.exports = { lin
查看spark默认的python版本 [root@master day27]# pyspark /home/software/spark-2.3.4-bin-hadoop2.7/conf/spark-env.sh: line 2: /usr/local/hadoop/bin/hadoop: No s
使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams[&#39;font.sans-serif&#39;] = [&#39;SimHei&#39;] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -&gt; systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping(&quot;/hires&quot;) public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate&lt;String
使用vite构建项目报错 C:\Users\ychen\work&gt;npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-