如何解决pd.read_sql() 在python中加载一个20万行的SQL Server表大约需要10秒
我的 Django API 读取一个表(150k 行)并在每次执行 API 时使用该数据执行一些操作。该表按类型、股票代码和日期编制索引。 Type 有 2 个 Distinct 值(varchar),Ticker 有 30 个 Distinct 值(varchar),Date 有 5040 个 Distinct 值(Datetime)。
conn = pyodbc.connect(driver='{Driver name}',server='Server Name',database='Database Name',user='user name',password='password')
sql = """ Select [Date],[Close],[Ticker],[Type] from [dbo].[Stocks_data]"""
df = pd.read_sql(sql,conn)
有什么办法可以在几毫秒内从数据库中获取数据或者将表保存为Django应用程序中的缓存(我对缓存不太了解)?我们每天更新该表格(股票的收盘价)。
AWS RDS - SQL Server 规范:
- 实例类 - db.t2.micro
- 内存 - 1 GB
- vCPU - 1
我应该增加 RAM 还是 vCPU 以加快 Python 中的查询速度?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。