如何解决python脚本在docker容器中执行的速度比本地执行速度更快
我正在执行一个简单的python(v 2.7.17)脚本,该脚本查找1到1000000之间数字的平方根。对于一次执行,它执行1000000次。然后重复100次。输出是执行每个周期所花费的时间。
当我在Linux shell中执行此脚本时,每个执行时间都一个接一个地打印。它们各不相同,但总共100次执行的平均值为0.126154s
。
当我在docker容器中运行完全相同的脚本时,直到所有100个执行结束时才显示输出,而所有100个执行的输出全部一次显示。与本地相比,执行时间更快,平均100次docker执行为0.095896s
。
当我在本地和在docker中执行脚本时,对系统施加各种压力时,平均执行时间相差很大。当我给CPU施加压力时,我得到了100次执行的平均值
native average 0.506660s
docker average 0.190208s
我很好奇为什么我的python脚本在容器中运行时会更快。任何想法将不胜感激。 Python代码是:
import timeit
mycode = """
def example():
mylist = []
for x in range(1000000):
mylist.append(sqrt(x))
"""
mysetup = "from math import sqrt"
print timeit.timeit(setup = mysetup,stmt = mycode,number = 1000000)
解决方法
我做了更多的挖掘工作,并找出了为什么在容器中运行脚本时执行时间更好的原因。
当我在系统(4个核心)的容器中启动脚本时,看起来好像是整个核心或全部四个内核的一部分专用于或保留用于运行该容器,然后将其余的系统运行进程分开剩下多少CPU可用性。
在本地运行脚本时,脚本必须与系统上运行的所有其他文件竞争。因此,当我将压力测试(stress-ng)应用于CPU时-每个压力测试都是一个新的过程,其中对于每个压力过程,可用的处理器时间均分为相等的数量。我对系统施加的压力越大,脚本执行的速度就越慢,但是在容器中执行脚本时,由于在容器中始终有大量可用的处理器,因此这并不适用。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。