如何解决如何增加AWS Elastic Beanstalk的超时时间?
我有一个Django应用程序,它已部署到Amazon Elastic Beanstalk(在64位Amazon Linux 2 / 3.0.3上运行的Python 3.7)。我需要以一种格式获取.igs文件,并将其保存到S3 Bucket,但出现413 Request Entity Too Large
错误。然后,我在.platform / nginx / conf.d中创建了一个文件夹,其名称为size.conf,如下所示。
size.conf;
client_body_buffer_size 100M;
client_max_body_size 50M;
然后我开始出现502 Bad Gateway
错误。然后,我将另一个.conf文件添加到conf.d文件夹中,如下所示。
timeout.conf;
keepalive_timeout 600;
proxy_connect_timeout 600;
proxy_send_timeout 600;
proxy_read_timeout 600;
send_timeout 600;
fastcgi_send_timeout 600;
fastcgi_read_timeout 600;
但是我仍然遇到相同的错误。在我的web.stdout.log;
[CRITICAL] WORKER TIMEOUT (pid:8319)
[INFO] Booting worker with pid: 9095
Bad Request: /api/jsonws/invoke
numexpr.utils - INFO - NumExpr defaulting to 2 threads.
和我的nginx错误日志中;
*189 upstream prematurely closed connection while reading response header from upstream
*199 an upstream response is buffered to a temporary file
如何解决此问题?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。