如何解决如何在AWS Cloudfront中更新/替换robots.txt文件
我有一个网站www.example.com
。因此,当我访问www.example.com/robots.txt
之类的robots.txt文件时,它会显示由SEO团队创建/准备的多行文字。
因此,有一个子域assets.example.com
指向CloudFront。当我通过https://assets.example.com/robtos.txt
之类的CloudFront URL访问robots.txt文件时,它将在浏览器中显示以下结果。
User-agent: *
Disallow: /
因此,有一个请求来更新AWS CloudFront中的robots.txt文件内容,因此https://assets.example.com/robtos.txt
和https://www.example.com/robtos.txt
应该显示相同的文本。我没有发现robots.txt放置在云端。
是否可以在Cloudfront中更新robots.txt? CloudFront在这里有什么作用?还是我们需要更新asset.example.com的robots.txt,使其与example.com的配置相同?
请帮帮我。我在这里很困惑。
解决方法
您可以指向CloudFront发行版(assets.example.com),然后添加具有域名www.example.com
的新来源,然后添加具有路径模式robots.txt
的新缓存行为并添加来源
此设置将请求发送到assets.example.com/robots.txt
,并将其转发到www.example.com/robots.txt
。这样,您可以删除重复项。
您可以通过选项无效使缓存无效。
您可以执行以下操作:
- 直接将构建文件夹部署到S3存储桶。
- 不需要缓存
robots.txt
文件 - 无论何时将构建部署或上载到S3,请执行以下步骤
- 转到云端
- 使对象无效
- 创建条目/ *
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。