如何解决为什么会在 robots.txt 文件中使用“Disallow: /*?s=”?
我们从 Google 的 Search Console 收到通知,无法抓取我们的一篇博文。从 Google Search Console 检查 URL 时,它报告分页被我们的 robots.txt 文件中的以下内容阻止。
禁止:/*?s=
我还问为什么要使用“Disallow: /*?s="?为什么要担心包含字母“s”的解析?如果我们删除它,有什么风险?非常感谢您提供任何可以共享的其他见解 - P
解决方法
此查询常用于基于 WordPress 的网站。 您的站点上可能有多种类型的内容,并且站点构建者希望允许通过另一种搜索方式仅搜索某些类型的内容。 例如,对于想要限制用户使用自定义搜索表单搜索产品的商店站点,这样他们就不会在站点的幕后徘徊,这是有道理的。 Google 的机器人有多种方法可以识别它是否是基于 WordPress 的网站,这可能就是它寻找路径尽头的原因。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。