如何解决如何禁止带有动态 URL 的页面
我已经研究过这个问题,但我无法得到满足我需求的答案,
我有一个房地产网站,每个房产页面都有一个 URL,当用户打开页面时,它会自动滚动查询框,
因此,虽然我有一个 URL 为“www.site.com/property/id/property-name”的属性,但还有一个由 BOT 抓取的 URL,即“www.site.com/property/id/property -name?enquiry=1",打开链接时会触发该动画。
问题是这个 URL 也会被抓取,因此它会自动检测同一个页面两次(因为有两个不同的 URL),这会引发重复的标题/描述问题,这可能会损害我的 SEO,
我在 robots.txt 中进行的测试如下:
Disallow: /property/*/*?enquiry=
因为路径是“/property/1512(property_id)/2-bedroom-house-in-city?enquiry=1”,但这使得所有属性都停止被抓取,而不仅仅是这些每个属性的特定 URL,
你能帮我获得正确的语法吗,还是我已经在使用正确的语法?
提前致谢
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。