当遇到网站有大量的utm链接时如utm广告链接,而且这些utm链接还有了谷歌排名,我们会疑惑,这些utm链接是否会影响规范页面的排名,是否会对谷歌造成误解? 那么我们该怎么办呢?
正确的做法:
- 如果您的网站有来自外部链接的随机参数 URL,这些 URL 无论如何都会随着时间的推移被 rel-canonical规范标签清理,不使用 robots.txt 阻止它们,规范标签应该有助于处理带有 UTM 参数的外部链接。
- 如果您自己生成随机参数 URL,比如在内部链接中,或者从 feed 提交中,需要在源头清理它们,从原页面删除utm参数,而不是使用 robots.txt 阻止它们。
- 网站应该尽量保持其内部 URL 的干净和一致。
错误的做法:
使用 robots.txt 文件中的“Disallow”指令阻止 utm参数是错误的做法,这样会导致的后果有:
- 导致Google Adsbot 也无法抓取页面的utm。Adsbot 无法抓取目标网址,这意味着网站的广告会被拒登。
- 被robots.txt屏蔽的带utm参数的网址,谷歌将不知道页面上的内容,也不会发现页面上的rel canonical标签,因此谷歌是很有可能选择索引带utm参数的网址,并有可能给予排名。
总结:
是否使用robots阻止谷歌抓取utm参数链接,需要根据实际情况而定,另外,禁止使用包含utm参数的URL不会帮助提高 Google 搜索的抓取或评级。