是否应该使用robots阻止utm参数链接?

当遇到网站有大量的utm链接时如utm广告链接,而且这些utm链接还有了谷歌排名,我们会疑惑,这些utm链接是否会影响规范页面的排名,是否会对谷歌造成误解? 那么我们该怎么办呢?

是否应该使用robots阻止utm参数链接?

正确的做法:

  1. 如果您的网站有来自外部链接的随机参数 URL,这些 URL 无论如何都会随着时间的推移被 rel-canonical规范标签清理,不使用 robots.txt 阻止它们,规范标签应该有助于处理带有 UTM 参数的外部链接。
  2. 如果您自己生成随机参数 URL,比如在内部链接中,或者从 feed 提交中,需要在源头清理它们,从原页面删除utm参数,而不是使用 robots.txt 阻止它们。
  3. 网站应该尽量保持其内部 URL 的干净和一致。

错误的做法:

使用 robots.txt 文件中的“Disallow”指令阻止 utm参数是错误的做法,这样会导致的后果有:

  1. 导致Google Adsbot 也无法抓取页面的utm。Adsbot 无法抓取目标网址,这意味着网站的广告会被拒登。
  2. 被robots.txt屏蔽的带utm参数的网址,谷歌将不知道页面上的内容,也不会发现页面上的rel canonical标签,因此谷歌是很有可能选择索引带utm参数的网址,并有可能给予排名。

总结:

是否使用robots阻止谷歌抓取utm参数链接,需要根据实际情况而定,另外,禁止使用包含utm参数的URL不会帮助提高 Google 搜索的抓取或评级。

Share:

给我们留言

嘿,你好!我是你的外贸营销伙伴,经验丰富的老手Sandy,已在这个领域打拼了整整十年!我做过的产品很多很杂,有促销礼品、餐具、光模块,WEB3.0等。如果你正在寻找一位经验丰富、充满激情、真诚可靠的合作伙伴,那么我就是你需要的人。让我们携手并肩,共同开拓更广阔的市场,创造更加美好的未来!

Contact Information

Copyright © 亚格美(Yageme)工作室 | 粤公网安备 34010302002247号 | 粤ICP备2024192089号