目录
Toggle有时我们可能希望,从谷歌搜索结果中移除某些网页或整个网站的内容。这可能是由于隐私、商业或其他考虑因素。幸运的是,谷歌提供了一些工具和方法,使我们能够快速有效地从其索引中删除内容。
针对不同的情况和需求,可以参考以下移除谷歌收录的方法,进行有选择的实施。
一、前期快速暂时移除法:
在GSC (google search console) 中使用删除工具暂时移除
网址:https://search.google.com/u/1/search-console/removals
需要把测试网站的PC端和M端分别添加到google search console中进行验证,验证成功后再使用移除工具。
暂时删除期是6个月,6个月后谷歌还会恢复索引结果,在此期间需要采取永久移除法。
可移除带前缀:
备注:
GSC的删除功能,其实是谷歌的隐藏功能,期间页面不会出现在谷歌搜索结果里,但期间谷歌还是可以索引,只是在数据库里,过了6个月,如果页面还存在,谷歌还是可能会把页面在搜索结果放出来的。
二、后期要永久移除的方法:
删除页面,使http返回状态为404(未找到)或410(已删除)
1.尽量使用410
404: 未找到– 未找到所请求的资源。
410: 类似于 404,表示请求未找到,但这也表示该请求将不再可用。
2. 设置密码保护,或设置白名单
添加密码不会将页面从 Google 索引中删除,但可以阻挡谷歌未来抓取
3. 使用Noindex meta tag标签
使用noindex标签可将页面从搜索结果中排除, 让搜索引擎知道他们不应该索引该特定页面。
<meta name=”robots” content=”noindex” />
4. 使用Noarchive meta tag标签
使用 noarchive 标签,告诉 Google“我不想让您缓存这个”
<meta name=”robots” content=”noarchive” />
3和4,和nofollow可以一起添加:
<meta name=”robots” content=”noindex, noarchive, nofollow” />
nofollow: 告知蜘蛛不用爬行此页面上的链接内容。
备注:
使用这个方法,需要在head里添加后,在google search console 后台使用网址检查工具,让谷歌重新抓取这个页面,谷歌只有再次抓取这个页面时,才会发现noindex标签。
5.Robots.txt
Robots.txt无法封锁索引,谷歌有时会忽略robots文件的限制 (可不使用此方法)
robots.txt 会阻止 Google抓取网页(或类别),而不是将其从索引中删除。通过 robots.tx 文件阻止的页面仍可被索引(并被排名)。
谷歌官方建议:
https://support.google.com/webmasters/answer/9689846?hl=zh-Hans&sjid=8108231094128340162-AP (里面有视频讲解)
谷歌官方指南:
https://developers.google.com/search/docs/crawling-indexing/robots-meta-tag?hl=zh-cn