用robots.txt屏蔽死链接
xhhjin 13年前 (2011-10-05) 3198浏览 0评论
可能是更改了域名的缘故,原来用的是http://weedvine.tk,而后将其改成了http://xuhehuan.tk,造成了网页中存在死链接。在登陆Google 的网站管理员中心时发现了这个问题,还好不多,但死链接对 SEO 优化是很不利的... 阅读全文>>
xhhjin 13年前 (2011-10-05) 3198浏览 0评论
可能是更改了域名的缘故,原来用的是http://weedvine.tk,而后将其改成了http://xuhehuan.tk,造成了网页中存在死链接。在登陆Google 的网站管理员中心时发现了这个问题,还好不多,但死链接对 SEO 优化是很不利的... 阅读全文>>
xhhjin 13年前 (2011-10-05) 3779浏览 1评论
今天登陆Google 网站管理员中心时发现网站的控制台显示了网站有抓取错误,信息是“受 robots.txt 限制”,然后再到网站配置 -> 抓取工具权限 -> 测试 robots.txt 下,看到解析结果中多了 000webhost... 阅读全文>>