robots是一个新站在上线之前就要写的一个txt文档,而这个很简单,但是却往往被我们忽视,有时候网站除了SEO细节上的问题,我们却要找好长时间,一个大的网站甚至会倒腾几周。其实是robots出现了问题,没人关注这个会产生致命错误的地方。今天遇到一位朋友就是这样,所以我想拿出来与大家分享,推荐我常用的工具。http://www.yixiin.com/brand/
robots.txt文件你可能看起来是没有错的,符合逻辑、符合规矩的,但是问题就这样被你的不仔细忽略了!
1、百度站长平台检查robots检查工具
当一个新站做好了之后,最好用这个工具检测一下,看看是不是按照你禁止或者允许的意思去实现的,否则后期让你头疼的事情就太多了!
这个是百度站长平台检查robots文件的地址,进去之后,简直就是傻子般的操作,你肯定会的,不多说了。
2、谷歌网站管理员robots工具
这个工具很直白的告诉了你一些信息,包括哪里搜索引擎理解错了,哪里搜索引擎不能识别,甚至会禁止全部。都能检测出来,所以我推荐这款!
谷歌网站管理员工具要登陆之后才能使用,所以我只能发给大家一个登录地址了-。下面截图说明:
首先应该确保你的网站验证了谷歌网站管理员工具,其次再登录进去之后,点击运行状态-->已拦截网址,到这个页面就能看到如下画面
谷歌管理员robots检查工具
这个页面的重点就是看看这些robots文件内容,然后点击最下面的测试按钮,就会得出一个结果,如图:
谷歌网站管理员工具介绍
点击测试,接下来就会出现测试结果,看到测试结果,你不就知道结果了,以及哪里出了问题了?这个自己点去吧,我就不那么详细了!http://www.yixiin.com/news/
最近感觉群里的朋友们,问题越来越少了,希望广大SEO朋友能够多提建议和SEO技术方面的问题,这样我才能更好的分享,同时第一时间了解我的博客还有我的不足,谢谢。