其实这样的看法是有一定的道理的,因为SEO的所有工作都是为了让搜索引擎对其网站页面产生友好,但是页面自身的优化对搜索引擎来说是有一个标准的,这个标准好比一个极值,无论你如何进行优化都是在无限接近这个极值,但是不可能会超过,然而外链则作为一个外部因素是一个无穷大的数值,所以外链会被人感觉到是一个见效快,稳定,且不容易犯错的最简单也最容易衡量的一个优化手段。但是如果说真的要谈到如何有效的去对外链进行优化,你能说你真的懂吗?如何去搞懂,如何去有效的进行外链的优化工作,可能我们还是要从搜索引擎的运行模块和原理进行分析,建模。
如果说SEO的工作就是服务搜索引擎的话,那么对外链的优化就是服务搜索引擎的SPIDER模块,SPIDER如果通过大量链接爬取到你的网站,那么他可能就会判断出你可能是这些网页中的一个信息节点,信息的来源,从而给你一个相当的权重。这个是外链对于搜索引擎的意义同时也是对于SPIDER的意义。
我们先来看看SPIDER的工作,SPIDER作为一台服务器从互联网某个信息节点开始抓取网页信息回传到数据库。互联网的一开始网站以综合信息为主,所以SPIDER工作相对简单,整个搜索引擎的排序机制也相对简单。但是随着互联网的发展互联网的信息被不断的细分,SPIDER的工作也被变得复杂起来。搜索引擎为了能够快速的展示搜索结果页面必须对数据进行同样的信息细分,SPIDER从一开始的单一抓取又增加了一个信息分类的功能,但是当信息分类上升到千万这个级别的时候整个信息抓取再分类的过程就变得冗长且缓慢。最根本的解决方法就是在SPIDER抓取前就为服务器定义分类,即特定的SPIDER服务器只抓取某几类的信息内容,这样分类就变得简单且快速。SPIDER又是如何在抓取前就定义自己的抓取路径呢?我们可以建立这样的一个工作模型。
http://www.yixiin.com/sell/jiajubaihuo-c122-1.html
http://www.yixiin.com/sell/shangyefuwu-c131-1.html