有些使用开源系统建站的站长们,网站会遇到被挂黑链的状况,这是黑客通过开源系统的漏洞侵入我们的网站造成的。通常我们的网站一般都会进行一定的防范,但是这种情况却防不胜防,很难避免。那当我们遇到网站被挂了大量垃圾连接的时候怎么办呢?
http://www.yixiin.com/sitemap/index-htm-mid-5.html
一、网站被挂垃圾外链是什么意思?
所谓的网站被挂了大量的垃圾外链,它的意思就是网站被恶意挂上了一些外部的链接,也就是我们常说的出站链接。常见的网站被挂垃圾外链都是一些灰色行业的链接,例如:博cai、黄se、减fei等,那么,为什么都是挂灰色行业的链接呢?因为,这类的灰色行业本身是搜索引擎打击的对象,属于不正规的网站,还有就是灰色行业都是比较暴利的,正因如此,给别人的网站挂上自己网站的链接,从而获得更多的利润,赚钱更多的钱财等。
二、网站被挂了大量垃圾外链的“危害”
网站被挂了大量的垃圾外链对网站的危害是很大的,因为垃圾外链本身不能被搜索引擎马上识别,可是这些未被识别之前的垃圾外链是可以被搜索引擎计算到关键词的排名权重的,但是假如你的这些垃圾外链被搜索引擎识别了,那么搜索引擎就是删除这些垃圾外链,从而就会导致你的网站降权的情况发生。
友情提示大家,如果是因为网站被挂了大量垃圾外链所导致的网站降权的,这种降权情况的恢复周期是比较长的,一般要2-3个月才能恢复,所以我们平时一定要做好网站的安全工作,尽量避免网站被黑客攻击,挂上了大量的垃圾外链。
三、网站被挂了大量垃圾外链的“解决办法”
1、检查网站是否被挂马
网站如果被人恶意挂了大量的垃圾外链,这个时候大家千万别着急,首先一定要检查一下你的网站是否被挂马了,如果你的网站前一天还好好的,第二天就出现了很多的外链,那么,这种情况就极有可能是网站被挂马了,这种情况完全是你的服务器的安全性或是程序的安全性引起的挂马,从而,产生了大量的垃圾链接,这个时候,我们就必须要找到被挂马的位置,及时清楚挂马的链接页面了,然后在把服务器空间的安全性和程序的安全性都解决了,最后,在修补一下网站的漏洞即可。
2、用robots.txt屏蔽目录
在解决了网站的服务器空间安全性和程序安全性之后,并且把网站的漏洞修补完成了,那么,接下来,就是可以用robots.txt搜索引擎协议文件进行屏蔽目录了,我们可以找到被挂马的链接路径特征,例如:假设你的挂马页面路径特征中有“?”的,那么,只需要在robots.txt协议中写入:Disallow: /? 这样就可以了。
3、有规律地更新网站内容
在完成上面所说的操作之后,接下来就是有规律地更新网站内容了,那么,怎么样才算有规律地更新内容呢?比如:你每天都在上午10点更新3篇文章内容,那么就必须要保持这个时间段和更新的文章数量,而不能今天更新一下,明天不更新,后天一下子更新了10几盘文章,这样做是不行的,而且在保证了有规律地更新之后,还应该要注意所更新的文章内容质量了,因为现在搜索引擎对于文章内容的质量要求是很高的,而且你的网站还是在刚清除完大量垃圾外链的情况下,更应该要注意所更新的文章内容质量了,一定要更新高质量的原创文章内容了。

4、反馈给百度站长平台
网站被人恶意挂了大量垃圾外链是一种令人十分厌恶的行为,而且对于网站自身来说,影响也是很大的,一般情况下常见网站被挂大量垃圾外链都是挂上一些灰色行业的链接,正是这些灰色行业的链接,会使网站产生大量的垃圾链接,但是搜索引擎又不能马上发现和识别这些垃圾外链,从而会给予这些垃圾外链一定的关键词排名权重,但是一旦被搜索引擎发现之后,就会把这些垃圾外链删除了,从而你的网站就降权了,那么网站被挂了大量垃圾外链都有哪些解决办法呢?例如:检查网站是否被挂马、用robots.txt屏蔽目录、有规律地更新网站内容、反馈给百度站长平台等。