网站被封杀或者降低排名如何解决?
首先应该确定你的网站是完全被封,还是只是排名下降。
直接搜索一下域名或URL
用site:指令查一下
用网页上某一句独特的话(比如版权声明之类的在其他站点肯定不会出现的句子)搜索一下
如果你确认你的网站所有网页都已经从搜索引擎数据库里消失,那么有可能是服务器死机,也有可能robots。 txt文件有问题,或者被检测出严重作弊行为。
如果你的网页还在数据库中,但排名下降,那么有可能是你网站有一些可疑的迹象而被惩罚,也有可能是搜索引擎算法改变。
这里所说的排名下降指的是大幅下降,如果只是从第一页掉到第二页,这纯属正常。 如果从第一页掉到第二十页,那么你应该查一下。
服务器是否一切正常
最近...全部
首先应该确定你的网站是完全被封,还是只是排名下降。
直接搜索一下域名或URL
用site:指令查一下
用网页上某一句独特的话(比如版权声明之类的在其他站点肯定不会出现的句子)搜索一下
如果你确认你的网站所有网页都已经从搜索引擎数据库里消失,那么有可能是服务器死机,也有可能robots。
txt文件有问题,或者被检测出严重作弊行为。
如果你的网页还在数据库中,但排名下降,那么有可能是你网站有一些可疑的迹象而被惩罚,也有可能是搜索引擎算法改变。
这里所说的排名下降指的是大幅下降,如果只是从第一页掉到第二页,这纯属正常。
如果从第一页掉到第二十页,那么你应该查一下。
服务器是否一切正常
最近有没有宕机?服务器设置是否正常?当搜索引擎蜘蛛来抓取的时候,服务器返回的是不是200状态码?如果服务器有问题,应该只是一个暂时的现象。
robots。txt文件是否正确
robots。txt文件用来阻挡搜索引擎蜘蛛抓取某些目录或某些文件,虽然这个功能很有用,但是很容易出错。
如果你的robots。txt文件设置有问题,/考试大/收集/搜索引擎蜘蛛就没办法抓取你的网站了。
正常设置和有错的设置可能差别非常微小,要多次检查,确保无误。
网站是否过度优化
前面谈了很多具体的优化技巧和手段,比如关键词选择,标题标签的写作,关键词位置密度,网站结构等等。但如果你把所有这些技术都用上,那离出问题就不远了。
过度优化现在往往是排名被惩罚的重要原因。这里有个度的问题,做到哪样是适当优化,哪种程度是过度优化,只有靠经验来掌握了。如果你在优化的时候会安慰自己“这应该没事吧”,就说明恐怕快有事了。
可疑的页面转向
有不少页面会放上一些JavaScript转项或者meta refresh转向,这些都有可能被认为是可疑的手法。
302转向也可能造成问题。
是否有大量交叉链接
有不少站长会同时掌握很多网站,并且在这些网站之间互相交叉链接,这是很有可能导致问题的。
一个人拥有四五个网站,可以理解,但如果四五十个网站,每个网站都不大,质量也不高,还都互相链接起来,这就可疑了。
收起