技术资讯

网站被惩罚了怎么办

TIME:2011/10/14

网站被惩罚了怎么办?想列举几个常见的惩罚现象:

  •     基本的排名从第一页到了第十几页或者更靠后,如果只是掉到了2,3页一般不是惩罚。
  •    谷歌的负6,负30,负950等这都是谷歌对一批网站的固定排名。
  •    百度的11位现象。

在中国SEO大多用的是百度那么就先说说什么网站会有11位现象.

         百度的11位,这也是我做一个站的时候排名很不稳定,于是我就批量的增加了大量的外链,锚文本也没什么多样性。但是最后得不偿失,被百度拉到了11位,结果稳定了。悲哀……11位,考验了我1个月,下面就将我是怎么恢复排名的。

        1、翻出网站操作日志(我对我的网站所有的操作都有一个记录表)看什么时候开始大量增加外链的,在那里发布的外链,那些外链被正常收录,一一列出来,然后更改锚文本,或者删除。

         2、有没有链向坏邻居,有的话直接删除。

         3、在删除给我带来悲剧的外链的同时在循序渐进的增加外链,这次我增强的链接锚文本的多样性。

         4、在蜘蛛常去的地方引蜘蛛。

          5、增加网站内容的原创文章,优化长尾。

这样操作了1不到一个月就恢复排名了。技巧性的东西你完全可以复制应用在自己网站上就算你没有被惩罚也会提升权重的。

网站被惩罚一般怎么检查及解决办法:

     1、可能是粗心烦的错,认真检查robots文件,看看有没有书写性的错误屏蔽了真个目录的收录,或者禁止收录。

     2、检查meta部分代码,<meta name=”robots” content=”noindex, nofollow”>是不是有这段代码,这是屏蔽收录的代码。

      3、查看与你同服务器的网站有没有作弊,或者已经被惩罚的网站,这你就得联系你的主机服务上让他给你更换服务器。

      4、查看蜘蛛爬行时返回的服务器头信息,这个你可以查看日志文件。

      5、检查网站是否存在大量重复内容,或者一个页面被重复收录,重复内容直接删除一个,或者在robots里屏蔽,如果是一个页面被重复收录一定是一个页面可以被多个URL打开,建议URL标准化,去掉的URL也要在robots里屏蔽。

      6.是否存在大量的死链接,robots屏蔽掉,做正规的404,不要早404里设跳转。

      7、检查网站的转向方法,除了301,其他都被定为作弊手段。

       8、是否网站过渡优化,不知道什么是过渡优化的看这里http://www.hetian.me/seo_jishu/网站过渡优化/  

        9、闹不清是什么手段导致了网站被惩罚,而且很严重,甚至被K建议该放弃就放弃。这里没有坚持到底就是胜利的道理。

上一篇

王宝臣:总结网站页面收录提高的方式

下一篇

张建飞:SEOER必须知道的代码规范优化