苏苏网赚论坛

 找回密码
 立即注册
查看: 8457|回复: 0

有效解决页面重复收录三个方法

[复制链接]
跳转到指定楼层
楼主
发表于 2019-4-12 21:27:52 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
一、利用ROBOT屏蔽其他网址  每个网站都会带有两个网址,特别是一些要生成静态的网站,本身就存在一个动态的,自然生成静态后就会多出一个网址,这样当这篇文章收录了,两个网址也被收录了,这就是为什么有时候,明明自己更新三篇的却收录六篇甚至更多,因为这里面搜索引挚把其中同一篇文章的两个网址看作是独立的,自然就两个都被收录了。其实很多时候,站长都希望自己的网站收录多,但是同样的文章重复几次的收录,对于网站优化确实存在一种增加收录的现象,但是过不了多久,同类的就会删除掉,毕竟一样的内容存在搜索引挚数据库中只会占用空间,所以,这就是为什么今天收录了那么多,过几天又没了的原因了。针对这样的原因,利用ROBOT屏蔽掉动态的就行了。
  
二、及时的清除缓存
  缓存主要是因为空间的设置不当或者是空间的性能不咋样,因为性能好的空间不会存在缓存,而且因为存取的速度快,自然就不会存在缓存一说了。很多的空间都会带有这样那样的缓存机制,对于一个秒收的网站来说,缓存不及时清除只会让搜索引挚把同样的一篇文章收录多次,因为一开始你添加完成后自然就会在空间上留下编辑的缓存,而当你全部更新完后,再生成静态或者伪静态的,又会出现一次缓存,而生成后又是一个网址。这样一来就会出现三个网址了。而且有些程序还会自动保存的,自动保存就是备份当然就会存在缓存了,要不然怎么恢复呢。所以,对于这样的缓存不及时清楚,那么当蜘蛛爬行的时候,会连同这些一并抓取,自然就产生重复收录多次了。所以,及时的清除缓存对于解决页面重复收录是有帮助的。
  
三、利用网站地图引导蜘蛛
  蜘蛛爬行是首先爬行ROBOT文件,然后接着就是网站地图,再者是首页。那么通过给网站设置地图不但可以减小网站重复收录的现象,而且还让蜘蛛爬行更加的顺畅。都知道网站让蜘蛛爬行顺畅时自然给予搜索引挚一定的好印象。说明网站具有稳定性和通畅性。很多站长对于网站地图不在意,其实网站地图就像大厦的平面图,让蜘蛛一看就知道网站的全部内容,自然抓取起来就方便多了,而且拥有一个完整的网站地图,并且每次更新后生成一次地图,对于网站本身就拥有一定的帮助。而通过地图可以有效的减少重复收录的情况。所以,网站地图的作用不单单是把整站的内容进行归纳,而且还可以让蜘蛛爬行更加的顺畅无阻。减少页面重复收录那是一把好手。
热帖推荐
回复

使用道具 举报

广告合作|最大的网赚客中文交流社区!十年老站!

GMT+8, 2024-4-29 03:56 , Processed in 0.124800 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.1 VIP版

© 2012-2022 苏苏网赚论坛 版权所有 | 10年老品牌

快速回复 返回顶部 返回列表