苏苏网赚论坛

 找回密码
 立即注册
查看: 745|回复: 0

网站的绊脚石

[复制链接]
跳转到指定楼层
楼主
发表于 2018-11-22 14:58:52 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
什么是死链接?
  
  它给网站会带来哪些负面的影响?
  
  其实死链接就是刚才笔者介绍的那样,没有效用的链接,蜘蛛无法爬行的链接。这种链接对于网站建设不但没有用处,反而会影响到网站优化工作。试想蜘蛛索引网站内容的时候,发现很多链接都无法到达,无形中就给蜘蛛留下了不友好的印象,以后的优化工作也就增加了难度。
  
  1.首先会导致网站收录量减少,排名下降,因为很多链接都是无效的,所以蜘蛛在抓取内容的时候,经常是扑个空,所以网站收录量必然下降。
  
  2.流失PR值。大家都知道网站PR值是传递的,虽然如今谷歌退出了中国市场,但是PR值不是没有任何用处,在一些论坛上,PR值仍然是站长衡量链接质量的重要指标,但是死链接的出现必然会让网站在传递PR值的时候出现“断层”,就拿我的网站198流量交换联盟来说,如果网站中充斥着大量的死链接,那么即使你采用DIV+CSS程序去“引诱”蜘蛛爬行,效果也是不明显的,因为死链接的大范围出现。会让网站结构更加裸露,更加难以爬行。
  
  3.损失网站的用户体验度。试想一个陌生的游客来到自己的网站访问,如果打开10个网站中出现9个无法访问的,这会让用户怎么想自己的网站?肯定是业余加粗糙的结合体!而且我想告诫大家的是这部分流量的流失都是不可挽回的!
  
  怎么检测网站中存在的死链接?
  
  1.使用sitemap可以在生成网站地图的同时,把自己网站中死链接全部陈列出来。
  
  2.一样的道理,谷歌管理员工具也具有这样的功效,在数据栏目中,我们都能查询到谷歌没有抓取到的全部链接。
  
  死链接怎么处理?
  
  1.手动删除死链接
  
  看病最重要的就是找到病根,这样才能对症下药,缩短病人患病的时间,网站建设也是这样,处理死链接的时候我们最好找到死链接自身所处的位置,然后在页面中手动删除,这样比较容易,但是一旦网站上线时间较长,域名使用很久的情况下,虽然我们也可以使用站长工具查出死链接存在的数量,但是删除就不是很容易了,会相当困难,所以我们在建设网站的时候一定要做好防范,杜绝一切死链接的存在,一旦发现,立即删除。
  
  2.使用robots屏蔽可能的网页
  
  同样以看医生为例,有时候我们会找不到病人的病因,如同网站的死链接,那么这个时候我们难道就不用处理网站死链接了?肯定不是,既然找不到网站的死链接,那么就扩大处理的范围,使用robots屏蔽可能的网页以及链接,编辑方法也很简单,只需要在语言中加入Disallow:死链接绝对网址这个语句就可以了,告诉蜘蛛这个网页无效,禁止抓去网站链接。然后把自己编辑好的语句上传到网站目录就可以了。
  
  PS:但是这里面还存在一个问题,那就是如果网站自身经过改版造成大量死链接的存在,那么这种方法还有效用吗?经过笔者的亲身实践,发现如果网站改版后,内容以及网站结构层次上必然会有一个较大的变更,这时候单纯的使用robots语句对网站页面进行简单屏蔽的话效果并不是很明显,这时候我们需要利用301重定向,将各种网络请求直接转换到其他页面。
  
  3.401错误页面提醒
  
  如果你的网站上线时间较长,页面收录量是十万级的,使用301重定向方法就显得有些费时间,如果站长想减轻点负担,404错误页面或许是一个不错的选择,我们可以通过404错误页面将用户指引到我们想要他们访问的网站,跳转时间在8秒左右最宜,然后在页面中加入大家想要的网址提示,不过最好是用户自己点击,这样会降低自动跳转带来的用户反感度。但是404错误页面只是将在无法访问的情况下出现的提示
热帖推荐
回复

使用道具 举报

广告合作|最大的网赚客中文交流社区!十年老站!

GMT+8, 2024-4-30 00:44 , Processed in 0.140400 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.1 VIP版

© 2012-2022 苏苏网赚论坛 版权所有 | 10年老品牌

快速回复 返回顶部 返回列表