苏苏网赚论坛

 找回密码
 立即注册
查看: 1846|回复: 0

交流一下子Robots的效用和常见的问题

[复制链接]
跳转到指定楼层
楼主
发表于 2018-12-11 13:47:19 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
交流一下子Robots的效用和常见的问题
公司近期决定做一个SEO的宣传站来介绍公司自己的业务,同时也想借助百度的力量吸引一些客户,于是我们选择了些关键词。从选词到网站策划以及网站建设的每个步骤我们都很小心,我们做的每个事情都是想我们的网站列适合网站的蜘蛛的抓取习惯。网站的每个页面都采用DIV+CSS布局,网站的结构也不错,网址采用伪静态的方式更适合蜘蛛的抓取,网站的内容保持伪原创。虽然做了这么多的工作,自认为每个工作都很到位,但是效果真的很打击人,网站内页的收录一直不是很理想,网站的首页快照也超是10天以上,真的很叫人伤心啊,做了这么多的网站都还可以,但是做自己网站的时候,竟然是这个结果,哎!结果不是很理想,这些是个人整理的一些资料分享一些。
  首先在这处鳌述一下子Robots的效用,它可以用来作什么。Robots是网站和搜索引擎网站之间的一个协议。用来避免搜索引擎网站抓取那一些我们没想到被搜索引擎网站引得的内部实质意义。我们可以用它来尽力照顾一点**的内部实质意义,屏蔽死链接和无内部实质意义页面和重复页面。
  这个协议对全部的搜索引擎网站对管用,它不是一个指示,而是一个指令,它不会立刻发生效力,短的几天就可以发生效力,时间长的4周以上能力发生效力。谷歌相对于百度来说,发生效力时间较快一点;常见语法的定义:User-agent:定义搜索引擎网站。假如想定义全部搜索引擎网站请用*;Disallow:严禁搜索引擎网站抓取,/表达根目次,代表网站的全部目次。Allow: 是准许的意思,这处只简单的做一下子描写,具体的操作写法请参照百度文库;下边来谈一下子常见的问题和用处。
  一,屏蔽死链接
  死链接是网站不可以防止的困难的问题,假如被搜索引擎网站收录了,这么的死链接必然会影响用户体验认识,这个时刻就需求对这个页面施行robots屏蔽。常见的几种不正确如下所述:
  1,站内不正确,网站的操作担任 务的人显露出来误操作还是删去某些具体页面。
  2,手续不正确,由于网站改版,改易手续导致的死链接。
  3,外链引动的死链接,一般是因为输入不正确而造成形成你网站的死链接。
  二,屏蔽无内部实质意义页面和重复页面
  1,无内部实质意义页面和重复页面会严重影响站内页面的品质,假如站内存在数量多的这种无意义和重复的页面便会导致网站的降权;譬如一点注册页面,登陆页面,对话ID,加载页面,商城的购物蓝页面,这些个都要施行屏蔽。
  2,屏蔽多途径的同一个页面,众多网站的首页都会存在这么一个问题,举例解释明白一下子,当阳热线:,这个网址是常用的登录形式,由于手续和途径不一统的端由,导致首页有二个途径都被收录,/index.php,大致相似这么的,我们就要给网站一统一个标准的入口,直接用robots施行屏蔽操作。
  SEO压根儿就是一个积累的过程,以上的几点,期望对生手站长朋友对网站施行优化有所帮忙,上头没有周密解释明白Robots的具体写法,具体写法可以检查百度Robots优化指南;这处只对它的效用和用场施行理解释明白,期望可以查缺补漏吧。拜谢站长投稿!

以上是本人做公司SEO网站时所碰到的问题以及一些反思和处理方法,希望看这篇文章的朋友们别走我的老路,一些可以避免的尽量避免也欢迎朋友们一起交流、共同进步。本文由曾仕强演讲视频全集 www.315-cha.com,欢迎转载
上一篇:宁静致远
热帖推荐
回复

使用道具 举报

广告合作|最大的网赚客中文交流社区!十年老站!

GMT+8, 2024-4-29 13:04 , Processed in 0.249600 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.1 VIP版

© 2012-2022 苏苏网赚论坛 版权所有 | 10年老品牌

快速回复 返回顶部 返回列表