苏苏网赚论坛

 找回密码
 立即注册
查看: 4808|回复: 0

提升网站收录的3大要点!

[复制链接]
跳转到指定楼层
楼主
发表于 2019-1-4 13:23:04 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
一、页面路径的静态化和url字符长度的缩短是提升收录量的基础
  这一点应该是做seo的共识,首先说页面路径的静态化,有些cms系统本身就支持静态化或者伪静态化页面,如果网站是采用这些内容管理系统做的那就确实可以省去很多麻烦,如果自己独立开发的系统采用的动态的页面路径,那就需要采用正则表达式进行设定,具体的代码网上一搜一大推,我就不写出来了。虽然百度在搜索引擎优化指南里明确表明百度是可以抓取动态路径的,但是我们尽量还是要设置成静态的,比较搜索引擎爬虫为了防止掉入“陷阱”,以免进入死循环,还是对动态路径有所考虑的,所以干脆就直接设置静态化,这实现起来又不是很难。比如笔者的网站,我采用的本身就是dedecms系统,所以就很容易设置静态化,还有A5官网本身也是采用的dedecms的系统,所以对于一般没多少技术实力的站长而言,还是采用比较成熟的cms比较好,漏洞少,稳定性也好。
  其次我得说说这个url的长度,我接触过一个客户的网站,让我超级郁闷,刚开始一篇文章都不收录,我查来查去也不知道原因何在,我把文章地址直接复制到百度查看才让我恍然大悟,原来他的url路径的文件名是新闻标题的全拼,一篇文章的标题汉字很长,那么转化成拼音的话就长的出奇,而百度对长度的抓取是有限制在38个字符之内的,后来把文件名修改成数字的形式才解决。url静态化和长度确实是影响收录量的一个重要因素。
  二、nofollow和robots.txt的合理设置促进页面收录量提升
  笔者曾优化过一个废品回收的网站,当时拿来后一直发现该网站收录只有1条,而且百度收录显示的网站标题还是网址的形式,这让我很郁闷,我首先考虑是不是服务器的问题,但是没有发现任何问题,然后我想到可能是robots的设置问题,果然,发现其写法是“User-agent Disallow:/”,这不明显是让搜索引擎不抓取网站吗?后来把“/”去掉,网站一切就正常了。这只是错误的设置,还有通过nofollow和robots的设置可以屏蔽掉对流量和关键词排名提升没有用的页面,通过这些设置可以让蜘蛛每天的抓取时间尽量放在有用的页面上,进而提升整个网站是收录量。
  三、两种版本的sitemap的设置帮助蜘蛛抓取更多暗藏页面
  seoer公认的另一点能提升收录量的方法就是sitemap的设置,一般sitemap有xml版本和html版本,笔者的建议是两种sitemap都要设置,xml版本是给搜索引擎看的,html版本是给用户看的。搜索引擎爬行网站的时候首先关注robots然后就看sitemap,它会先遵照这两个东西进行爬行你的网站。而我们在sitemap里把网站所有的页面都集合到一起了,sitemap也可以看成是网站的枢纽页,简言之就是有很多导出链接的页面,同时sitemap还能让蜘蛛知道网站还有很多暗藏的页面,这样就更利于爬行和抓取了,对收录量的提升也是大有裨益的。
热帖推荐
回复

使用道具 举报

广告合作|最大的网赚客中文交流社区!十年老站!

GMT+8, 2024-4-27 02:24 , Processed in 0.280801 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.1 VIP版

© 2012-2022 苏苏网赚论坛 版权所有 | 10年老品牌

快速回复 返回顶部 返回列表