如今很多站长都会用CSS+DIV作为自己网站的程序,因为在他们看来这种程序的优势就在于能够更有效地让蜘蛛爬行自己的网站,提高网页收录量。我目前也在采用这种程序,目前来看效果还算不错,不过网站优化讲究的就是多样性,仅仅靠着网站程序就像提高网站的可爬行性未免有点痴人说梦,所以我就在网站的布局上动了心思。
1.网站整体布局简洁,尽可能少用图片
虽然网站的直接对象是网友,但是网站同样要呈现给蜘蛛,让它来审阅收录。一个网站为了页面的华丽而大量采用Flash以及图片,这样让网站加载速度变慢,使蜘蛛无法在有效地时间内索引网站的内容,爬行我们的网站结构,所以要值得注意。
另外,网站自身也要有一个树形结构,使得网站相关性内容整合在一个栏目之下,以首页-索引页-内容页的形式的形式展开,提高内容的相关性,这样就有利于蜘蛛的爬行整合。
2.网站导航类目
导航栏在我看来绝对是网站层次结构建设中比不缺少的一部分,一个明确的导航栏能有效的提升蜘蛛的识别率,因为蜘蛛虽然对图片格式不感冒,但是对于一些css是能够识别的。不过我们不能贪图一时的效果而去堆积js、ajax、inframe等技术,因为这些都是被百度看做作弊的手法。
同时,面包屑导航是一个降低网站跳出率有效的措施。因为很多时候游客会误入网站的某一个页面,而这时候由于没有面包屑导航,就会找不到之前访问的页面,而这时候大多数网友会选择直接关掉网页,所以面包屑导航的设置很关键。同样的道理,网站地图的出现也会让网站自身的层次结构完整呈现在蜘蛛面前,使得它对我们网站了如指掌。
3.内容页层次结构的建设
对于文章的摆放并不是随意就可以的。仔细研究过空间日志的站长都知道,新的文章内容一定要呈现在蜘蛛出没最频繁的地方,所以文章要按发布时间排放也就不足为奇了。
另外每篇文章都要与其他页面进行一个连接,比如上一篇、下一篇按钮的设置,这样可以增加相关阅读的增量,有利于蜘蛛自身的索引以及收录。
4.标签云以及内部锚文本的使用
标签云是提高聚合类内容可爬行性的有效途径。而标签云采用不同颜色、不同大小、不同粗细以区分不同用户关注度的内容。同时内部锚文本的加入也能让整个网站串成一个整体,页面之间互相联系,增加用户体验的同时加大蜘蛛的访问深度。
以上四点就是我提高网站可爬行性经常用到的方法在,在这分享给大家,希望可以给站长们带来一点帮助。此文由http://www.erhaoshouzhang.com/guanjia/ 官家撰稿,欢迎转载,转载时请保留链接,谢谢。
此文章由 http://www.ositren.com 收集整理 ,地址为: http://www.ositren.com/htmls/28138.html