首先,确保它可以被搜索引擎访问 这当然是常识,因为拒绝蜘蛛爬行的网站,除非是私人使用,否则不会受到搜索引擎的欢迎。然后,为此,我们需要确保以下三个方面到位: 1.内容可以被索引。意思是内容一定要用HTML,大部分视频,图片,Flash等。不会被搜索引擎蜘蛛发现。建议在图片中加入ALT属性,用CSS样式而不是文字向用户显示图片(CSS图片替换?) 2.链接结构保证了爬行。确保站内每一页都有其他页面链接,没有孤立的页面。比如JS中的链接无法抓取,一个页面的链接太多就会被屏蔽(Google 100?),还需要注意robots.txt文件是否屏蔽了蜘蛛的爬行,以及页面上的metaRobots标签。 3.网络地图。帮助蜘蛛索引网站页面,这些页面是由在线工具生成的,或者是由网站程序带来的。 二、网站信息架构 信息架构就是如何通过分类使内容有序。从用户体验来看,用户在访问网站时,可以一目了然地进行下一步,最直观地获得想要的内容。这是架构,必须在一个网站规划期内完成。 横向组织比深度结构好,每页的链接数要控制,尽量不要分页,因为分页是纯数字列表,不提供主题相关性,导致复制内容和蜘蛛陷阱的问题。 第三,网站导航 1.搜索框和表格对搜索引擎是不可见的。 2、alt提供的信号不强,不能替代文字链接,图片还是尽可能用html方式加上标题和文字说明 4.url结构,如域名和目录 1.选择子目录会最大化你的seo,因为所有页面都会把权重指向主域名,链接形式会帮助搜索引擎判断哪个是主域名。那么,什么时候选择子域名呢?重新定义品牌时,子域会给自己更高的权重。 2.站组内容 域名选择:买一个老的,信誉好的,网站质量高的域名。如果选择新域名,建议早买先挂页面,做一些外部链接。 关于链轮,最有价值的方法是直接将所有站组指向主站,而不是相互链接,然后其中一些指向主站。 网站主题方面,内容宽泛的网站对于长尾搜索和品牌覆盖更有价值。 第五,内部链接优化合理,蜘蛛爬得越深。 如果你经常查看网站的日志,你会发现搜索引擎中的大多数蜘蛛都会抓取网站的主页。权重越高,抓取的深度就会越深,有的可以抓取到3级或者4级的内容。蜘蛛爬得越深,可以挖掘的内容越多,网站包含的内容数量也可以提高。但是我们怎样才能让蜘蛛爬得更深呢?自然要一直在内部环节上下功夫。如果站点内部链接非常匮乏,每次蜘蛛爬行都要回到首页,如果我们重新开始,会大大打击蜘蛛的任务效率,使其无法更深的爬行。 (责任编辑:admin) |