您的位置:广州网站优化 > 网站内部优化的方法
时间:2014-04-28 18:04:36 来源: 编辑:广州网站SEO

 一、网站关键词

 
当你已经确定网站关键词以后,可以选择用这些关键词做为网站的各个目录的名字,增加关键词的出现率,提高了关键词密度。在网页内容里面,通过做长尾关键词来优化,如何找长尾关键词,这里就不赘述了。这里有个良好的习惯就是,每天用一个表格去记录你文章的标题,关键词和链接地址,这样子做的目的是可以让你很好的在一篇文章中做另一篇文章关键词的锚文本。好处就不多说了。
 
二、网站目录的树结构
 
当你确定了关键词和网站目录以后,尽量要做成树结构的形式,这样子一方面可以让读者很清晰,准确地浏览到网站的文章,提高了用户体验度。另一方面,对于搜索引擎来说,一般有以下这么几条好处:URL标准化、结构清晰一目了然、关键词布局精准、符合用户体验等等。
 
三、网站地图
 
网站地图又称站点地图,它就是一个页面,上面放置了网站上所有页面的链接。对于SEO,网站地图的好处就更多了:1、为搜索引擎蜘蛛提供可以浏览整个网站的链接2、为搜索引擎蜘蛛提供一些链接,指向动态页面或者采用其他方法比较难以到达的页面。网络上有不少免费帮你生成网站地图的工具,或者在线的;很多cms程序里面也会自带这种插件的。
 
四、死链和404页面
 
对于网站内部链接来说,尽量不要出现死链,你想想,当蜘蛛兴高采烈地沿着这个地址去“觅食”,最后却发现什么都没有,来回折腾一场空,必然会引起搜索引擎的反感。这个时候,我们就需要一个404页面,去告诉蜘蛛,这个页面不存在了,不要来了,友好地去提醒它,这样子也不至于引起蜘蛛的反感。这里要说的就是404页面,不要做成自动跳转的,最好是通过手工点击链接跳转的形式。
 
五、相关日志和随机日志
 
很多建站程序包括cms和一些博客程序,都会在文章内容页的边栏有这个功能,列举出本文文章的相关文章或者网站随机出现的内容,这样子的好处,一是增加了用户体验度,可以提高用户黏粘性,增加网站pv;另一方面,可以增加网站链接曝光率,提高蜘蛛的爬行次数。
 
六、Robots和nofollow标签的使用
 
搜索引擎都遵循robots.txt协议,Robots可以告诉搜索引擎你可以收录什么,不可以收录什么,可以有效地防止网站的某些内容被收录。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如果存在,爬虫就会按照该文件中的内容来确定访问的范围。
 
nofollow 是一个用于指示某些搜索引擎的超链接不应影响搜索引擎的索引中的链接目标的排名的HTML属性值。目的是尽量减少垃圾链接对搜索引擎的影响。合理使用nofollow标签,可以让你更加清楚地明白你网站的权重转向哪里。在你不需要的地方,你可以使用这两个标签去告诉搜索引擎,这个链接你不需要跟踪了,这个不是我们网站的重点,比如:网站的评论内容里面的链接,关于我们的页面等等。[