如何打造出完美的网站内部优化

  • 1
  • 23,107 views
  • A+
所属分类:SEO相关 网站建设

一、网站关键词

当你已经确定网站的关键词以后,可以选择用这些关键词做为网站的各个目录的名字,增加关键词的出现率,提高了关键词密度。在网页内容里面,通过做长尾关键词来优化,如何找长尾关键词,这里就不赘述了。这里有个良好的习惯就是,每天用一个表格去记录你文章的标题,关键词和链接地址,这样子做的目的是可以让你很好的在一篇文章中做另一篇文章关键词的锚文本。好处就不多说了。

二、网站目录的树结构

当你确定了关键词和网站目录以后,尽量要做成树结构的形式,这样子一方面可以让读者很清晰,准确地浏览到网站的文章,提高了用户体验度。另一方面,对于搜索引擎来说,一般有以下这么几条好处:URL标准化、结构清晰一目了然、关键词布局精准、符合用户体验等等。

作为一个新手站长,你我都应该知道“内容为王,外链为皇”这句站长界的真理,但是随着百度最近几个月大的动作,导致很多采集站和伪原创站被K或者降权,这也从侧面印证了百度现在越来越重视用户体验度的问题了。如何搞好用户体验度,其中一个重要的一点就是——良好的内部优化,这不仅有利于用户更为方便地阅读网站内容,提高用户体验度;更有利于蜘蛛的爬行,对网站seo有很好的作用。就简单地从以下几个方面介绍下如何进行内部优化,希望给新手站长们一点建议。

三、网站地图

网站地图又称站点地图,它就是一个页面,上面放置了网站上所有页面的链接。对于SEO,网站地图的好处就更多了:1、为搜索引擎蜘蛛提供可以浏览整个网站的链接2、为搜索引擎蜘蛛提供一些链接,指向动态页面或者采用其他方法比较难以到达的页面。网络上有不少免费帮你生成网站地图的工具,或者在线的;很多cms程序里面也会自带这种插件的。

四、Robots和nofollow标签的使用

搜索引擎都遵循robots.txt协议,Robots可以告诉搜索引擎你可以收录什么,不可以收录什么,可以有效地防止网站的某些内容被收录。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如果存在,爬虫就会按照该文件中的内容来确定访问的范围。

nofollow 是一个用于指示某些搜索引擎的超链接不应影响搜索引擎的索引中的链接目标的排名的HTML属性值。目的是尽量减少垃圾链接对搜索引擎的影响。合理使用nofollow标签,可以让你更加清楚地明白你网站的权重转向哪里。在你不需要的地方,你可以使用这两个标签去告诉搜索引擎,这个链接你不需要跟踪了,这个不是我们网站的重点,比如:网站的评论内容里面的链接,关于我们的页面等等。

以上几个方面简单告诉了新手在优化网站时候所遇到的一些问题,其实还有很多方面需要学习和注意的——比如网站的伪静态,关键词密度和分布等等,这里就不在赘述了。最后告诉大家的就是,网站优化一个长期的过程,你做好这些远远不够,站在用户的角度上多思考,多改进,你会收获意想不到的结果。

五、死链和404页面

对于网站内部链接来说,尽量不要出现死链,你想想,当蜘蛛兴高采烈地沿着这个地址去“觅食”,最后却发现什么都没有,来回折腾一场空,必然会引起搜索引擎的反感。这个时候,我们就需要一个404页面,去告诉蜘蛛,这个页面不存在了,不要来了,友好地去提醒它,这样子也不至于引起蜘蛛的反感。这里要说的就是404页面,不要做成自动跳转的,最好是通过手工点击链接跳转的形式。

六、相关日志和随机日志

很多建站程序包括cms和一些博客程序,都会在文章内容页的边栏有这个功能,列举出本文文章的相关文章或者网站随机出现的内容,这样子的好处,一是增加了用户体验度,可以提高用户黏粘性,增加网站pv;另一方面,可以增加网站链接曝光率,提高蜘蛛的爬行次数。

感谢支持米粒在线,转载请注明出处:http://www.miliol.org/1184.html

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

目前评论:1   其中:访客  1   博主  0

    • avatar 爱飞儿 0

      来这里学习来啦