厦门市大寻网络主营:系统软件定制开发、小程序开发、公众号开发、APP开发、信息化软件开发服务热线服务热线:13850021717/0592-5786385

INFORMATION新闻中心

您当前位置:新闻中心>公司动态

厦门网络建设:seo教程指南(二)

发布者:大寻网络|TIME : 2017-01-03

导读:厦门网络公司:对网站来说,提供高质量的、对用户有益的内容恐怕是所有讨论的各种要素里最重要的一部分。

厦门网络公司:内容优化

  对网站来说,提供高质量的、对用户有益的内容恐怕是所有讨论的各种要素里最重要的一部分。用户很容易分辨出网站提供的内容是否是高质量的,并且他们也乐意于通过各种社交网络来向自己的朋友推荐好的网站,这同时也会提高网站在用户和搜索引擎中的声望,而这一切都离不开高质量的内容。

  1、撰写容易阅读,浅显易读的内容,有条理地组织内容,段落清晰,让读者能够清楚地了解内容的起始和逻辑,避免将大量不同主题的内容放在同一页上,却没有任何的分段、标识和层次划分。

  2、提供原创的、独特新颖的内容,不要模仿甚至抄袭别人的内容。原创内容不仅仅能吸引更多的用户,还可以招揽更多的回头客。而搜索引擎对于原创内容的识别能力也越来越高。


关键词优化

  关键词的布局,最重要的几个位置是开头,特别是第一段开头的50-150个字,需要包含一次关键词,然后中间正文中,出现2-3次关键词或者近义词,文章的结尾,也包含一次关键词就可以了。


  在关键词的布局中,还有一个概念是,关键词密度。关键词密度(Keyword Density)也叫关键词频率(Keyword Frequency),它是用来量度关键词在网页上出现的总次数与其他文字的比例,一般用百分比表示。相对于页面总字数而言,关键词出现的频率越高,那么关键词密度也就越大。简单地举个例子,如果某个网页共有100个字符,而关键词本身是两个字符并在其中出现5次,则可以说关键词密度为10%。通常认为,页面的关键词密度应该保持在2%到8%之间。


  许多搜索引擎都将关键字密度作为其排名算法考虑因素之一,每个搜索引擎都有一套关于关键字密度的不同的数学公式。合理的关键字密度可使你获得较高的排名位置,密度过大,起到相反的效果。


  关键字密度有时候会影响到关键词的排名,不建议采取一些极端的方法来提高关键字密度。合理的目标关键字密度可以通过关注一些长尾关键字来进行优化。长尾关键词(Long Tail Keyword)是指网站上非目标关键词但也可以带来搜索流量的关键词。长尾关键词的特征是比较长,往往是2-3个词组成,甚至是短语。通过长尾关键词挖掘工具可以找到不少长尾关键词,将这些词组织到文章里,就可以做到既不提高关键词密度,又能提升关键词在页面的权重。


 在正文里,要围绕关键词自然地写作,千万不要生硬地将需要优化的关键词直接插到文章中。文章中,尽量使用关键词的近义词、同义词。


网站结构优化

  网站内部结构优化对网站建设起到计划和指导的作用,对网站的内容维护、后期SEO起到关键作用。



  URL地址优化


  为网站上的文件创建具有良好描述性的分类名和文件名,不仅可以更好地组织网站结构,还有助于搜索引擎更有效地抓取文件。虽然搜索引擎能够抓取复杂的URL,但提供相对简单的URL,对于用户和搜索引擎来说都是有帮助的。


  优化URL结构的主要方法有,网站自始至终都使用一个URL地址,不要来回变更地址,如果用带www的域名地址,则将不带www的域名使用301重定向技术重定向到主要地址,避免使用大小写字母的URL,网站的URL尽量使用静态URL,避免使用动态URL,URL越短越好,URL的内容使用拼音或者英文最好,方便记忆。


  对于动态网站来说,使用伪静态技术可以让网站的外部看起来和静态网站一样,利于搜索引擎的索引。



  目录结构


  目录结构最好用一级到二级,不要超过三级。目录的组织方式尽量采用:首页-》栏目页-》内容页。目录名采用拼音或者英文。避免使用多层嵌套的子目录。


网站导航


网站的导航功能对于帮助用户迅速找到他们想要的内容来说是很重要的,它对帮助搜索引擎理解该网站有哪些重要内容同样非常重要。网站地图是将网站上用于展示网站结构的网页以层级式列表的方式展示。网站导航的主要目的是为了方便用户,但同时它也有利于搜索引擎对整个网站页面更全面地抓取。


主要的网站导航方法有,创造一个自然的层叠结构的网站地图页面,这个导航页面可以让用户很容易地从主干页面找到他们需要的特定内容,有必要的话可以在保证内部链接结构合理的基础上添加导航页。



使用面包屑(breadcrumb)导航模式,面包屑导航是指在网页顶端或者底部放置的一排内部链接,它使用户可以方便地回到上一层结构中的网页或者主页。大多数面包屑导航通常会从最具概括性的页面开始(通常是主页),越往右指向的页面内容越具体,例如"首页-》栏目-》具体文章标题"。


robots.txt



  robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。



  当我们不希望网站中的某些页面被搜索引擎抓取,也许这些网页在搜索结果中出现对于用户来说并没多大用处,就可以把这些页面放在robots.txt里,这可以保证网站的某些内容不出现在搜索结果中。


Sitemaps


  Sitemaps可方便网站管理员通知搜索引擎他们网站上有哪些可供抓取的网页,有点象BLOG的RSS功能,是一个方便自己的服务,如果大家(互联网上所有的信息源)都采用了这种方式提交自己的更新的话,搜索引擎就再也不用派出那么多爬虫辛辛苦苦的到处乱窜了,任何一个站点,只要有更新,便会自动"通知"搜索引擎,方便搜索引擎进行索引。



  Sitemaps文件通常是XML格式的,格式比较简单,Sitemaps协议以 <urlset> 开始标记开始,以 </urlset> 结束标记结束。 每个网址包含一个作为父标记的 <url> 条目。 每一个 <url> 父标记包括一个 <loc> 子标记条目。<loc>是网页文件的网址。此网址应以http开始并少于2048个字符。 <lastmod>表示该文件上次修改的日期。此日期允许删除时间部分,例如YYYY-MM-DD。



  目前百度、Google、雅虎、微软等搜索引擎都支持Sitemaps,Sitemaps的提交可以通过各个搜索引擎的站长平台提交,也可以将其地址放在robots.txt文件里供搜索引擎查询,具体方法是:在robots.txt的最后一行增加.(厦门网络公司文章来自百度新闻)


QQ在线咨询

客服咨询

0592-5786385

13850021717

微信扫码咨询