SEO(Search Engine Optimization),搜索引擎优化。SEO包含站外SEO和站内SEO两方面。
1、内部优化
META标签优化:例如:TITLE,KEYWORDS,DESCRIPTION等的优化;
内部链接的优化,包括相关性链接(Tag标签),锚文本链接,各导航链接,及图片链接;
网站内容更新:每天保持站内的更新(主要是文章的更新等)。
网站结构优化:包括网站的目录结构,面包屑结构,导航结构,URL结构等,主要有:树形结构、扁平结构等。
2、外部优化
外部链接类别:友情链接、博客、论坛、B2B、新闻、分类信息、贴吧、知道、百科、站群、相关信息网等尽量保持链接的多样性;
外链运营:每天添加一定数量的外部链接,使关键词排名稳定提升;
外链选择:与一些和你网站相关性比较高,整体质量比较好的网站交换友情链接,巩固稳定关键词排名。扩展资料
优化目的
1、随着网络的发展,网站的数量已经数以亿计,互联网上的信息量呈爆炸性增长,加大了人们寻找目标信息的难度,而搜索引擎的出现给人们寻找信息带来极大的便利,已经成为不可或缺的上网工具。
2、根据人们的使用习惯和心理,在搜索引擎中排名越靠前的网站,被点击的几率就越大,相反,排名越靠后,得到的搜索流量就越少。据统计,全球500强的公司中,有90%以上的公司在公司网站中导入了SEO技术。
3、一般的网络公司因缺乏专业的营销知识和理念,仅从技术的角度出发为您建造网站,美工只管将您的网站设计漂亮,程序员只管实现您要求的功能模块,这样做出来的网站是有缺陷的,不符合搜索引擎的收录要求,所以必须对网站进行全面的针对性优化。
搜索引擎优化策略应该包括三部分:
1、内容调查和编写
第一件事就是关键词调查,关键词是搜不尽、查不绝的。调查越深入,发现的词条就越多,尽量在允许的时间内对这些词条进行进一步的分析和研究。反复此过程,最后才能确定关键词。
记住重要的一点:Google上进行的一半以上的搜索是不一样的!
需要为选定的每个关键词产生一个单独的页面:一个关键词条一个页面。这意味着一个站要产生无数页面。
2、网站内容排版
这部分工作的目的是提高主页的页面等级PR。
理论上来讲,网站的每个页面都拥有自己的外部链接和PR 值,但这不仅不可能,而且也没有必要。
Google认为每个页面的链接数量最好不要超过50-100。简单来说,随着主页的点击次数的提高,页面的PR值反而会降低。所以我们追求的网站结构是:在每页的链接上限内,给每个页面最少的点击次数。
3、外部链接建设
这是SEO策略中最难的部分,不仅需要投入大量精力,更需要创意,找到链接的独特方法。
获得外部链接的方式:交换友情链接;购买单向链接;增加网站创意与特色,链接自然会找上门。
参考资料来源:百度百科-搜索引擎优化
网站结构优化包括哪些内容
SEO网站结构优化包括以下内容:
1、URL地址优化
为网站上的文件创建具有良好描述性的分类名和文件名,不仅可以更好地组织网站结构,还有助于搜索引擎更有效地抓取文件。虽然搜索引擎能够抓取复杂的URL,但提供相对简单的URL,对于用户和搜索引擎来说都是有帮助的。
优化URL结构的主要方法有,网站自始至终都使用一个URL地址,不要来回变更地址,如果用带www的域名地址,则将不带www的域名使用301重定向技术重定向到主要地址,避免使用大小写字母的URL,网站的URL尽量使用静态URL,避免使用动态URL,URL越短越好,URL的内容使用拼音或者英文最好,方便记忆。
对于动态网站来说,使用伪静态技术可以让网站的外部看起来和静态网站一样,利于搜索引擎的索引。
2、目录结构
目录结构最好用一级到二级,不要超过三级。目录的组织方式尽量采用:首页-》栏目页-》内容页。目录名采用拼音或者英文。避免使用多层嵌套的子目录。
3、robots.txt
robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。
当我们不希望网站中的某些页面被搜索引擎抓取,也许这些网页在搜索结果中出现对于用户来说并没多大用处,就可以把这些页面放在robots.txt里,这可以保证网站的某些内容不出现在搜索结果中。
4、Sitemaps
Sitemaps可方便网站管理员通知搜索引擎他们网站上有哪些可供抓取的网页,有点象BLOG的RSS功能,是一个方便自己的服务,如果大家(互联网上所有的信息源)都采用了这种方式提交自己的更新的话,搜索引擎就再也不用派出那么多爬虫辛辛苦苦的到处乱窜了,任何一个站点,只要有更新,便会自动“通知”搜索引擎,方便搜索引擎进行索引。
Sitemaps文件通常是XML格式的,格式比较简单,Sitemaps协议以开始标记开始,以结束标记结束。每个网址包含一个作为父标记的条目。每一个父标记包括一个子标记条目。是网页文件的网址。此网址应以stmod>表示该文件上次修改的日期。此日期允许删除时间部分,例如YYYY-MM-DD。
5、网站导航
网站的导航功能对于帮助用户迅速找到他们想要的内容来说是很重要的,它对帮助搜索引擎理解该网站有哪些重要内容同样非常重要。网站地图是将网站上用于展示网站结构的网页以层级式列表的方式展示。网站导航的主要目的是为了方便用户,但同时它也有利于搜索引擎对整个网站页面更全面地抓取。
主要的网站导航方法有,创造一个自然的层叠结构的网站地图页面,这个导航页面可以让用户很容易地从主干页面找到他们需要的特定内容,有必要的话可以在保证内部链接结构合理的基础上添加导航页。
使用面包屑(breadcrumb)导航模式,面包屑导航是指在网页顶端或者底部放置的一排内部链接,它使用户可以方便地回到上一层结构中的网页或者主页。大多数面包屑导航通常会从最具概括性的页面开始(通常是主页),越往右指向的页面内容越具体,例如“首页-》栏目-》具体文章标题”。
7、Nofollow的使用
nofollow标签是由Google领头新创的一个标签,目的是尽量减少垃圾链接对搜索引擎的影响,减少博客的垃圾留言,目前百度、Google、Yahoo、微软都支持这一标签。当超级链接中出现nofollow标签后,搜索引擎会不考虑这些链接的权重,也不用使用这些链接用于排名。
nofollow标签通常有两种使用方法:一种方法是将"nofollow"写在网页上的meta标签上,用来告诉搜索引擎不要抓取网页上的所有外部和包括内部链接。例如:。另一种方法是将"nofollow"放在超链接中,告诉搜索引擎不要抓取特定的链接。例如:。
如果一个网站链向了某些被搜索引擎认为是垃圾网站的地址,那么这个网站的权重也会受到影响。因此对于一个网站来说,为了安全保险起见,所有那些有可能是第三方提交的超级链接都应该添加nofollow标签。
8、404页面
404网页是用户尝试访问网站不存在的网页(由于用户点击了损坏的链接、网页已被删除或用户输入了错误的网址)时看到的页面。之所以称为404网页,是因为针对丢失网页的请求,网络服务器会返回404HTTP状态代码,表明该网页未找到。
用户偶尔会因点击失效的链接或输入错误的URL而访问一些在网站域名下但并不存在的页面。使用自定义404网页能有效地帮助用户回到网站中有效页面,大大提高用户体验。404网页最好能提供回到网站主页的链接以及到网站中热门内容页面的链接。
通常用户最好创建一个自定义的404网页,以便获得这部分用户流量。一个好的自定义404网页可以帮助用户找到所需信息、提供其他实用内容及吸引用户进一步浏览用户的网站。
很多网站设计的404页面都很简单,不少网站为了不损失流量,在404页面里面自动重定向到首页的方式,这并不是一个改善用户体验的设计方法。
网站结构优化的内容和方法
网站结构优化的方法 网站优化的过程当中也会有针对性的去偏向优化。至于很多站长所说的网站结构最好是树状结构或者比较理想的网状结构之类,只要你按照“迷路的小爬虫”所述的网站结构优化要点去做,你就会搭建成一个树状甚至网状化结构的网站。下面是我带来的网站结构优化的方法,希望对你有帮助! 目录结构通俗来讲就是网站的URL结构,在服务器上搭建网站的时候,站长会发现服务器的根目录下一般都会有一个WWW的文件夹,这个不是一定的,但是大部分的命名都是如此,然后按照网站的规划和内容布局会有一级一级的目录基于WWW来构建,而每一个目录下面都会有具体的网页文件,比如:html、shtml、aspx、php等,这种目录路径的搭建就形成了用户访问的URL地址,从另一个方面说URL地址就是文件存储在服务器上的目录路径;这样说即使对于刚入门的站长来说也是非常容易理解。 内链结构通俗上讲就是网站页面与页面之间的关系,建设网站的站长都知道,一张页面上除了核心内容,尤其是网站的首页、栏目页或者列表页都会很多的链接组成,而这些页面的链接就形成了整个网站的内链结构。至于什么形式内内链结构更加合理,对搜索更加友好,在接下来会一一分享给站长朋友。 什么样的网站结构对搜索引擎友好? 同样在这一块分开来讲,以便于站长能够更加清晰的认知网站结构如何去围绕搜索引擎来部署。 前面提到目录结构的概念,基于根目录扩散成一个个实实在在存在的文件,清晰的目录路径不仅有利于站长来管理,对于搜索引擎来说也是非常的友好,通过爬取轨迹一级级获取它要抓取的页面,如果你的网站仅仅有一个首页、若干个栏目页、可扩展的专题页和文章详情页,那么理想化的URL结构就是按照服务器上实实在在的文件存储位置来构建。但是往往一个网站并不是如此简单的情况,网站多少会有一些功能性的产品要与用户做交互,要通过动态程序去构建很多的页面,以丰富网站的产品体验,所以你会发现好多网站的URL里面会有很多的动态参数,因为这些页面都是通过一定的技术批量生成的页面,并不是在服务器里面实实在在存在的页面,而官方声明搜索引擎恰恰更喜欢静态化的页面,这个时候就需要对URL地址进行包装重构,不管是Apache、Ngnix或者IIS都对 URL地址有重写模块,这些暂时不做介绍,这里只介绍重写成什么样的URL地址才更有利于搜索引擎的抓取,主要包含以下两个个方面: 1、URL地址命名要贴近目标页面的主题名称,有利于提升与目标页面的相关性,从而提升目标页面权重; 2、URL地址的层级基于所属的类目越小越好,层级越小可以告诉搜索引擎文件存在的目录深度越小,越容易被抓取,因为只有重要的页面才会放到与根目录最近的位置,搜索引擎也会认为这些文件是网站里面相对来说比较重要的页面,优先抓取。 内链结构主要反映的是页面之间的关系,和目录结构类似,被放到首页的链接地址往往更容易被搜素引擎抓取,这里涉及到一个链接深度的概念。搜索从发现你的网站到开始抓取页面,一般都是从首页开始进行的,如果你是一个新站的话,可以从日志里面查询到。也就是说离首页越近的网址越容易被抓取到,这里同样搜索引擎会认为链接深度越小的页面,在网站里面的重要性越大,和目录结构一致,链接深度越小的'页面权重也会越大,被索引的几率也会越大。总而言之内链结构对搜索引擎的友好度主要从以下几个方面去做: 1、从首页开始要包含网站中最重要的业务板块,一般来说都是个频道栏目页和专题的聚合; 2、栏目、专题页面要包含它们归类下最新的内容模块和热门模块,同时要有返回上一次层级的面包屑; 3、详情页面做为核心内容页面同样也要有相关推荐板块,以及同归属栏目下热门推荐板块,当然面包屑也是必须要有,在这里要特别强调一下合理的使用标签可以增强文章与文章的关系,更有利于搜索引擎的爬取,关于标签“迷路的小爬虫”会专门用一篇文章来告诉站长如何去布局使用。 基本上只要你按照以上的方式去优化你的网站结构,相信你的网站在数据上面的良好体现也会稳步提升。 网站结构优化注意事项 在这里“迷路的小爬虫”也是要总结以下几点来说明过度的优化网站结构可能会出现被K的风险,总结主要由以下几点: 1、为了减少链接深度,首页和频道页堆砌上千条链接地址,这种情况对于前期网站权重不是很高的前提下基本上会被k的体无完肤; 2、索引标签的大量使用,在网站没有一定规模的文章或者其他的资源做支撑的前提下,慎重使用标签聚合站内资源,因为大量的添加索引标签可能会造成网站很多重复的页面和空页面,结果被k也是不可避免的; 3、详情页面勉强的增加推荐板块,造成整个页面繁杂冗余,也是不可取的,详情页本来权重在整个网站体系里面最低,再增加如此多链接,只会被降权,即使收录也不会有好的排名; 4、为了减少目录深度,所有的页面全部堆砌到二级目录,这种做法也是不可取的,如果整个网站除了首页全部是二级目录,也就没有主次之分,目录深度影响权重这条规则也就不可取了。 以上四点是“迷路的小爬虫”认为比较重要的几项因素,也是很多站长会拿捏不好的几个地方,所以单独做为一项拿出来重点强调,希望站长朋友不要再犯这样的错误。 ;