分类 SEO 下的文章

小编这里说的网站改版指的是网站主题没有变化,页面设计或网站架构做成比较大的改变。如果网站主题内容发生重大改变,把域名从一个行业换成另外一个行业的内容,从SEO的角度说,这不是网站改版,而是网站自杀。

首先应该明确,网站改版是万不得已时才做的变化,能不改做好不要改,尤其是网站结构。不过很多时候由于种种原因,如果需要改进用户体验或公司发生了合并收购等变化,设计风格也需要变化,甚至有时候公司换了个老板,都可能不得不改版网站。

下面主要说下三点网站改版变化时注意事项;

1、设计或是CMS系统改变

进行网站改版时,首先要确定网站只需页面设计改变,还是需要改用新的CMS系统。如果只是页面设计方面的改变,通常页面内容不会有什么大的变化。很多内容与表现分开的CMS系统,更换或修改模板,页面HTML代码几乎没有什么变化,页面视觉与表现却完全不一样。这种情况对SEO几乎没有什么影响,可以放心进行。

如果需要新的CMS系统,就要小心计划和执行。像前面所说的,能不换尽量不换,如果必须要换,尽量做到网站URL命名系统不要改。如果旧的CMS系统目录及文件名命名规则,使用URL重写模块,可以在更换CMS系统后还保持原来的URL结构。

2、尽量不要修改URL

不到万不得已,千万不要修改URL,否则对搜索引擎来说,新的URL就是新的页面。整站的URL改变,几乎意味着这是一个新的网站,搜索引擎需要重新收录所有页面,重新计算排名。同时旧的URL还在搜索引擎数据库中,势必会造成重复内容,页面权重发布的混乱,网站排名及流量都会有一段混乱期。对大的网站来说,整个网站重新爬行抓取一遍可能需要几个月时间。

如果实在没有办法保留URL,那么尽量从旧的URL做301转向到新URL。如果连301转向都不能完整,至少也要挑选重要页面做301转向。这里所说的重要页面包括栏目首页、带来比较多搜索流量的内容页面、有比较多的外部链接的页面。如果不能使用URL重写模块及正则表达式进行整站301转向,至少也要人工挑选出这些重要页面做301转向。

3、改版需要分步进行

网站改版时尽量不要同时更改导航系统。对主要导航系统的修改,往往会使网站上链接结构,页面权重的流动和分配产生重大改变,处理不好将会对网站新页面的收录造成影响。所以应该在网站CMS系统或url系统修改完成几个月之后,收录已经恢复原有水平之后再修改导航系统。

同样,无论是页面设计改版,还是采用新的CMS或URL系统,不要同时修改网站内容,要确认网站收录没有问题之后,再优化页面内容。

对大的网站来说,无论怎样小心,重大改版经常不能保证顾及到所有URL,这时一个恰当的404页面就变的很重要了。正确设置404页面,搜索引擎会自动把已经不存在的页面从数据库中清除,但需要一段时间。

网站改版经常是商业决定,不是SEO部门所能控制的。SEO人员必须参与到改版的计划过程中,提前认真规划,预想到所有可能的情况,尽量一次性改版正确,避免频繁修改,尤其是URL有变化时,搜索引擎对大量新出现的URL会很敏感,需要重新收录、计算权重,也可能出现一段沙盒期。如果不能一次性完成 ,多次更改很可能对网站产生重大的负面影响。

SEO人员除了具有很高的执行能力,还要有一定的分析能力。网站的流量分析、效果检测、惩罚后的拯救措施,以及常见的作弊方法和识别等,都是本篇需要详细讲解的内容。

SEO效果检测的意义在于检验SEO的成效。要准确的统计工作成效,必须设定检测基准,在SEO实施之前就应该制定好检测机制,才能为以后检测SEO效果做铺垫,另外还必须检测竞争对手的情况,如排名、流量情况、收录、外部链接等。最后把自己的数据和对手的数据进行对比,看看有什么差距,从而做出有效的SEO策略。

一、SEO效果检测步骤

1、研究竞争对手的一切情况,包括排名、收录、PR值、外链等

2、制定合理的SEO计划,找出网站的不足之处,合理地解决并记录下来

3、进行网站优化,包含方方面面的细节优化

4、外部链接的建设,包含链接诱饵、友情链接的一系列建设

5、效果检测以及流量分析

6、随时跟踪随时制作策略

二、SEO效果检测方法

SEO的效果检测包括以下八个方法;

1、收录比例。使用site指令查询搜索引擎对这个网站的收录总数,再加上站长自己知道的网站实际页面数,计算收录比例。一般优化好的网站能达到70%-80%

2、特征页面的收录数。收录情况不单单只关注网站首页、栏目首页、还要看看一些特征页面如专题页面以及一些特殊页面的收录情况。查询特征页面收录与否,只要在搜索引擎中输入这个页面的完整地址,没有结果就表示没有收录。

3、各分类的收录数。SEO人员可以灵活运用site指令、intitle指令和inurl指令来每个分类下的产品页面收录数量。

4、排名检测。一般需要检测的是首页目标关键词,典型分类页面目标关键词,产品页和内容页关键词。

5、外链数据检测。值得注意的是首页、栏目首页、网站内页,要分析链接诱饵的效果,竞争对手外链有没有增减等。

6、转化率问题。统计有多少是通过SEO优化而转化过来的销售,同时要研究产品本身的质量,价格、文案写作等。

7、网站日志。查看网站的服务器日志,很多问题都能在日志中留下痕迹,比如说百度蜘蛛服务器的IP一般是网通的,所以我们要做的工作就是选择一个网通的IP来保证蜘蛛顺利爬行。

8、辅助工具。现在有很多很实用的统计工具,如cnzz、51la、百度统计等,也能分析检测很多问题。

网站地图有两种形式,一种是为html版本的网站地图,另一个是在robots.txt文件中通知搜索引擎网站地图文件的位置。

1、html网站图片

对于一些必须要有js脚步、flash图片的网站来说,网站地图是搜索引擎找到网站所有页面的重要途径之一。

对稍微具有规模的网站来说。一个网站地图不可能罗列所有的页面链接,可以采取只列出最主要部分的链接,如一级分类、二级分类等。还可以将网站地图分词多个,然后由一个网页链接起来。

2、XML网站地图

xml文本是另外一种网站的形式。文件本身必须是utf-8编码,此文件中列出所需要被收录页面的url。最简单的网站地图是一个纯文本形式,txt文件形式的。只需在文件中列出页面的url,一行列一个就可以了。如:888lab.cn/sitemap.txt

网站地图声明的更新频率对搜索引擎来说只是一个提示,供搜索引擎参考的,robots.txt文件中的网站地图需要在robots.txt文件中加入语句。

sitemap:http://www.xxx.com/sitem.txt

所有的搜索引擎都支持网站地图的文件位置。大中型网站提交网站地图通常有比较好 的效果,能使网站收录更好。

站内优化是SEO优化工作中的重点,不仅仅对排名起着非常重要的作用,更对用户的感官有着直接的影响。设计良好的网站,能提高用户的粘性。对电子商务网站来说,设计良好的商城,能提高用户的转化率。

通常,网站内部优化主要包含元标签(TDK)的设计、关键词定位、页面优化等。本文章内笔者主要例举了14个站内优化措施,读者可以根据自己的网站实际情况加以对比和分析,看看是否还有提升的地方。

1、元标签的设计;

元标签主要包含标题标签,关键词标签,描述标签等,良好的元标签设计会促进该网页在搜索引擎的表现。

2、元标签的概念;

元标签是出现在网页HTML源代码的head标签中,唯一和其他HTML代码的区别是不会直接在显示器上显示。元标签对网页有各种的作用,有介绍该网页的版本的,也有介绍该网页的作者的。keywords就是属于元标签里的一种,kewords 代表着一个网页的定位。销售产品需要定位,网页更需要定位。

3、元标签分类;

元标签在实操中真正用到的也没有几个。一般常用的几个元标签包括 description、 keywords、title 自从SEO行业兴起之后。各类被冷落的标签又重新运用起来了,如某些时候robots.txt 文件不能解决一些特殊的环境,而是采用页面内的robots 标签来引导蜘蛛的走向。

下面例举一些你常见的元标签的分类:

1、abstract: 类似description 元标签。可以用来描述网页。

2、author:定义该网页作者。通常用来维护原创版权。

3、Content-control:  可控制网页的缓存情况,过去用此标签来阻止用户看到网站上的过期内容。现在已经基本上看不到它了,它已经没有什么用了。注意;如果你不想让某些内容被搜索引擎建立快照,应该使用robots 元标签达到这个目的。

4、classification:想想看 keywords 元标签是如何被垃圾网站利用的,这个也一样,我从来没有见过这么随意的元标签。

5、Content-Type: 指定描述页面类型的字符串。利用它可以为页面指定字符集,确保你在所有页面上指定了相同的字符集。

6、copyright:跟author 元标签类似。通常用它来实现原创的保护工作。

7、description:网页的描述标签。用它来给搜索引擎指定该页面的描述内容。

8、designer:跟author和copyright一样,都是用来保护原创性。

9、distribution:很少在网页中使用。如果一个页面只是用来内部发行,那么应该使用robots.txt文件或者robots 元标签禁止被索引。

10、expires:指定某一段时间后,不再让蜘蛛爬取了,利用此标签也许有点用。

11、keywrds:指定该页面特定的定位词。用它来放置2-3个能描述该页面的关键词。

12、tetle:网页独一无二的标题标签。可直观的告诉用户此网页讲述的内容性质。

13、robots:给蜘蛛下达命令的工具。可以利用它来告知搜索引擎哪些页面不被抓取,例如:登陆、注册页面等。

了解以上的标签使用,以及作用,可以帮助你在后续SEO优化工作中更好的避免一些问题,以及比竞争对手做到更细节化。

我们在做SEO时,需要对各个搜索引擎的爬行蜘蛛有一个很好的了解认知,才能更好的去做好SEO优化,就如你要去谈业务,各大客户的一些身份信息需要了解一样。

下面小编就给大家整理了各大搜索引擎蜘蛛的知识,来给大家做下各大搜索引擎蜘蛛的介绍:

搜索引擎蜘蛛是搜索引擎的一个自动程序。它的作用是访问互联网上的网页、图片、视频等内容,建立索引数据库,使用户能在搜索引擎中搜索到您网站的网页、图片、视频等内容。一般用法为“spider+url”,后面的url是搜索引擎的痕迹,如果要查看某搜索引擎是否来爬取过你们的网站,可以查看服务器的日志里面是否有该url,同时还能查看来的时间、频率等等。。

1、百度蜘蛛Baiduspider+url:可以根据服务器的负载能力调节访问密度,大大降低服务器的服务压力。根据以往的经验百度蜘蛛通常会过度重复抓取同样的页面,导致其他页面无法被抓取到而不能被收录。这样的情况可以采取robots协议的方法来调节。

2、谷歌蜘蛛googlebot+url:谷歌蜘蛛属于比较活跃的网站扫描工具,其间隔28天左右就派出“蜘蛛”检索有更新或者有修改的网页。与百度蜘蛛最大的不同点是谷歌蜘蛛的爬取深度要比百度蜘蛛多一些。

3、雅虎中国蜘蛛yahoo!Slurp+url:如果某个网站在谷歌网站下 没有好的收录,在雅虎下也不会有很好的收录和爬行。雅虎蜘蛛的数量庞大,但平均的效率不是很高,相应的搜索结果质量不高。

4、微软必应蜘蛛search+url:必应与雅虎有深度的合作关系,所以基本运行模式和雅虎蜘蛛差不多。

5、搜狗蜘蛛sogou+url:搜狗蜘蛛的爬取速度比较快,抓取的数量比起速度来说稍微少点。搜狗蜘蛛最大的特点是不抓取robot.txt文件。

6、搜搜蜘蛛sosopider+url:搜搜早期是运用谷歌的搜索技术,谷歌有收录,搜搜肯定也会收录。2011年搜搜已经宣布采用自家独立的搜索技术,但搜搜的特性和谷歌蜘蛛的特点还是有着相似的地方。

7、有道蜘蛛YodaoBot+url:和其他搜索引擎蜘蛛一样,凡是高权重网站的链接一般都能将其收录。爬行原理也是通过链接之间的爬行。