标签 本站公告 下的文章

搜索引擎通常会把子域名(或称为二级域名)当做一个基本独立的站点看待,也就是说http://lab.labds.top和http://lab.labds.top是两个互相独立的网站。

而目录http://lab.labds.top/faq/就纯粹是http://lab.labds.top的一部分。

另外再说下,888lab.cn其实是seowhy.com的一个子域名,只是约定成俗,网站一般以888lab.cn为主域名。如果抛开其他因素,只看这两个url;

http://lab.labds.top

http://lab.labds.top/faq/

子域名http://lab.labds.top的权重稍微高一些,因为搜索引擎会把这个URL当做网站的首页。另外很多人观察到,主域名很多时候会传递一小部分信任度(是信任度,不是PR)给子域名。

所以单就URL来看,子域名比目录天生的权重和排名能力稍微高一点。但从SEO角度看,我建议尽可能使用目录,而不是子域名。

子域名和主域名是两个完全不同的网站,要推广的也是两个网站,所有的优化工作都要多做一遍,尤其是外部链接建设,网站PR值、权重都会被这两个独立的网站分散。主域名经过外链建设获得高权重,不意味着子域名就获得了高权重。

子域名的使用会使网站变多,同时使每个子域名网站变小。目录会使一个网站越做越大包含的内容自然就越多,对用户的帮助越大,它所积累的信任度就更高。

当然,这只是对一般网站而言的,在某些情况下,子域名是更适当的,比如:

1、网站内容足够多,每个子域名下涵盖的内容都足以成为一个独立的网站而毫不逊色。很多这样的网站,诸如各类门户。像新浪、搜狐这种级别的网站,任何一个频道的内容都比绝大多数网站多得多。

2、跨国公司不同国家的分部或分公司,采取子域名有利于建立自己品牌。而且各个分公司的网站内容很可能是由不同国家的团队自行维护的,与独立网站没什么区别。

3、公司有不同的产品线,而且相互之间联系不大,或者完全是以不同的品牌出现的,这时每一个品牌或产品线可以用子域名甚至独立域名。如几乎所有汽车公司每一个品牌甚至每一个车型都有自己独立的品牌和网站。手机公司也是如此,门户类网站推出不同的服务时,如博客、微博、论坛、邮件,也以子域名为宜。

4、分类信息网站,不同城市使用不同的子域名。这类分类信息网站通常都有海量数据,某一个省份或城市的内容都能够独立成站。而且不同城市、省份很可能有不同的发展目标和安排,管理也是由不同的团队操作的。

5、平台类网站,如B2B和淘宝类的商城。每个用户都有自己相对独立的展示平台,使用自己的子域名对品牌建设、推广有好处。

除了网站的规模和类型,子域名和目录的选择有时还得看其他情况。比如,目标搜索引擎如果是百度,使用子域名或独立域名更有利,因为百度给网站首页权重更高。相比之下,Google给予网站首页、目录及内页大致相同的机会。如果是做英文网站,采用目录结构,不会出现明显的不利。

shopex网站添加百度分享代码分成两个步骤:

第一个步骤:获取百度分享代码
首先,打开百度分享的网址:http://share.baidu.com/
点击免费获取代码,进入百度分享代码页面;

这时候就会进入百度分享代码的获取界面,左边是百度分享按钮的设置样式:

在设置样式这里,可以选择类型,包括图标式、按钮式、文字式、浮窗式;还可以选择按钮风格;当然还可以选择功能设置。
选择好设置样式,在右边会有一个效果预览;

如果这个效果符合你的要求,那么就可以在效果预览下面选择复制代码。

第二个步骤:插入百度分享代码

进入shopex程序的网站后台,点击页面管理-网页底部信息,然后就会进入底部信息的编辑界面,

这时候,选择html源码编辑状态,然后把你所获取到的百度分享代码粘贴你想要放置的位置,最后选择保存。

这里建议使用百度分享按钮浮窗式,因为这样不管把代码放在哪个位置都不会影响网站的整体布局,而且使用百度分
享按钮浮窗式还会让整个网站看起来更加专业、更加美观,因此个人建议使用百度分享按钮浮窗式。

SEO工作细小繁杂,千头万绪,又经常涉及多个部门,如果不是事先计划好,往往人员无从下手,或者这里做一点那里做一点,失去整体方向。SEO团队负责人应该计划好未来6个月或12个月内,应该完成哪些工作,怎样完成,由谁完成。

1、建立网站日志表

建立网站的日志表就是要记录下网站的效果,包括页面的收录、搜索流量、目标关键词排名、转化、网站整体维护外,还需要一个网站整体的数据记录,就是网站所有的改动包括和seo直接原因以及先关原因的一些信息都汇总在网站的日志表中。(如何制作外链工作表,制作外链工作表应包含哪些因素?)

由于搜索引擎排名的算法的复杂性和网站优化人员流动性很大,网站日志表则可以让seo人员有个分析的起点,大概了解网站在不同时期的数据变现的状况。

2、制定工作目标

制定seo工作目标不单单是指总体的目标,而是我们在日常的的工作中可以实施的工作。

一月份周期为时间点的优化比如:一个月完成网站的导航优化工作。

三个月完成网站首页、分类页面的和产品页面的关键词的研究、优化撰写。

半年时间的的收录数量的制定。

一年内的外部链接的建设。

制定seo工作目标的设定需要根据自己对于网站的整体的seo状况的分析以及对竞争对手的仔细研究来确定,原则就是量力而行符合实际情况。

3、任务划分

向上面按照月份的时间来设定的话,我们还可以进一步的量化到每日的工作执行中。友情链接每日交换多少个数量;日常博可发表帖子个数;发表新闻稿数量;文章原创数量;购买链接数量等等。

4、责任到人

seo任务的常量化后,每一项的任务都需要分配相应的人员去负责完成。以及seo人员的特成安排对应的工作,有助于提高工作的效率,明确责任方便项目的进度,锻炼seo工作人员的技术熟练度

5、资源配置

目标设定责任到人后详细的seo任务分配后,还要合理的安排时间以及其他需要的资源的分配。如:资金、部门配合。

6、流程定义和规范

每一项seo任务都应该有比较明确的规范,提高整体seo工作质量,也可以尽快的帮助新加入的队员快速的熟悉自己的工作任务。

seo工作规范包括:标题的撰写中怎样的规划关键的的写作规范和可读性判断潜在的链接的质量和价值;交换友链的格式是否使用邮件的形式;怎样手机和编排内容;怎样监测专题页面中热门关键词等等。

以上这些规范只是一些简单的几条,但是这样的规范明确的写出来可以让seo人员养成良好的工作习惯,更加熟悉seo工作中的技巧。

上面是一个简单的seo工作的流程和计划的认内容,包括上面提到和那些还没有提到,都需要我们在seo项目开始之前进行详细的计划。

一些个人站长在辛苦努力进行SEO优化,获得不错的排名流量的时候,常常会有被挂黑链,导致网站排名下降的情况,遇到这样的情况,是很苦恼的,因为没有谁愿意自己的辛苦努力,付之东流。

如果想网站不被挂黑链,或者已经被挂链了,想要进行处理,那么可以参考下本篇文章,下面给的一些建议:

一、网站为什么会被挂黑链?

网站被挂黑链这种事情总是防不胜防,且不说网站本身的安全防护做的是否到位,但只要被盯上了就难逃厄运。即使是国家机构的网站也难逃被黑的经历,更何况站长们苦心经营混饭吃的小网站,因此首先需要正确看待挂黑链这个现象,那么网站为什么会被挂黑脸呢?主要原因有如下两点:

①网站被非法入侵;

②空间服务器被非法入侵。

网站被非法入侵基本上都是网站出现安全漏洞,网站后门被攻破。如果是空间被入侵,同ip网站可能都会收到牵连,需要联系空间商进行处理,或者直接将网站搬家,购买租赁安全性能更高的服务商。

二、网站被挂黑链的处理方法

1、如果你是新人还不会处理,直接清空数据库,ftp文件。然后将备份好的网站程序直接还原:重新安装,这是最简单的处理方法。

2、如果没有备份文件,进入百度站长平台,选择被挂上黑链的网站列表:优化与维护,进行链接分析,当系统检测外链显示外链列表,发现可疑外链先在链接后面进行操作,然后在网站页面直接删除黑链接。

3、手动检查网站文件,尤其是高权重页面,最重要的就是首页。右键查看网站源代码,先备份文件,在删除黑链。查看ftp文件的最新修改日子,根据修改时间查找黑链,找到删除即可。

此外在处理完被挂黑链页面,将非法链接赶尽杀绝,注意做好一些后续的保护工作:

①修改账号密码,其中包括:后台登陆账号密码以及ftp账号密码;

②利用网站安全检查漏洞工具查漏补缺,修补安全漏洞等。

如何对挂黑链网站进行反攻击?
当网站被挂上黑链之后真的是气不打一处来,心里面千万头草泥马狂奔而过,而且这些网站大多都是非法网站,如果有真实的网站存在,那么直接进入安全联盟举报网站,将非法内容进行完整的填写;同时还可以进去网络违法犯罪举报网站进行再次举报,实在不爽多找几个人一起举报,效果会更好。但是为了节省自己的时间,不将时间花费在无意义的事情上,适度即可。

以上是网站被挂黑亮的处理方法与反攻击方案相关介绍,希望可以给广大新手站长提供参考作用,预防挂黑链平时多注意查看网站源代码,进入网站时百度搜关键词进入,做到每天检查,方能最大限度的降低网站被挂黑链所带来的影响,保障我们的劳动果实。

robots文件是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。因此,robots的优化会直接影响到搜索引擎对网站的收录情况。

1、robots介绍

搜索引擎机器人又叫搜索蜘蛛,在访问一个网站时,它会首先检查该站点根目录下是否存在robots.txt文件。如果存在,搜索引擎机器人就会按照该文件中的内容来确定访问范围;如果该文件不存在,那么搜索引擎机器人就会沿着链接去抓取。

robots.txt必须放在一个网站的根目录下,而且文件名必须全部小写。如:888lab.cn/robots.txt。

只有在需要禁止抓取某些内容时,写robots.txt才有意义。有的服务器设置有问题,robots文件不存在时会返回200状态码及一些错误信息,而不是404状态码,这有可能是搜索机器人错误解读robots文件信息,所以建议就算允许抓取所有内容,也要建一个空的robots文件。

2、robots写作语法

首先我们来看一个范例:888lab.cn/robots.txt/

user-agent后面为搜索机器人名称,如果是“*”号,则泛指所有的搜索引擎机器人;Disallow 后面是不允许访问文件目录,如果目录为空则不起任何禁止作用。

下面例举一些robots.txt的具体用法。

允许所有的搜索机器人访问,格式如下:

user-agent: *

Disallow:

或者也可以创建一个空的robots.txt文件。

禁止所有搜索引擎访问网站的任何部分,格式如下:

user-agent: *

Disallow: /

禁止所有搜索引擎访问网站的某几个部分,比如需要禁止访问a、b、c、目录:

user-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

禁止某个搜索引擎的访问,如禁止百度访问:

user-agent: Baiduspider

Disallow: /

只允许某个搜索引擎的访问,如只对百度访问

user-agent: Baiduspider

Disallow:

user-agent: *

Disallow: /

3、robots meta写法

另外,有必要进行拓展说明,对robots meta进行一些介绍:

robots meta标签中没有大小写之分,mame=”robots”表示所有搜索引擎,可以针对某个具体搜索引擎写为:mame=”baiduspider”。content部分有四个指令选项:index、noidex、follow、nofollow,指令间以“,”分离。

index指令告诉搜索引擎机器人抓取该页面

follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;

robots meta 标签的缺省值是index和follow,只有inktomi(早期出现的搜索引擎)除外,对于它,缺省值是index,nofollow。

具体写法为以下4种:

1、<meta name=”robots”  content=”index,follow”>

2、<meta name=”robots”  content=”noindex,follow”>

3、<meta name=”robots”  content=”index,follow”>

4、<meta name=”robots”  content=”noindex,follow”>

其中<meta name=”robots”  content=”index,follow”>

可以写成:

<meta name=”robots”  content=”all”>

而:

<meta name=”robots”  content=”noindex,follow”>

可以写成

<meta name=”robots”  content=”none”>

目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于robots meta标签,目前支持的并不多,但是正在逐渐增加。Googie是完全遵守的。