选择长尾关键词主要参考以下六个方法,当然,大家也可以根据自己的经验或者自己所擅长的方法来操作。这里小编就说下自己的长尾关键词选择方法:

1、长尾关键词与你网站的内容有关。

2、选择长尾关键词必须是用户有可能来查询的词。

3、能满足用户搜索需求。

4、通过网站构思与网站业务相关的关键词。

5、通过竞争对手来寻找关键词。

6、通过搜索引擎相关搜索来确定长尾关键词。

通过以上几点的方向去选择长尾关键词,是不是感觉比较少。没有关系,接下来再来一起了解下选择长尾关键词的拓展方法。

长尾关键词的拓展方法有很多,大家应该根据自己的网站特点来进行选择,以下给大家例举了13个长尾关键词的选择拓展方法,大家可以参考下:

1、从百度搜索框获取相关搜索。

2、从用户需求拓展。

3、百度百科搜索你的核心词,比如搜索“SEO”会得到“SEO服务”、“搜索引起优化”、“网站优化” “SEO培训” “SEO教程”等一些相关核心词,然后根据此进行拓展。

4、借助辅助工具如5118,百度竞价关键词规划师,战神关键词挖掘,金花站长关键词挖掘,等等。

5、51、cnzz等统计器工具。往往能找到一点时间的热词。

6、百度竞价后台系统推荐的相关关键词。

7、地域拓展法。如搜索SEO拓展为:东莞SEO、北京SEO、深圳SEO、等等。

8、季节拓展法,如“饮食”可以拓展为“夏季饮食注意事项”、“春季饮食注意事项”等等。

9、职业拓展法,如“如何预防感冒”可以拓展为“教师如何预防感冒”、“建筑工如何预防感冒”等等。

10、性别拓展法,如“减肥方法”可以拓展为“男士减肥方法”、“女性减肥方法”、“男孩减肥方法”等等。

11、用户思维习惯法。如哪里有、哪里买、哪里可以、怎样、如何、怎么、多少钱、哪里好、哪里便宜等。

12、参考百度搜索风云榜、Soso风云榜等。

13、搜狗拼音细胞库。用户比较多,最新热词在这里可以找到。

Robots.txt 文件应放在哪里?

Robots.txt 文件必须放在网站的根目录。

放在子目录的 Robots.txt 文件搜索引擎不能爬取到,所以不会起任何作用。

比如:

http://lab.labds.top/robots.txt    有效

http://lab.labds.top/bbs/robots.txt     无效

如果你不能控制根目录的 robots.txt,则你可以通过在子目录网页中使用标签阻止网页被收录


阅读本文的人还阅读

robots.txt文件有什么必要?

robots.txt

长尾关键词一般存在如下三种形式,分别是导航类关键词,问答型关键词以及购买型关键词,下面小编就和大家一起来了解下这三种形式的长尾关键词。

1、导航类关键词:

导航类关键词属于一个特定品牌或者网站的总称,如163、新浪、搜狐等的导航关键词,这类关键词的竞争异常的激烈,中小型站长很难做上去。搜索导航类关键词的用户知道有这个网站的存在,只不过暂时记不清具体网址是多少了。

导航型关键词不知局限于某个网站特定品牌名称,还可以是某个产品的具体名称,如:QQ、163免费邮箱等比较有代表性的产品导航关键词。

假如你做某个品牌的负责人,一定要将此品牌的关键词做到自然搜索的前面几位。用户如有需求输入你的品牌关键词,一定是对你的品牌感兴趣,从而通过搜索引擎查找。如果排在前面的不是你的网站,那就是为他人做嫁衣了。

2、问答型关键词:

问答型的关键词从字面意思上看,指某个疑问要求助搜索引擎,希望通过搜索引擎找到合适的答案。如“2019年管用的减肥方法有哪些?”、“有营养的早餐是什么”等之类的,完全是把搜索引擎当成一个智能机器人来使用。从中产生了很多的长尾词,虽然长,但都是日常生活中人们所关心的。做得好的话,能吸引大量的潜在用户。

3、购买型关键词

这类关键词是最有直接购买意图的,如在搜索引擎输入“ipad网上购买”、“iphome手机价格”等,购买意图就非常明显,同时转化率也相对增高。这正是做产品的人必须要研究和深挖的关键词类型。再结合一些营销手段,双管齐下,产品销售就不是问题。

我们可以以“网络营销”这个关键词作为基本关键词进行扩展,比如:针对性比较强的关键词“网络营销论坛” “搜外网络营销论坛”等,相关拓展的长尾关键词就是“网络营销是什么”、“网络营销培训网站” 、“网络营销技巧培训”等。周边产品的延伸词“网络营销书籍” 、“网络营销在线视频课程”等。

什么是robots.txt文件?

搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。

如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。


robots.txt文件有什么必要?

从SEO的角度,robots.txt文件是一定要设置的,原因:

1、网站上经常存在这种情况:不同的链接指向相似的网页内容。这不符合SEO上讲的“网页内容互异性原则”。采用robots.txt文件可以屏蔽掉次要的链接。

2、网站改版或URL重写优化时原来不符合搜索引擎友好的链接需要全部屏蔽掉。采用robots.txt文件删除旧的链接符合搜索引擎友好。

3、一些没有关键词的页面,屏蔽掉更好。

4、一般情况下,站内的搜索结果页面屏蔽掉更好。


阅读本文的人还可以阅读:

Robots.txt 文件应放在哪里?

robots.txt

SEO是英文(Search Engine Optimization)的缩写,中午翻译为“搜索引擎优化”。简单地说,SEO就是从搜索引擎上获得流量的技术。

搜索引擎优化的主要工作内容包括:通过详细了解搜索引擎的工作原理、如何在浩瀚的网页流中爬取网页,如何进行索引以及如何确定某一关键词排名位置从而提高网站访问量,最终提升网站的销售能力或宣传能力的技术。

所谓“针对搜索引擎优化处理”是为了要让网站更容易被搜索引擎认可。搜索引擎会将网站彼此间的内容做一些相关性的分析对比,然后再由浏览器将这些内容以最快速且近乎完整的方式,呈现给搜索者。

不少SEO研究者,搜索引擎的用户往往只会留意搜索结果最开始的几项条目,所以很多商业网站都希望通过各种方式来干扰搜索引擎的排序,其中以依靠各种广告为生的网站居多。目前SEO技术被很多目光短浅的人,用一些SEO作弊的不正当手段,牺牲用户体验,一味地迎合搜索引擎的缺陷来提高排名,这种SEO方法是不可取的,最终也会受到用户的唾弃。

网站的优化分为站内优化和站外优化两个部分,站内优化是指站长能控制网站本身的所有细节的调整,例如:网站结构、页面HTML代码、网站服务器设置、文章优化等。站外优化指的是外部链接建设及行业社群的参与互动,这些活动不在网站本身进行的。

获得和提高关键词自然排名是SEO效果的表现之一,但最终目的是获得搜索引擎的流量,没有流量的排名是没有价值意义的。因此,关键词的研究、文案写作十分重要。进一步说,SEO追求的是目标流量,能最终带来盈利的流量。

网站的最终目的是完成流量转化,记住要做科学的SEO,切不可为SEO而做SEO。