随便打开一个门户网站就能发现铺天盖地的信息量,但在仔细浏览之后居然发现在这么庞大的信息量之中并没有我们需要的任何有用的信息,但这样的网页又在搜索引擎中占有着不错的排名,实际上如今类似于门户网站这样低质量站点的泛滥很大一部分责任在于seoer,过度的为排名而优化使得整个互联网的信息质量偏低,在某些高流量的站点中,pv甚至与ip相差无几。
厚积薄发SEO优化干货系列–定向优化
: W6 j7 X1 N5 V; O* b
在大中型站点的优化过程中不仅仅要考虑排名问题,也要注意优化的具体方向,举个简单的例子,你想搜索某本小说,打开搜索结果却发现满满全是其他小说的推荐广告,我想访问者几乎都会立即离开页面,而这样的低质站点的站长大多本身也并没有创新与先驱精神,他们把很多遗留在传统行业的弊病带入互联网行业中,执着于快速、低量、廉价的广告佣金。这些问题若是出现在大中型的站点中就会严重影响企业利益,因为大中型站点的收益一部分也来自广告,但其本身必须维持一个良好优质的互联网高标准形象。而定向优化、降低跳出率、增加黏性、友善的登录页、降低噪音比才是首要考虑的问题。6 }2 {- o/ a6 u$ {
既然这是一个SEO网站优化干货系列,我也不能只顾空口而谈,实际中的操作方法虽然与不同站点的具体行业有关,但亦可以从这样的优化思路中找出适合自己的方向。+ N. O4 Q+ [- N7 X
关键词命中率与分词阈值。这两个说法并不常见,其实要表达的意思和方向是相同的。我们可以将整个站点的关键词进行系统全面的分类,在第一次分类过程中只需要确定少量的重要且具有高流量的“期望关键词”,然后在第二次分类时我们可以根据“期望关键词”批量抓取关键词,同时用简单的分词工具将它们拆分存在多维数组中进行比较分析,阈值(根据行业实际情况而定)超过一定范围的长尾抛弃,留下剩下的关键词则作为“目标关键词”进行跟踪优化。如果有条件可以进行二次抓取拆分,获得更多的长尾已经更高的命中率。
' Y" r9 c# T, D# t0 ^. y$ y
0 t+ _5 f, y8 I0 n期望关键词获取。既然长尾词是通过期望词获取而来,那么“期望关键词”的获取将是决定整体优化的第一步。我建议通过站点统计、转化统计、点击统计等数据综合分析,可以先预估每种统计占有的重量比,然后在通过计算统计出近期爬升最快的来源词。当然这些来源词并不一定是准确的,还需要结合指数和首页难度(最好建立一个难度库)来决定最初的期望词选择。6 y; C) W4 ~! ?. e2 I y
9 m# f" _* A, h3 f- ^/ C
降低跳出率。如果优化方向得到确认,那么整体的跳出率必然会下降,但在分析站点数据后不难发现部分页面必然会有跳出率高现象,建议在活动、单页、栏目等跳出率高且容易改动的页面先进行优化,瞄准这几个页面的目标词进行内容上的改进,使得访问者能够清晰快速的找到自己需要的相关信息。其实着陆页的优化具体工作并不难,只是方向上难以确定,这时在关键词上找准了目标再回头来解决跳出率问题,也必然水到聚成。
# V7 L9 s8 m$ x定向优化的实际操作中大部分属于数据分析,也涉及少量的计算,我也希望大家在学习seo相关知识时并不要执着在方法和路径上,一些SQL/Linux等等相关的硬知识也是SEO的敲门砖,SEO并不是一个可以不思考就坐享其成的行业。
+ e/ f) V: N' T! x; O原文出处链接:http://wittsay.cc/w3cnews/118搜外论坛原创作者:维特博客日期:2015.3.19* }% a1 r5 P. j# _
关键词命中率与分词阈值。这两个说法并不常见,其实要表达的意思和方向是相同的。我们可以将整个站点的关键词进行系统全面的分类,在第一次分类过程中只需要确定少量的重要且具有高流量的“期望关键词”,然后在第二次分类时我们可以根据“期望关键词”批量抓取关键词随便打开一个门户网站就能发现铺天盖地的信息量,但在仔细浏览之后居然发现在这么庞大的信息量之中并没有我们需要的任何有用的信息,但这样的网页又在搜索引擎中占有着不错的排名,实际上如今类似于门户网站这样低质量站点的泛滥很大一部分责任在于seoer,过度的为排名而优化使得整个互联网的信息质量偏低,在某些高流量的站点中,pv甚至与ip相差无几。5 [4 J: R9 }/ j! k1 H( O& n
在大中型站点的优化过程中不仅仅要考虑排名问题,也要注意优化的具体方向,举个简单的例子,你想搜索某本小说,打开搜索结果却发现满满全是其他小说的推荐广告,我想访问者几乎都会立即离开页面,而这样的低质站点的站长大多本身也并没有创新与先驱精神,他们把很多遗留在传统行业的弊病带入互联网行业中,执着于快速、低量、廉价的广告佣金。这些问题若是出现在大中型的站点中就会严重影响企业利益,因为大中型站点的收益一部分也来自广告,但其本身必须维持一个良好优质的互联网高标准形象。而定向优化、降低跳出率、增加黏性、友善的登录页、降低噪音比才是首要考虑的问题。2 ]! I6 V5 {* k, E/ G
既然这是一个SEO网站优化干货系列,我也不能只顾空口而谈,实际中的操作方法虽然与不同站点的具体行业有关,但亦可以从这样的优化思路中找出适合自己的方向。
7 L0 M8 _" p0 |0 Y2 Q1 z; o关键词命中率与分词阈值。这两个说法并不常见,其实要表达的意思和方向是相同的。我们可以将整个站点的关键词进行系统全面的分类,在第一次分类过程中只需要确定少量的重要且具有高流量的“期望关键词”,然后在第二次分类时我们可以根据“期望关键词”批量抓取关键词,同时用简单的分词工具将它们拆分存在多维数组中进行比较分析,阈值(根据行业实际情况而定)超过一定范围的长尾抛弃,留下剩下的关键词则作为“目标关键词”进行跟踪优化。如果有条件可以进行二次抓取拆分,获得更多的长尾已经更高的命中率。
: ~" C" {& I) O6 B$ T
% s# l1 z6 V" v3 }, X$ b1 b0 D期望关键词获取。既然长尾词是通过期望词获取而来,那么“期望关键词”的获取将是决定整体优化的第一步。我建议通过站点统计、转化统计、点击统计等数据综合分析,可以先预估每种统计占有的重量比,然后在通过计算统计出近期爬升最快的来源词。当然这些来源词并不一定是准确的,还需要结合指数和首页难度(最好建立一个难度库)来决定最初的期望词选择。4 D; \' v/ L2 `2 a- K/ q+ w8 O7 \
- L- X9 F. H8 a
降低跳出率。如果优化方向得到确认,那么整体的跳出率必然会下降,但在分析站点数据后不难发现部分页面必然会有跳出率高现象,建议在活动、单页、栏目等跳出率高且容易改动的页面先进行优化,瞄准这几个页面的目标词进行内容上的改进,使得访问者能够清晰快速的找到自己需要的相关信息。其实着陆页的优化具体工作并不难,只是方向上难以确定,这时在关键词上找准了目标再回头来解决跳出率问题,也必然水到聚成。
- X% d& Y# [" `% J- w定向优化的实际操作中大部分属于数据分析,也涉及少量的计算,我也希望大家在学习seo相关知识时并不要执着在方法和路径上,一些SQL/Linux等等相关的硬知识也是SEO的敲门砖,SEO并不是一个可以不思考就坐享其成的行业。
5 d8 H }; |7 s% `, ^原文出处链接:http://wittsay.cc/w3cnews/118搜外论坛原创作者:维特博客日期:2015.3.19
0 r6 e& S. t6 ?* c6 I! P、不错。谢谢分享。学习了。~!学习了 谢谢楼主分享 seo 的意思是推广么 不是太懂 嘿嘿 |