大数据时代SEO数据如何搜集和分析在这个人人都高喊“大数据时代”的数据似乎被提到一个前所未有的高度。无论是个人站长还是大中型公司,亦或是大型跨国集团,无论是网络营销还是线下的市场营销都在意识到数据的重要性,凡是都以数据来说话。据笔者了解,在很多中小型公司和个人站长中,对于数据重视有余,却利用不足。
很多人不清楚需要搜集什么样的数据;也有的不清楚通过什么渠道来搜集数据;还有大部分不清楚搜集整理的数据如何去分析,进而也就不清楚怎么去利用这些数据。很多数据也就仅仅只是数字,无法去转化和为公司利益服务,成了一个华丽丽的摆设或者鸡肋。先来说说三类将数据做成摆设的类型:1、重视数据但不清楚如何搜集,这是“被数据”类型。对数据处于模糊了解状态,由于生活在这个信息爆炸化时代,耳濡目染各种宣讲数据的重要性,自然也就重视起数据来,知道公司和企业做事和计划要靠数据来支撑。但是由于没有专业的相关数据人员,自己的公司(或者是个人站长)该做哪些数据,通过什么渠道来搜集整理,可谓是一知半解。最后可能是通过头脑风暴和网上的所谓教程来比葫芦画瓢,再加上咨询下同行,东拼西凑而成的数据,这样的数据自然就真的只是摆设了。2、了解所需数据但来源不规范,这是“误数据”类型。对数据了解比较了解,由于在互联网或者公司摸爬滚打多年,出于自身原因和目的大概知道该需要什么数据。但是同样由于没有专业的相关数据人员,对于数据的来源和制作并不规范,数据采集也可能存在误差。这些数据就可能失真,利用价值自然也不是很大。其实,这类数据比第一类更加成了摆设。3、会做数据但不会解读分析,这是“贱数据”类型。对数据有清楚了解,并有准确的数据来源和较明确的数据需求,但是却等于入宝山而空回,坐拥金矿却不会利用,岂不是把这些可以带来真金白银的数据给轻贱了?只是简单的搜集整理,把数据形成可视化的报表,但是只是这些数据又能说明什么问题呢。数据背后的意义是什么,怎样去解读数据来为公司和个人创造价值,怎样去利用数据来规避可能存在的风险,怎样去利用数据分析出现的问题?这些才是数据的真正价值。说的有点多了,其实笔者今天主要讲的是网络营销中有关网站SEO的数据搜集和分析。sem和其他媒体营销基本都有较成熟的数据整理和分析模式,笔者就不再献丑赘述。以下讲的也只是较为大众化的数据模式。1、做哪些数据。有关SEO的数据应该需要三方面:①自身及竞争对手网站外部可统计查询数据:这部分数据可以通过外部站长工具综合查询得出。主要包括但不局限于:网站网址、快照日期、域名年龄、网站响应时间、同IP网站、pr值、百度权重、各搜索引擎收录量、各搜索引擎反链数、24小时百度收录、百度排名词量、预计百度流量、外链数、标题、meta标签、服务器信息。这些数据除适用于首页外,也可以适当用来查询内页数据。可以把这些相关数据做成excel表格,以供定期查询,可按照实际需求增减相关数据的查询。查询周期可每日、每周亦或是每月等,按照实际需求和具体情况来。②网站流量统计数据目前现在大部分的公司和站长的网站流量均采用流量统计工具,极大的方便了SEO相关人员统计整理数据的工作。目前比较专业的数据统计工具有CNZZ、51la和百度统计。论专业性来讲,CNZZ比较不错,论百度流量的准确性和敏感度,笔者觉得百度统计还不错。闲话少叙,流量数据主要包括但不限于:IP、PV、独立访客、人均浏览量、平均访问时长、跳出率、受访页面和域名、来源、搜索引擎比例、搜索关键词、访客详情、时段分析同样建议做成excel表格,以供定期查询,按照实际需求增减相关数据的查询。查询周期可每日、每周亦或是每月等,按照实际需求和具体情况来。
③可监控关键词数据
关键词监控比较简单,没什么好说的,只是建议把关键词进行分类监控汇总。主要包括但不限于:主关键词、主要长尾词、重要流量词、品牌词同样建议做成excel表格,以供定期查询,按照实际需求增减相关数据的查询。查询周期可每日、每周亦或是每月等,按照实际需求和具体情况来。
2、通过什么渠道来搜集数据互联网时代也是工具代替人工的时代,用工具办到的事既快又方便,何乐不为。①自身及竞争对手网站外部可统计查询数据。既然是外部可查询,一般的站长类工具都可以去查询,笔者比较喜欢的有爱站和站长之家这两个在线查询网站。尤其是站长之家在数据方面做得比较专业。②网站流量统计数据。流量统计工具的功能已经丰富了,并且主流的cnzz、51la等都有数据下载功能。③可监控关键词数据。这个如果是个人站长关键词量比较小,那么人工在搜索引擎和后台流量统计去一点点核实查询比较准确。如果批量关键词查询,最好是使用工具去查询,但目前的关键词排名软件在批量查询中一般都会出现误差,如果公司有能力,可以自己开发或编写这类功能的程序软件。3、如何分析搜集整理的数据成功者半九十,辛苦通过各种渠道观察搜集的数据,最精华的最具价值的地方在于有人看,而且要会看,通过这些数据为自己的网站得到一些启迪,并把它发挥出来为自身创造一定的利益。①自身及竞争对手网站外部可统计查询数据。这些数据分析是作为一个SEO分析自身网站和竞争对手最常用也是最基本的能力。通过这些数据(一定时间的观察后可绘制成趋势图)可以比较清楚的了解自身网站和竞争对手的网站优化情况以及在搜索引擎的权重表现。笔者简单介绍下如何去解读这些数据。
百度快照:一个网站快照越新,起码证明一个网站的内容每天都有新鲜的,百度蜘蛛的抓取更新也是比较频繁的,换言之,快照是百度蜘蛛对该网站的认可度。域名年龄:业界普遍认为,同等条件下,域名越老在搜索引擎获得权重相对越高。响应时间:这反映出网站的服务器性能的好坏。响应值越大,服务器性能越差,当然无论对于用户体验还是搜索引擎都是极为不利的影响。同IP网站:可以查看该IP下有多少网站,可以大致区分出网站所有者是选择网站托管还是购买独立IP,如果是独立IP,顺便可以看出该所有者还有哪些网站,顺藤摸瓜查看其他网站情况,知己知彼。PR值:这是之前谷歌官方对网站认可度和权重赋予的一种被外界了解的具体数值体现。虽然现在PR值越来越被淡化,但是作为可以衡量网站优劣标准的一个体现,仍具有参考价值。百度权重:这是第三方站长工具根据自身的运算体系揣测的网站在百度权重表现的一种数值,并没有得到百度的官方认可。但是作为站长衡量网站在百度表现优劣的一个参考,也对广大站长具有参考价值。反链数:通过站长工具查询的搜索引擎的反链数值其实大多都不是很准确,尤其是百度反链,查询命令得出的结果很不理想,百度反链值其实只是查询的域名相关域的搜索结果。不论如何,对于了解自身的外链途径和寻找了解竞争对手的外链手法也具有参考意义。收录量:各搜索引擎的总收录反映出网站在各个搜索引擎的表现。如果了解网站的总页面数,也可以更清楚的判断网站被各个搜索引擎收录的情况,从而分析网站是否存在问题以及存在哪些问题。每日收录/24小时收录:反映出网站被搜索引擎蜘蛛喜好程度和网站链接优化程度。排名词量:通过查看自己和竞争对手网站的排名词量,可以寻找网站优化的之间的差距,进而查看这些排名关键词相对应的页面优化情况。meta标签:查看网站该页面title、description、keywords是如何撰写的,尤其是查看竞争对手。分析为何这样写,会学到更多。
②网站流量统计数据自身精确的网站流量统计数据可以让站长对网站得到更多的了解。看出网站目前的优化情况,并可以为网站以后运营提供很好的参考。流量的分析往往不是单一的,是综合多种数值进行分析判断。这块的分析也是最为复杂的。 IP:分析往往通过日期对比来进行的,比如本周三与上周三,本月上旬与上月上旬。通过分析查看流量的变化情况,可以看出网站最近的变化。当然也有一些其他因素要考虑,比如天气、节假日、关键词排名、网站服务器有无宕机、新闻事件等等。PV:数值往往与跳出率和IP进行对比,从而判断网站的用户体验和用户黏性。uv:独立访客量,可以反映出有多少台电脑,也可能接近于多少真实人在访问网站。人均浏览量、平均访问时长、跳出率:IP与PV的比值,反映出网站用户体验好坏。受访域名和页面:可以看出网站哪些页面比较受欢迎以及在搜索引擎的权重表现。来源:访客是通过何种渠道进入到网站的,从而判断网站的受众,再进一步分析受众相关属性,可以更加清楚网站的目标人群以及网站运营策略执行情况。关键词:用户是搜索何种关键词来到网站,为网站布置关键词以及寻找关键词优化是一个很好的途径。访客属性:通过对访客的地域、教育程度、浏览器、网络接入商、操作系统、终端类型等属性的分析,可以更加详细的了解网站用户的情况,为以后网站的优化和运营提供参考。热点图:这个热点图功能,可以让站长看到页面内容被用户点击的情况,反映出网站页面的用户体验度以及为页面内容改进提供参考。
还有一些就不一一介绍了。③可监控关键词数据相对来说这块数据分析较为简单些,通过对关键词分类整理,然后查询在搜索引擎的排名情况,进而对比分析关键词带来的转化,可以看出优化情况。哪些还需要加强,哪些需要维护,哪些词高排名却没有带来实质的意义,进而调整网站优化策略。同时通过关键词带来的流量和转化,也可以对比分析其它流量贡献的转化,进而为整个网站运营方向和公司预算做出参考。备注:笔者以上所谈网站seo数据搜集整理及分析过程大部分针对中小型公司和个人站长而言,且由于精力有限,介绍内容也相对简易,望见谅。后记:关于《大数据时代SEO数据如何搜集和分析》几点说明之前写过一篇《大数据时代SEO数据如何搜集和分析》,由于所写内容比较多,而且很多内容都可以单独摘要出来写出一篇文章,融合在一篇文章中难免叙述不够详细。为避免篇幅过长影响阅读,笔者在个人博客是分两篇发表的,《seo数据如何规范化搜集整理》以及《网站seo数据如何分析》,除发表在个人博客外,把完整篇整合发表到了月光博客,标题未改。原本是为网站seo数据整理分析起一个规范说明作用,可能由于本人表达有限,导致很多网友误解。本人在此特声明以下几点进行纠正:1.文章重点不在于“大数据”。为 避免引起误解,在文章一再强调是为中小型企业seo数据整理分析提供借鉴,在开头已表达“首先声明,本文在数据高手面前,都有点多余,都是小儿科的班门弄 斧,故请高手勿耽误您的时间。”可能标题确实有点标题党的意味,妄谈了“大数据”,但是作为国内的广大中小型企业,big data和CloudComputing很难在公司中体现出来,但是伴随着big data和CloudComputing时代的到来,即便是中小企业特别是互联网公司也会受到影响。笔者相信,大数据的核心并非是死的数据,而是对数据分 析预测能力,所以本文的核心也在数据的整理和分析,而不是去谈对于中小企业不切实际的big data,更没有谈什么大数据分析。如果不是跨国集团及大型企业,产生不了海量数据,请别一味谈什么大数据,只会误人误己,更不要迷信大数据2.文章内容由于篇幅有限不能详细。笔者在文章末尾已给出声明,限于篇幅长度和个人精力不能详细阐述seo数据的搜集和分析工作,有些内容却是介绍比较简单,而且我也没有打算把它写作一篇教程。当然这些内容全是个人经验之谈,可能限于seo层面有些窄,但实属个人原创,至于说什么复制粘贴,或者说只是解释了一些名词,那么我无话可说。我相信 响鼓无需重锤,没必要手把手写一篇教程式文章,这是写给有一定基础的SEOer和营销团队看的。3.为何要搜集seo相应数据文章已有解释。很 多网友看了文章来问我为何要搜集那些数据或者问究竟要搜集哪些seo数据,其实虽然限于文章篇幅,但我还是大致列出了需要搜集整理的seo数据以及解释了 为何要搜集这些数据,在如何分析搜集整理的数据这一段中其实不光是介绍了如何分析数据的内容,也简单说明了为什么搜集这些数据,因为知道如何来看这些数据 就明白了为何要搜集这些数据。4.excel表格只是起到简单说明,并非真实案例说明。为了配合说明seo数据整理分析,只好自己临时简单制作了几个excel表格,也限于篇幅缘故,详细说明或者提供案例都让文章显得更长,只好作罢。说以再次请大家见谅没有提供案例,excel表格也只是简单说明,并没有参考价值。5.本文重在思路,而非实例操作分享。很多网友说在空谈理论,没有实质性东西。抱怨这类的我不去解释,因为多是外行。还是套用老话:响鼓不用重锤。本文只是在介绍一种搜集和分析的思路,以及简单的一个流程和规范化的说明。那些想看手把手教程式的网友定然大失所望,因为没有想要的所谓干货,因为这不是。我的大部分文章都是在分享有关网络营销经验的思路和策略,很少谈具体的技巧和手把手的教程式操作。因为我深信授之以鱼不如授之以渔,同样的操作方法和案例技巧并不一定适合于另一个网站,但是看问题的思路处理事情的策略才是值得分享和传播的。
大数据优化是真的吗
微信看到可以做贷款优化微信可以做贷款优化的这种行为并不可取。
因为所谓的优化贷款人的大数据提高到款通过率,前提是要缴纳一定的费用。这是贷款的一种骗局。
而且过度优化个人资料的行为,会给申贷结果造成负面影响。在放款前价款平台系统对借款人的个人资料进行审核,发现有造假部分,会直接拒贷处理。贷款优化数据是真的吗申请贷款来优化大数据,这种说法是真的。借款人通过申请贷款来积累良好的借贷记录,用按时还款记录覆盖之前的逾期记录,这样就起到了优化大数据的效果。当然这种做法也有风险,如果不小心逾期或还款能力不足,那么又会有新的不良记录出现在大数据中。贷款大数据可以优化吗?大家可以这样去做! 在日常的生活中,每一个人都有可能产生贷款需求,从而在贷款过程中产生贷款大数据。有很多人常常因为自己的贷款大数据不佳,而被很多金融机构所拒贷。贷款大数据可以优化吗?真实情况是怎么样的呢?我们大家一起来了解一下。
贷款大数据是可以优化的,但需要大家花费一定的时间和精力。具体优化方法如下:
1、还清逾期欠款如果大家想要对自己的贷款大数据进行优化,那么就一定要将自己当前的逾期欠款全部还清。这种做法是贷款大数据优化过程中非常重要的一步,大家一定要这样去做。否则,大家的任何做法都难以优化自己的贷款大数据。
2、借助黑名单检查工具
3、积累良好借贷记录贷款大数据优化的另一种方法,就是积累良好借贷记录。大家可以根据自己的需要,保持一定的贷款频率,并保持良好的借贷记录。随着良好借贷记录的积累,大家的贷款大数据就会被逐渐优化。贷款大数据是可以优化的,大家可以有3种方法去选择。贷款大数据优化过程会比较长,需要大家有足够的耐心。
大数据优化处理方法
下面以关系数据库系统Informix为例,介绍改善用户查询计划的方法。1.合理使用索引索引是数据库中重要的数据结构,它的根本目的就是为了提高查询效率。现在大多数的数据库产品都采用IBM最先提出的ISAM索引结构。索引的使用要恰到好处,其使用原则如下:●在经常进行连接,但是没有指定为外键的列上建立索引,而不经常连接的字段则由优化器自动生成索引。●在频繁进行排序或分组(即进行group by或order by操作)的列上建立索引。●在条件表达式中经常用到的不同值较多的列上建立检索,在不同值少的列上不要建立索引。比如在雇员表的“性别”列上只有“男”与“女”两个不同值,因此就无必要建立索引。如果建立索引不但不会提高查询效率,反而会严重降低更新速度。●如果待排序的列有多个,可以在这些列上建立复合索引(compound index)。●使用系统工具。如Informix数据库有一个tbcheck工具,可以在可疑的索引上进行检查。在一些数据库服务器上,索引可能失效或者因为频繁操作而使得读取效率降低,如果一个使用索引的查询不明不白地慢下来,可以试着用tbcheck工具检查索引的完整性,必要时进行修复。当数据库表更新大量数据后,删除并重建索引可以提高查询速度。2.避免或简化排序应当简化或避免对大型表进行重复的排序。当能够利用索引自动以适当的次序产生输出时,优化器就避免了排序的步骤。以下是一些影响因素:●索引中不包括一个或几个待排序的列;●group by或order by子句中列的次序与索引的次序不一样;●排序的列来自不同的表。为了避免不必要的排序,就要正确地增建索引,合理地合并数据库表(尽管有时可能影响表的规范化,但相对于效率的提高是值得的)。如果排序不可避免,那么应当试图简化它,如缩小排序的列的范围等。3.消除对大型表行数据的顺序存取在嵌套查询中,对表的顺序存取对查询效率可能产生致命的影响。比如采用顺序存取策略,一个嵌套3层的查询,如果每层都查询1000行,那么这个查询就要查询10亿行数据。避免这种情况的主要方法就是对连接的列进行索引。两个表:学生表(学号、姓名、年龄……)和选课表(学号、课程号、成绩)。如果两个表要做连接,就要在“学号”这个连接字段上建立索引。还可以使用并集来避免顺序存取。尽管在所有的检查列上都有索引,但某些形式的where子句强迫优化器使用顺序存取。下面的查询将强迫对orders表执行顺序操作:SELECT * FROM orders WHERE (customer_num=104 AND order_num>1001) OR order_num=1008虽然在customer_num和order_num上建有索引,但是在上面的语句中优化器还是使用顺序存取路径扫描整个表。因为这个语句要检索的是分离的行的集合,所以应该改为如下语句:SELECT * FROM orders WHERE customer_num=104 AND order_num>1001UNIONSELECT * FROM orders WHERE order_num=1008 这样就能利用索引路径处理查询。 4.避免相关子查询一个列的标签同时在主查询和where子句中的查询中出现,那么很可能当主查询中的列值改变之后,子查询必须重新查询一次。查询嵌套层次越多,效率越低,因此应当尽量避免子查询。如果子查询不可避免,那么要在子查询中过滤掉尽可能多的行。5.避免困难的正规表达式MATCHES和LIKE关键字支持通配符匹配,技术上叫正规表达式。但这种匹配特别耗费时间。例如:SELECT * FROM customer WHERE zipcode LIKE “98_ _ _” 即使在zipcode字段上建立了索引,在这种情况下也还是采用顺序扫描的方式。如果把语句改为SELECT * FROM customer WHERE zipcode >“98000”,在执行查询时就会利用索引来查询,显然会大大提高速度。 还要避免非开始的子串。例如语句:SELECT * FROM customer WHERE zipcode[2,3]>“80”,在where子句中采用了非开始子串,因而这个语句也不会使用索引。 6.使用临时表加速查询把表的一个子集进行排序并创建临时表,有时能加速查询。它有助于避免多重排序操作,而且在其他方面还能简化优化器的工作。例如:SELECT cust.name,rcvbles.balance,……other columns FROM cust,rcvbles WHERE cust.customer_id = rcvlbes.customer_id AND rcvblls.balance>0 AND cust.postcode>“98000” ORDER BY cust.name 如果这个查询要被执行多次而不止一次,可以把所有未付款的客户找出来放在一个临时文件中,并按客户的名字进行排序: SELECT cust.name,rcvbles.balance,……other columns FROM cust,rcvbles WHERE cust.customer_id = rcvlbes.customer_id AND rcvblls.balance>0 ORDER BY cust.name INTO TEMP cust_with_balance 然后以下面的方式在临时表中查询:SELECT * FROM cust_with_balance WHERE postcode>“98000” 临时表中的行要比主表中的行少,而且物理顺序就是所要求的顺序,减少了磁盘I/O,所以查询工作量可以得到大幅减少。注意:临时表创建后不会反映主表的修改。在主表中数据频繁修改的情况下,注意不要丢失数据。7.用排序来取代非顺序存取非顺序磁盘存取是最慢的操作,表现在磁盘存取臂的来回移动。SQL语句隐藏了这一情况,使得我们在写应用程序时很容易写出要求存取大量非顺序页的查询。有些时候,用数据库的排序能力来替代非顺序的存取能改进查询。实例分析下面我们举一个制造公司的例子来说明如何进行查询优化。制造公司数据库中包括3个表,模式如下所示:1.part表 零件号?????零件描述????????其他列 (part_num)?(part_desc)??????(other column) 102,032???Seageat 30G disk?????…… 500,049???Novel 10M network card??…… …… 2.vendor表 厂商号??????厂商名??????其他列 (vendor _num)?(vendor_name) (other column) 910,257?????Seageat Corp???…… 523,045?????IBM Corp?????…… …… 3.parven表 零件号?????厂商号?????零件数量 (part_num)?(vendor_num)?(part_amount) 102,032????910,257????3,450,000 234,423????321,001????4,000,000 …… 下面的查询将在这些表上定期运行,并产生关于所有零件数量的报表: SELECT part_desc,vendor_name,part_amount FROM part,vendor,parven WHERE part.part_num=parven.part_num AND parven.vendor_num = vendor.vendor_num ORDER BY part.part_num 如果不建立索引,上述查询代码的开销将十分巨大。我们在零件号和厂商号上建立索引。索引的建立避免了在嵌套中反复扫描。关于表与索引的统计信息如下: 表?????行尺寸???行数量?????每页行数量???数据页数量 (table)?(row size)?(Row count)?(Rows/Pages)?(Data Pages) part????150?????10,000????25???????400 Vendor???150?????1,000???? 25???????40 Parven???13????? 15,000????300?????? 50 索引?????键尺寸???每页键数量???页面数量 (Indexes)?(Key Size)?(Keys/Page)???(Leaf Pages) part?????4??????500???????20 Vendor????4??????500???????2 Parven????8??????250???????60 看起来是个相对简单的3表连接,但是其查询开销是很大的。通过查看系统表可以看到,在part_num上和vendor_num上有簇索引,因此索引是按照物理顺序存放的。parven表没有特定的存放次序。这些表的大小说明从缓冲页中非顺序存取的成功率很小。此语句的优化查询规划是:首先从part中顺序读取400页,然后再对parven表非顺序存取1万次,每次2页(一个索引页、一个数据页),总计2万个磁盘页,最后对vendor表非顺序存取1.5万次,合3万个磁盘页。可以看出在这个索引好的连接上花费的磁盘存取为5.04万次。