在SEO在数据分析中,我认为首先要考虑的是整体观点,即从发展的角度来看待数据。例如,百度的算法调整必须满足搜索者的需求。只要我们的内容信息与搜索者的用户体验完全一致,我们的收藏可能不需要高数量,但可以满足质量。
抓住关键点。例如,如果我们的网站被降级,我们需要做的是找出网站被降级的原因,然后我们所有的工作都应该集中在这个目标上:找出可能的原因,收集相关数据,分析数据,得出结论。
一方面,我不能只强调片面性。当很多朋友做的时候SEO在分析时,他们的知识和经验可能有限,分析问题也非常有限。记得去年我开了这样一个玩笑,分析了一个门户网站,忘记了分析网站的二级域名,所以片面分析,结论自然是荒谬的。
通过数据分析可以理解问题的性质。很多时候,我只是看看网站搜索引擎优化是否做得很好。很多时候,我会检查代码是否使用nofollow标签来判断,因为一个好的SEO标签肯定会用。
网站数据分析的一部分容易出错
它可以消除无关数据的干扰。在许多情况下,我们的搜索引擎优化分析造成的错误来自于无关数据的干扰。例如,我的博客以前被降级过。经过各种原因分析,发现这只是由于服务器停机,直到服务器稳定后才恢复正常。
这些都是整体视野下需要做的事情,但很多人都在分析SEO由于其中一个有两个问题:确定问题-分解问题-得出结论-提出建议,因此有必要建立一个很好的数据分析模型。
没有正确的结论,只有越来越准确的结论。考虑到百度自己的业务,百度不会发布自己的搜索引擎算法,所以我们在SEO分析往往依赖于猜测。这时,很容易相信我们开始预测的结果。比如前辈在考试中引入的经验关键词密度为2%-8%。我们也这样做了,但我们发现网站的排名仍然波动。通过分析,我们发现原因可能是关键字密度太高。为什么?
首先,我们需要分析搜索引擎的工作原理。当搜索引擎分析网页的相关性时,它不匹配我们设置的关键字,但网页中的所有字符都是统计匹配的,所以相关单词可能不是我们设置的关键字,而是我们忽略的其他单词。