一、分析网站根目录robots协议是否正确。
网站建成后,蜘蛛爬行的文件是网站robots文件而不是其他文件,所以正确robots文件协议的设置尤为重要。一般来说,正确的设置原则有几点:
1:不希望蜘蛛索引文件被屏蔽。
2.根据网站安全性,还需要屏蔽一些活络文件。
3:可将xml将格式地图放置在文件中。
二、网站是否根据搜索引擎设置xml网站地图格式。
网站地图关于搜索引擎来讲,是和睦的。能将网站的整体结构条理呈现给搜索引擎,以便于搜索引擎率的索引网站。关于网站地图的制作,有许多的教程,一些周六的cms建站系统也有相应的插件,不重复。
网站是否设置了正确的404页面。
早年,404页面并不是一个优化点。随着搜索引擎算法的不断演变,许多点可以概括为优化点。网站设置404页,告诉用户页面是否删除,无法访问。大师搜索引擎页面的情况是非常必要的。此外,不建议404页自动跳转到主页或某个页面,用户可以自动选择。
四、分析网站链接的独特性。
很多时候,一个网站的页面可以一起访问多个页面,这不利于关键链接的集权值。一般操作是设置更重要的url其他链接通过301重定向指向搜索引擎url,其他的,可以通过canonical处理标签。
五、确诊网站相同ip网站的健康状况。
同一个ip网站上有很多事情。假设其他网站或多或少不健康,很可能涉及到自己的网站。在这种情况下,需要诊断相同ip网站是否有问题。