如果你是一名SEO从业者在做SEO项目的时候,我们经常会做的一件事情就是查看网站日志,偶尔我们会遇到这样的情况:
搜索引擎的爬虫,每天都只是固定爬行一个页面,而不抓取站内其他的任何页面,这让SEO从业者非常头疼,很难长期持续运营。
那么,为什么搜索引擎只抓取一个固定页面?
根据以往对百度蜘蛛的研究,,将通过如下内容阐述:
1、页面内容更新
通常来讲,如果你是一个新站,在网站建设初期的时候,首页通常是一个长期被反复抓取的一个页面,在这个过程中,你几乎每天都会看到蜘蛛只爬行首页,甚至你的索引也只是一条直线。
通常来讲,如果你是新站刚上线,我们认为这个情况是可以理解,你可能需要在整站持续性的输出内容,并且频繁的在首页展现。
搜索蜘蛛才可能有较高的概率去爬行相关性内容。
2、页面可访问性
这是一个老生常谈的情况,我们认为页面可访问性,应该从两个角度去讨论:
②页面的robots协议
如果你的经常被抓取之外的页面打开速率非常高,我们认为相对于快速访问的页面,其他页面很难得到搜索友好性,本身网站如果没有权重的话,很容易被少抓取。
当然,如果你错误的配置了robots协议,在某种程度上,其他相关页面也是很难得到抓取的,比如:错误的屏蔽了首页之外的页面。
3、内部链接少
这是一个相对特殊的情况,有的时候我们总是会在企业站内内部建立一些高质量的页面,类似于专题单页,在某种程度上,我们希望这个页面获得较高的搜索排名。
而不对站内任何页面进行权重的传递,而采用了nofollow策略,屏蔽了页面中所有的链接。
基于这个策略,在某种程度上也会导致其他页面抓取不到的情况。
4、页面质量低
有的时候,我们在做网站内容更新的时候,为了快速的让网站看着充实,偶尔会采集与组合一些低质量的内容,进行页面填充。
这就导致搜索引擎在早期爬行目录的时候,基于大量低质量内容评估的策略,而认定某个目录下面的内容,没有搜索价值,从而导致基本不抓取该目录任何内容。
有的时候,即使你从新调整该目录下的内容质量,可能也无济于事。
5、网站非备案
从目前来看,在国内非备案网站,在国内各大搜索引擎中的表现,都不是特别的理想,长期出现搜索引擎只抓取一个页面的情况非常普遍。
并且这样的网站收录是异常困难的,通常来讲,如果你的内容不是足够优质,外部链接资源不是足够的优质,很难得到有效的信任度。
那么,长期只抓取一个页面是在正常不过的事情。
6、页面目录层级
在SEO诊断的工作中,我们经常会遇到这样的情况,网站看起来没有任何问题,并且企业已经备案,页面加载速度也不错,可在长期运营的过程中,站内页面总是很难被蜘蛛抓取。
出现这样的情况,我们通常都会去检查站内的一些目录层级,如果你的优质内容页目录层级非常深的话,比如:达到4-5级,对于新网站而言,是很难被搜索引擎发现,这就会导致蜘蛛长期的固定抓取一个页面的情况。
7、页面提交渠道
在早期的SEO工作中,我们知道如果你的页面质量不错,并且保持较高的输出频率,通常搜索引擎都会主动的去访问,但随着信息内容增量的快速发展。
搜索引擎往往在抓取页面的时候,会设定一些级别顺序,比如:优先抓取与审查哪些渠道而来的链接。
这其中页面提交的渠道就显得格外重要,特别是API的百度网址提交。
总结:搜索引擎长期只抓取一个固定页面,仍然有诸多细节需要讨论,而上述内容,仅供参考!