搜索引擎蜘蛛抓取份额是什么?抓取份额是由什么决定的?
一月份时,Google新的SEO代言人Gary Illyes在Google官方博客上发了一篇帖子:What Crawl Budget Means for Googlebot,讨论了搜索引擎蜘蛛抓取份额相关问题。对大中型网站来说,这是个颇为重要的SEO问题,有时候会成为网站自然流量的瓶颈。
今天的帖子总结一下Gary Illyes帖子里的以及后续跟进的很多博客、论坛帖子的主要内容,以及我自己的一些案例和理解。
强调一下,以下这些概念对百度同样适用。
什么是搜索引擎蜘蛛抓取份额?
顾名思义,抓取份额是搜索引擎蜘蛛花在一个网站上的抓取页面的总的时间上限。对于特定网站,搜索引擎蜘蛛花在这个网站上的总时间是相对固定的,不会无限制地抓取网站所有页面。
抓取份额的英文Google用的是crawl budget,直译是爬行预算,我觉得不太能说明是什么意思,所以用抓取份额表达这个概念。
抓取份额是由什么决定的呢?这牵扯到抓取需求和抓取速度限制。
抓取需求
抓取需求,crawl demand,指的是搜索引擎“想”抓取特定网站多少页面。
决定抓取需求的主要有两个因素。一是页面权重,网站上有多少页面达到了基本页面权重,搜索引擎就想抓取多少页面。二是索引库里页面是否太久没更新了。说到底还是页面权重,权重高的页面就不会太久不更新。
页面权重和网站权重又是息息相关的,提高网站权重,就能使搜索引擎愿意多抓取页面。
抓取速度限制
搜索引擎蜘蛛不会为了抓取更多页面,把人家网站服务器拖垮,所以对某个网站都会设定一个抓取速度的上限,crawl rate limit,也就是服务器能承受的上限,在这个速度限制内,蜘蛛抓取不会拖慢服务器、影响用户访问。
服务器反应速度够快,这个速度限制就上调一点,抓取加快,服务器反应速度下降,速度限制跟着下降,抓取减慢,甚至停止抓取。
所以,抓取速度限制是搜索引擎“能”抓取的页面数。
抓取份额是由什么决定的?
抓取份额是考虑抓取需求和抓取速度限制两者之后的结果,也就是搜索引擎“想”抓,同时又“能”抓的页面数。
网站权重高,页面内容质量高,页面够多,服务器速度够快,抓取份额就大。
小网站没必要担心抓取份额
小网站页面数少,即使网站权重再低,服务器再慢,每天搜索引擎蜘蛛抓取的再少,通常至少也能抓个几百页,十几天怎么也全站抓取一遍了,所以几千个页面的网站根本不用担心抓取份额的事。数万个页面的网站一般也不是什么大事。每天几百个访问要是能拖慢服务器,SEO就不是主要需要考虑的事了。
大中型网站可能需要考虑抓取份额
几十万页以上的大中型网站,可能要考虑抓取份额够不够的问题。
抓取份额不够,比如网站有 1 千万页面,搜索引擎每天只能抓几万个页面,那么把网站抓一遍可能需要几个月,甚至一年,也可能意味着一些重要页面没办法被抓取,所以也就没排名,或者重要页面不能及时被更新。
要想网站页面被及时、充分抓取,首先要保证服务器够快,页面够小。如果网站有海量高质量数据,抓取份额将受限于抓取速度,提高页面速度直接提高抓取速度限制,因而提高抓取份额。
百度站长平台和Google Search Console都有抓取数据。如下图某网站百度抓取频次:
上图是SEO每天一贴这种级别的小网站,页面抓取频次和抓取时间(取决于服务器速度和页面大小)没有什么大关系,说明没有用完抓取份额,不用担心。
有的时候,抓取频次和抓取时间是有某种对应关系的,如下图另一个大些的网站:
可以看到,抓取时间改善(减小页面尺寸、提高服务器速度、优化数据库),明显导致抓取频次上升,使更多页面被抓取收录,遍历一遍网站更快速。
Google Search Console里更大点站的例子:
最上面的是抓取页面数,中间的是抓取数据量,除非服务器出错,这两个应该是对应的。最下面的是页面抓取时间。可以看到,页面下载速度够快,每天抓取上百万页是没有问题的。
当然,像前面说的,能抓上百万页是一方面,搜索引擎想不想抓是另一方面。
大型网站另一个经常需要考虑抓取份额的原因是,不要把有限的抓取份额浪费在无意义的页面抓取上,导致应该被抓取的重要页面却没有机会被抓取。
浪费抓取份额的典型页面有:
大量过滤筛选页面。这一点,几年前关于无效URL爬行索引的帖子里有详细讨论。站内复制内容低质、垃圾内容日历之类的无限个页面
上面这些页面被大量抓取,可能用完抓取份额,该抓的页面却没抓。
怎样节省抓取份额?
当然首先是降低页面文件大小,提高服务器速度,优化数据库,降低抓取时间。
然后,尽量避免上面列出的浪费抓取份额的东西。有的是内容质量问题,有的是网站结构问题,如果是结构问题,最简单的办法是robots文件禁止抓取,但多少会浪费些页面权重,因为权重只进不出。
某些情况下使用链接nofollow属性可以节省抓取份额。小网站,由于抓取份额用不完,加nofollow是没有意义的。大网站,nofollow是可以在一定程度上控制权重流动和分配的,精心设计的nofollow会使无意义页面权重降低,提升重要页面权重。搜索引擎抓取时会使用一个URL抓取列表,里面待抓URL是按页面权重排序的,重要页面权重提升,会先被抓取,无意义页面权重可能低到搜索引擎不想抓取。
最后几个说明:
链接加nofollow不会浪费抓取份额。但在Google是会浪费权重的。noindex标签不能节省抓取份额。搜索引擎要知道页面上有noindex标签,就得先抓取这个页面,所以并不节省抓取份额。canonical标签有时候能节省一点抓取份额。和noindex标签一样,搜索引擎要知道页面上有canonical标签,就得先抓取这个页面,所以并不直接节省抓取份额。但有canonical标签的页面被抓取频率经常会降低,所以会节省一点抓取份额。抓取速度和抓取份额不是排名因素。但没被抓取的页面也谈不上排名。
相关文章
- Cloudfront 是 Amazon 提供的 CDN 服务,有每月免费 1T 的流量,该流量不可累计,个人小站的话,这个 CDN 是足够用的了,而且主要是国内访问的速度还不错,但是需要注意不要2023-10-19
免费为你的网站加速,全球访问加速还可以防御ddos攻击的cloudflare
CDN加速通俗来讲就是把网站在全国各地的服务器上复制一份(即镜像服务器),用户在访问的时候,路由自动分配到最近的服务器,提升访问速度,大家在访问软件下载站的时候,经2023-10-09什么是AMP(加速移动页面)Web开发?AMP的好处以及它与响应式网页设计的
AMP技术是一项用于加速移动Web页面加载速度的技术,它通过限制页面的HTML、CSS和JavaScript的使用,从而提高页面加载速度和性能,下面我们将从以下几个方面对AMP技术进行拓展2023-10-09谷歌站长(Search Console)工具的注册安装及功能介绍
Google Search Console 是一项由 Google 提供的免费服务,可帮助您监控和维护您的网站在 Google 搜索结果中的展示情况以及排查问题,Search Console 可帮助您了解并改善 Go2023-05-13打开网站出现Internal Server Error的原因和解决方法
这篇文章主要介绍了打开网站出现Internal Server Error的原因和解决方法的相关资料,需要的朋友可以参考下,解决方法:登陆FTP或文件管理器,检查站点目录文件权限设置,将2022-01-08inxy:超低价“综合型”国外CDN提供商,专业POP节点覆盖亚洲\欧洲\美洲
inxy,这个2005年成立运作至今的商家不但提供11个机房的VPS、24个机房独立服务器,更重要的核心业务还有CDN,之所以要来推荐inxy的CDN是因为在性价比上面有着独到的优势2020-11-16- 大部分服务商(如阿里云,网易蜂巢,京东云等)的CDN服务是按使用量收费的,也有一些服务商提供免费的CDN服务,这篇文章主要介绍了分享盘点10个可免费使用的网站CDN加速服2020-08-17
INXY:运作全球26个国家和地区的 独立服务器、VPS、CDN业务,价格超便
INXY主要运作独立服务器、VPS、CDN、DNS四大类业务。inxy有自己的机房,也卖全球其他国家和地区的相关业务,可以说是一个超大型的reseller2019-09-29- 这篇文章主要介绍了新手干货之网站建设中常见的一些问题,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧2019-09-18
- 本篇文章主要介绍了手把手教搭建电影网站,今天我们就来搭建一个VIP电影网站,本文主旨在于,从基础的搭建一个简单的解析网站来引入一些思路,手把手什么的最贴心了。2019-08-22
最新评论