先做简短的回答:通常搜索引擎需要几天(对于高权重网站最快几个小时)到一个月的时间才能抓取收录您的新反向链接数据,完整的数据更新大都在两个月内。为什么不是一个具体或固定周期时间?因为链接生效时间的长短取决于链向网站的多项因素。
完整的数据库更新——刷新整个互联网反向链接的信息——大约需要两个月。在这段时间内,一些页面将更新 60 次,而另一些则仅更新一次,具体取决于他们的评级。
远山将用一分钟来讲明原因和注意点。
Q:How long does it take for the search engine to find a new backlink?
A:the short answer is that it can take a few days up to some weeks before the crawl your new backlink.
这是来源于某知名搜索公司官方FAQ。
当我做完一些链接之后的一段时间,想观察这些链接被收录的情况,于是收集整理了部分搜索引擎的信息,以及第三方数据公司的收录数据。得出以下一些结论:
常用搜索引擎:
在提交外链后的几天,通过查询Google,Bing,Baidu,Yahoo,Yandex的数据,发现数据零零散散均有被收录,但是被收录并不代表就能生效,这从网站后台
控制也可以看到,比如GSC。
再看看常用的第三方SEO工具厂商数据:
ahref,mos
官方提及的频率是索引约每 15 分钟更新一次部分网站的链接。说“部分”是因为爬虫无法在很短时间钟内爬取整个互联网的网站数据;所以每隔几分钟,它就会探索其中的某些部分,更新的数据可在查询中立即获取。
基于以上数据和查询各收索引擎公布的部分规则,整理了以下这些影响外链收录生效的因素和要注意的细节:
抓取算法的一些考虑因素包括:抓取优先级(基于 DR)、特定页面的抓取或更新速度(基于 UR)、站点中的页面数量以及发现的新反向链接的数量。
一般来说,一个站点越“受欢迎”(即域评级 (DR) 越高,反向链接质量越高),一个域就越有可能被抓取。不太“受欢迎”的域(即较低的 DR,质量较差的反向链接)将被部分抓取。
抓取和更新特定页面的速度取决于它们的 URL 评级 (UR)。与评分较低的页面相比,具有较高 UR 的页面更有可能获得更频繁的索引和更新。
如果 DR 较低的网站有很多页面,搜索引擎爬虫将无法索引所有这些页面。而且,重新爬取的频率会比较低。
另一方面,如果一个网站的 DR 分数很高并且只有几页,搜索引擎爬虫将尽可能频繁地重新抓取所有这些页面。
另一个需要注意的重要事情是新反向链接的数量。一旦爬虫机器人发现每个指向给定页面的新反向链接,它将提高其爬行优先级。
相应地,如果它在很长一段时间内没有看到任何新的反向链接进入某个页面,它就不会经常重新抓取它。
根据以上几点,大致可以总结出高权重优质网站往往会在很短时间被有效收录,而垃圾网站外链不但会拉长收录时间,而且往往会对网站权重产生负面影响