
我们都在Google Search Console 的索引覆盖率报告中看到了“没有内容的页面被索引”的消息。谷歌的Gary Illyes 说,大多数时候(不是所有时候),它是关于“被robots.txt 阻止的页面”。
该错误在Google 的帮助文档中被定义为“无内容索引的页面:此页面出现在Google 索引中,但由于某种原因Google 无法读取内容。可能的原因是该页面可能被Google 隐藏了,或者该页面可能是以谷歌无法索引的格式。这不是robots.txt 阻塞的情况。检查页面,并查看覆盖范围部分了解详细信息。”
Gary Illyes 被问及此错误是否可能由“重加载时间或超时”引起,但Gary 说不是。如果这是一个繁重的加载时间或超时问题,您可能会看到软404 通知,而不是Gary 解释。加里说:“这个错误实际上只针对被robots.txt 阻止的页面。”
以下是这些推文:
不,我们可能只是不使用它们超时的那些页面。也许我们会将它们报告为soft404,具体取决于它们是因Googlebot 超时还是渲染超时。
此错误实际上仅适用于被robots.txt 阻止的页面— Gary Kujiri/경리Illyes (@methode) 2021 年3 月20 日
论坛讨论于 推特.