问这个问题的人说,他们有大量的新闻稿积累了来自高权威网站的入站链接,大概来自新闻网站和其他可能对利基市场很重要的网站。
问题在于如何重组网站,以使整个新闻稿部分与谷歌隔绝,但网站仍然可以从“高权威”网站。
“……我们有一个包含大量新闻稿页面的网站。
这些已经很老了……他们已经积累了大量的外链,但他们没有获得任何流量。
但它们是指向它们的相当高的权威域。”
问题继续:
“我在想……我们可以把它移到档案馆。 但我仍然希望从这些页面随着时间的推移建立起来的 SEO 能力中受益。
那么有没有办法巧妙地做到这一点……将它们……移动到存档……但仍然……从这些页面随着时间的推移建立起来的搜索引擎优化能力中受益?”
这个问题有很多东西要解开,尤其是关于网站某个部分的链接的积累以及这些页面必须传播的“搜索引擎优化能力”的部分。
有许多关于链接的 SEO 理论,因为尚不清楚 Google 如何使用它们。
“不透明”一词的意思是不透明的东西,很难看清楚。
谷歌不仅对他们如何使用链接不透明,而且他们使用链接的方式也在不断发展,就像他们的其他算法一样。 这进一步使有关链接如何实际工作的想法变得复杂。
谷歌员工已经就其中一些想法发表了声明,例如将所谓的权限授予整个域的链接的概念(谷歌的约翰穆勒重申谷歌没有在谷歌使用的域权限指标或信号)。
因此,有时最好对链接保持开放的态度,以便接受可能与普遍接受的事实相反的信息,特别是如果 Google 员工的多项陈述与这些想法相矛盾。
约翰·穆勒 (John Mueller) 在回答有关从旧链接的“SEO 力量”中受益的最佳方式的问题之前停下来思考。
然后他说:
“我的意思是,您可以将它们重定向到您网站的不同部分。
如果您有此类旧内容的存档部分,这很常见,那么……将内容移到那里并将 URL 重定向到那里,这实际上是告诉我们将链接转发到那里。”
问这个问题的人说,出于法律原因,某些内容需要在那里,而且谷歌不必一直访问这些网页。
他说他正在考虑禁止包含网页的文件夹。
禁止意味着阻止搜索引擎使用 Robots.txt 协议抓取某些页面,搜索引擎必须遵守该协议。
Robots.txt 是一种告诉搜索引擎不要抓取哪些页面的方法。
他的后续问题是:
“这是否也意味着从那时起,积累的 SEO 力量将被忽略?”
谷歌的穆勒闭上眼睛,抬起头,在回答这个问题之前停了片刻。
约翰穆勒在回答有关链接的 SEO 力量的问题之前暂停了
约翰说:
“因此,如果我们认识到它们与您的网站的相关性较低,我们可能已经自动减少了抓取次数。
不是您需要完全阻止它的情况。
如果您要使用 robots.txt 完全阻止它,我们将不知道这些页面上的内容。
所以本质上,当有很多外链指向被 robots.txt 阻止的页面时,有时我们仍然可以在搜索结果中显示该页面,但我们会根据链接和文本显示它的标题也就是说,哦,我们不知道这里到底是什么。
如果被链接到的页面只是指您网站中的更多内容,我们将不知道。
所以我们不能,有点,间接地将这些链接转发到您的主要内容。
因此,如果您发现这些页面足够重要以至于人们链接到它们,那么我会尽量避免被 robots.txt 阻止。
要记住的另一件事是,这些新闻稿页面,随着时间的推移收集的东西,通常它们吸引的链接类型是一种非常有时间限制的东西,一个新网站将链接到哪里给它一次。然后当您查看链接的数量时,可能看起来这里有很多链接。 但本质上,这些都是在这些新闻网站的档案中的旧新闻文章。
这也是一种标志,嗯,他们有链接,但这些链接并不是非常有用,因为在此期间它是如此无关紧要。”
链接的SEO力量?
值得注意的是,穆勒没有讨论链接的“搜索引擎优化能力”。 相反,他专注于链接的时间相关质量以及与旧新闻相关链接的相关性(缺乏)有用性。
SEO 社区倾向于认为与新闻相关的链接是有用的。 但穆勒称“真正的旧新闻文章”在档案中,也表明这些链接由于相关性问题而没有用处。
一般来说,新闻具有基于时间的相关性。 五年前相关的东西在现在可能不那么有用或相关。
因此,在某种程度上,Mueller 似乎间接淡化了链接的“SEO 力量”的概念,因为与这些链接的来源(存档新闻)相关的问题以及由于时间的流逝使这些链接变得不那么有用,因为它们是指的是一个可能不是常青的话题,但它是当下的,一个已经过去的时刻。
引文
观看 Google 办公时间视频群聊: