1.谷歌官方并未对这件事情做正式回应,真实性有待考量
得到谷歌搜索专家回应,真实性已确认,针对这个泄露谷歌特地增加了几个新算法以应对
2.泄密的其中几个重要的点
1. 点击率 CTR 等活跃度指标是主要的影响排名的因素
谷歌的算法会考虑用户参与度信号,如停留时间、点击率(CTR)和跳出率。能够吸引用户的高质量内容往往排名更好。
点击率,是直接反映的了用户体验的,谷歌一直也致力于把用户体验作为判断排名的重要指标
无论谷歌是否承认,这肯定是毫无疑问的
如何优化:针对这个点击率,我们自然还是要注重内容,提供有价值的输出,丰富文章的内容和质量。
内容:逻辑清晰的文字,精美合理的图片,视频,表格,重点标注,专家的观点引用
布局:合理直观的布局,清晰展示元素,丰富的元素,除了文章之外,有热门文章推荐,文字目录,联系表单,分享按钮 ,有意义的评论等其他元素
技术:页面的加载速度,元素的偏移量,图片的懒加载,自定义脚本的速度,CDN加速,css压缩等等
2.谷歌会判断页面的独特性和是否容易复制来给页面打分
这个独特性是否容易被复制,又是对内容重要性的印证,写出一篇高质量的文章,比一篇粗制滥造的文章难度自然会高很多。这个就体现了这个独特性
API里面有一个叫做pageQuality (PQ)的指标,目前看来是会通过LLM来判断页面的内容的生产难度,比如表格,对比图,视频内容等等。
如何优化:在内容上添加能够提高生产难度指标的内容,包括独特的图片,表格,视频,深度分析等等,提高谷歌对内容独特性和难度的判断
3. Topical Authority 权重主题的概念存在并且是重要的排名因素
我们以前通过逆向分析谷歌的Patent基本上能够判断谷歌算法有在考虑一个站点主要覆盖的话题是什么,以及在这个话题上的权威性。算法API中我们找到了包括SiteFocusScore, SiteRadius, SiteEmbeddings, PageEmbeddings这种指标,这些指标的用途主要是用来判断一个网站的主要话题,以及内容对这个话题的集中程度。
如何优化:围绕站点主题深耕,不要什么内容都涉猎,尽快向谷歌展示在目标话题上的权威性,增加“社交信号”,领英页面,品牌词搜索和关联,第三方新闻网站的曝光推广都会有效果。通过社媒平台构建自己的流量社区,利用第三方平台对宣传站点,展示实力,权威,真实性。去表现自己的EEAT.
搭配之前提到的活跃指标(CTR)等等,谷歌会以Topic为单位聚合计算整体的曝光和点击量,所以从这个角度来讲尽量在同一话题内覆盖一些潜在曝光量更高的内容会有正面的作用。
4. 网站内容更新的频率会影响排名
谷歌有一个叫做Freshness的指标,会跟踪页面内容更新的频率以及最近一次更新到现在的时长,更新频率越低,时长越长,分数越低。
谷歌爬虫每天都在爬取无数的网站,当你的站点内容停止更新,没有新的内容产出,这个时候自然会被谷歌判定没有稳定输出,网站质量比较低。谷歌肯定是会喜欢质量好,更新频率稳定的网站。因为我们用户是喜欢不断有一些新的内容产出的网站的,对于一直不更新的网站也不会去频繁访问,谷歌也不会去推荐。
如何优化:对网站的内容进行定时更新,这个更新需要添加新内容,而不是简单的改几个字。一般常见的更新方式包括,重新写文章的第一段内容,增加绝对时间(2024),添加新的视频内容或者图片,一般更新评率做到6-9个月一次就可以。
5. 整体网站权重指标和“种子网站”概念确认
谷歌一直公开否认网站整体权重指标的存在,但是文档中有多个部分确认了谷歌在排名中会重点考虑高权重网站。除此之外还有一部分的网站会拥有“种子网站”的身份,比如各种知名的平台和网站,并且有专门的权重网站的标签,帮助谷歌判断权重的高低。
其实对于这个“种子网站”也是无可厚非,比较网站的体积在那里,无数的网站指向这个网站,认可这个网站,自然会有一些特殊待遇,这个就相当于,学术界大佬的论文,无数人引用,知名度高,流量也就大,就像滚雪球,越来越大。
如何优化:搞高权重网站的外链。
6. 谷歌会保留最近20次的网站修改内容,并进行对比
文章里面透露出来谷歌会保存最近20次的修改,但是并没有更加详细的说明。这个虽然不是秘密但是20次还是不少的,所以如果你要把网站的内容进行大规模的修改,要记住内容变化不能太大。或许我们可以通过强行Index超过20次把谷歌对过往20次的修改完全洗掉?这个方法还需要继续测试,我暂时没有对应的优化方法。
其实这个也和用户体验有关系,当一个网站的内容大幅度的修改,对于用户来说,其实是很不友好的,而且的谷歌爬虫抓取也会耗费资源
当我们的网站流量平稳的时候,我是不建议去大幅度去修改,也不是不修改,可以小幅度的慢慢调整,如果流量一直很低的话,其实也可以推倒重新规划
7. Guest Post比Niche Edit效果要好
这个对我来说是个比较大的变化,我一直以为Guest Post没有Niche Edit效果好。但是因为我实际测验大部分的Niche Edit外链效果非常好,我也一直能够得到比较持续稳定的Niche Edit外链建设的效果,所以这个说法还需要验证
Niche Edit(利基编辑)涉及到为现有的、在搜索引擎上有高排名的文章添加链接。这是一个比较简单、要求不高的实施过程
Guest Post(客座文章)有一个完全不同的方法来获取相关来源的链接汁。它涉及到创建新的内容,然后将其放在一个高域名权限的网站上。这些内容必须是你的网站相关的,并且与所放置的网站的读者高度相关。
如你所看到的,客座发帖涉及新内容的创建和链接的插入。这是一个更复杂、成本更高的实施过程。但是,如果做得好,客座发帖甚至可以比利基编辑更强大。
https://ahrefs.com/blog/zh/buy-backlinks可以参考这篇文章
8.征用Chrome的点击流
谷歌代表多次表示,它不会使用Chrome数据对页面进行排名,但泄密文档在有关网站如何在搜索中显示的部分中,特别提到了Chrome。
泄露文件的匿名消息源称,早在2005年,谷歌就希望获得数十亿互联网用户的完整点击流,而通过Chrome浏览器,他们已经得偿所愿。
API文档显示,谷歌可以使用Chrome浏览器计算与单个页面和整个域相关的几类指标
9.为严肃话题创建白名单
我们不难通过「优质旅游网站」 模块得出这样一个推论——谷歌在旅游领域存在一个白名单,尽管尚不清楚这是否专门用于谷歌的「旅游」搜索选项,还是更广泛的网络搜索。
此外,文档中多处提到的 「isCovidLocalAuthority」(新冠本地权威)和 「isElectionAuthority」(选举权威)进一步表明,谷歌正在对特定域名进行白名单管理,这些域名可能会在用户搜索极具争议的问题时被优先显示。
例如,在2020年美国总统大选之后,某位候选人在没有证据的情况下声称选票被偷,并鼓励其追随者冲击国会山。
谷歌几乎肯定会成为人们最先搜索这一事件相关信息的地方之一,如果他们的搜索引擎返回的是不准确描述选举证据的宣传网站,这可能会直接导致更多的争论、暴力,甚至是美国民主的终结。
从这个角度上来说,白名单有其现实意义。Rand Fishkin表示「我们这些希望自由公正的选举继续下去的人应该非常感谢谷歌的工程师们在这种情况下使用了白名单。」
10.采用人工评估网站质量
长期以来,谷歌一直有一个名为EWOK的质量评级平台,我们现在有证据表明,搜索系统中使用了质量评估者中的某些元素。
Rand Fishkin觉得有趣的是,EWOK质量评估者生成的分数和数据可能会直接参与谷歌的搜索系统,而不仅仅是实验的训练集。
当然,这些可能「只是用于测试」,但是当浏览泄露的文档时,你就会发现当这是真的,它会在注释和模块详细信息中明确指出。
其中提到的「每份文档相关性评级」即来自 EWOK 的评估,虽然没有详细的说明,但我们不难想象,人类对网站的评估到底有多重要。
文档还提到了「人工评级」(例如来自 EWOK 的评级),并指出它们「通常只填充在评估管道中」,这表明它们可能主要是该模块中的训练数据。
但Rand Fishkin认为这仍然是一个非常重要的角色,营销人员不应忽视质量评级者对其网站的良好感知和评级有多么重要。
综上所述,其实这个所谓的泄密,对SEO来说并没有很大的影响,依然还是要专注高质量内容的输出。