近期,我在群里看大家讨论最多的就是关于谷歌24年3月算法推出后,流量下滑以及关键词丢失的问题。
确实,在AI的加持下,站长们创造页面内容的能力大大提高,但也因为一部分站长滥用AI工具,导致创造垃圾页面的数量也越来越多。
我很早前也说过,随着AI的普及,Google对于内容审核这块的压力会越来越大,肯定会推出一系列的算法进行有效压制。
这次,Spam Policies来了!
了解本次算法主要打击的对象:
很多人会把问题归咎给AI,但说实话Daniel不认可都是AI的问题,AI只是工具,用的好与坏差异也很大。
而且算法明确说明了:
本次更新不论你是AI还是Human Writing,主要是内容质量低的都有被惩罚的可能。
Spam Policies遇到以下三个点:
1. 老域名滥用
2. 批量生成内容滥用
3. 滥用网站声誉
老域名滥用情况:主要是使用早期有历史的老域名,快速修复然后做不相关行业,以及创建低质量内容的站点。Google举了一个健康行业老域名拿来做casino领域的例子;
批量生成内容滥用:不管是AI写的还是人工写的,如果是批量创造低质量内容,试图欺骗搜索引擎的都会被打击。注意:谷歌特意说了,不论是AI还是人工都是一视同仁。并非只针对AI内容。反面其实可以看出,Google对AI内容并非完全否定的态度,谷歌只考虑内容对用户是否有帮助。
滥用网站声誉:这种更多指的是parasite SEO,就是高声誉的站点为了赚钱,会接一些sponsor post,帮助那些做affiliate的能够快速获取到排名和流量。这个更多的是打击这块,和我们国内搞SEO的没太大关系。毕竟parasite SEO出来没太久。
关于修复方案:
我们知道现在Chatgpt出来后,生产内容的门槛降低了非常多,所以互联网上页面内容应该是至少几十倍的在增长。而Google如何照单全收的话,那服务器估计要增设几倍,从商业角度考虑也是不可能的。
所以我们可以发现这次算法更新后,有很多页面内容会被取消收录,而且插件生成的多语言页面大部分都存在难收录的情况。
我们应该顺着算法的意思来做事
1. 网站收录但是表现不佳的页面,在GSC提交取消收录;
2. 精细化已收录页面,提升已收录页面的总体页面的内容质量;
当然,也有些页面不排除是因为行业竞争比较大,有没有做过外链导致页面不出词。所以判断页面不出词只是其中一部分,还需要自行去看SERP页面对比下你当前页面的内容质量是否满足用户需求,如果质量确实低,那就先给他取消掉收录。减轻爬虫和谷歌服务器负担。
本文链接:http://www.awyerwu.com/13358.html ,转载需注明文章链接来源:http://www.awyerwu.com/
- 喜欢(0)
- 不喜欢(0)