SEO在过去几年里经历了广泛的变化及进化,并且每天都在进行着。
虽然大多数传统的营销策略(在很大程度上)仍然适用于今天的数字营销,SEO的变化已经大大改变了营销环境。
如果不是全部的话,这些变化中大部分都帮助改进了互联网,尤其是改进了搜索。
然而,一些人仍然坚持“老方法”,试图使用过时的SEO实践来提高他们品牌的有机搜索可见性和性能。
几年前有些策略奏效了,但现在已经不像以前那么有效了。
然而,许多新人营销人员/小企业主仍在使用这些“僵尸”SEO技术(这些策略本应消亡,但并非出于某些天大的原因)。
它们不仅是无效的,而且下面12个过时的SEO实践中的许多都对你的品牌、网站和其他数字财产的健康有潜在的危险。
1. 滥用关键词
网站管理员和“营销人员”有很多方式继续误解关键词在一般SEO活动中的作用,以及如何在日常策略中使用它们。
让我们更细致地看看特定类型的关键词滥用和管理不当,包括不相关的使用、特定关键词密度的编写以及关键词填充。
1)无关的关键词定位/混淆
搜索引擎优化新手常常试图将他们的内容和信息限制在关键词研究的范围内(除此之外,别无他法)。
这些“营销人员”将对内容及其元数据进行塑造,以表示与之不相匹配的关键词,也表示用户搜索所针对的大量关键词的适当意图。
这使得品牌在有机会与读者交流真实信息之前,很可能就失去了读者的注意力。
如果营销的关键词与页面上的内容不一致,这种脱节会阻碍内容的成功,即使内容质量很好。
不要试图误导用户,不要为了增加可见性而将用户引向由大容量关键词错误表示的内容。
百度知道这是什么样子,它可以真正定义为一个过时的SEO实践(以及“黑帽”SEO技术,在许多情况下)。
2)关键词密度
就像许多以关键词为中心的营销策略一样,为特定的“关键词密度”而写作只是没有达到目的。
百度不再依赖于关键词密度(或特定关键词使用与整个页面内容的比率)来确定网页是否是回答搜索查询的有效来源。
它比简单地爬取关键词要高级得多;像百度这样的搜索引擎使用大量的信号来确定搜索结果。
虽然关键词对于它们所代表的主题和思想仍然很重要,但它们并不是高价值搜索查询排名的“生命线”。
内容的质量和消息传递的方式才是这方面的“生命线”。
3)关键词优化
这可能是搜索引擎优化书籍中最古老的把戏了。
SEO是关于关键词的,这个约定俗成的说法,对吗?
所以,用关键词加载我们的网页——尤其是我们在整个网站上积极定位的那些高价值关键词——将有助于我们在搜索中获得更高的排名,从而超越竞争对手?
绝对不是。
搜索引擎很早就知道什么是关键词填充,什么是不自然的文本组合。他们注意到这些是试图操纵搜索结果,并将内容降级。
是的,可能仍然有一些有价值的内容使用了简单的关键词填充,可能是有意或是无意为之,因为它对用户的实际价值而言,所以没有降级。
说回到过去,站长想游戏系统会尽可能把每个关键词的变化高价值的关键词在网站页脚,或者更粗略地说,使这些关键词相同的颜色作为网站的背景,有效地把它们隐藏,而特定针对搜索引擎爬虫进行填充。
一些网站管理员也用链接尝试过。(需要提醒的是,不要这样做。)
请记住,你是为人类而不是为搜索引擎写作。
2. 为机器人写作
重要的是要明白,不自然的写作终归是不自然的。
搜索引擎也知道这一点。
他们的信念是:为网络写作意味着,我们应该在每次提到一个主题时,都用它的正确名称重复它,在这个词的同义词和近义词版本中工作,以便“涵盖所有的基础”。
当爬行时,搜索引擎爬虫会看到关键词重复出现,而且出现在几个不同的版本中,从而使页面在使用的关键词变化方面排名靠前(一遍又一遍……一遍又一遍地反复使用这一SEO“技巧”)。
当下,这一方式行不通了。
搜索引擎是足够先进的,能够理解重复出现的关键词、它们的变化,以及通常不好的内容所带来的不利体验。
为人类而写,而不是搜索引擎爬虫或任何其他机器人。
3. 文章营销和文章目录
在SEO的世界里,任何对系统进行“游戏”的尝试通常都不会成功。
但这并不能阻止SEO从业人员去尝试。
特别是当这些策略对一个品牌、其网站或其相关的数字资产提供了明显的改进时。
当然,文章目录可以起作用。而且在很长一段时间内,它们的效果也非常好。
文章联合通常被认为是最早的数字营销形式之一,对那些知情人士来说,它是唾手可得的成果。这是有道理的,因为这个想法类似于电视和印刷等已经经常使用联合内容的其他频道。
但百度最终在2017年发布了改变SEO“游戏规则”的“蓝天算法”更新。
“蓝天”破坏了搜索领域,目标是打击售卖软文、目录行为,以及其他提供垃圾内容的网站(不管这些内容是写得很糟糕,没有意义,还是从别人那里偷来的)。
文章营销背后的理念在当今世界是没有意义的,你的高质量的内容需要是原创的,并展示专业知识、权威和可信赖性。
4. 内容“洗稿”
通常使用软件完成的内容“洗稿”是一种黑帽SEO策略,它试图使用不同的词语、短语或是长句组织来重新创建高质量的内容。
从本质上说,最终的结果是一篇与原始材料观点相同的文章乱成一团。
这不再有效也就不足为奇了。
尽管人工智能在创造内容方面一直在进步,但机器产生的任何东西的质量仍低于人类所能产生的东西——具有原创性、有用性和实质性的东西。
5. 购买链接
多年后,这个问题仍然困扰着网站管理员。
像大多数SEO策略一样,如果它看起来很可疑,你可能不应该这么做。
购买链接也不例外。
很久从前,快速付费获得大量指向站点的链接是一种惯例。
现在,我们现在需要维护和优化反向链接配置文件,就像我们监督的网站一样,低质量的领域有太多的反向链接指向一个网站可能会对网站的健康有害。
百度可以很容易地识别低质量的站点,它还可以识别那些站点何时发送了大量不应该发送的链接。
今天,如果你想合法地帮助提高你的网站的权威性和可见性,你需要获得链接,而不是花钱雇人手工构建它们。
6. 锚文本
内部链接是任何好的网站结构和用户体验的特征。
这通常是用锚文本完成的,锚文本是一种HTML元素,它允许我们告诉用户,如果单击链接,将会看到什么类型的内容。
锚文本有很多种类型(品牌、裸文本、精确匹配文本、网站/品牌名称、页面标题和/或标题等),但根据使用情况来看,一些锚文本肯定比其他锚文本更受欢迎。
在过去,使用精确匹配和关键词丰富的锚文本是标准的SEO最佳实践。
自“石榴算法”发布以来,百度在识别过度优化的内容方面做得更好。
这又回到了一个黄金法则,即生成结构良好、用户友好且自然的内容。
如果你优化是针对的搜索引擎而不是用户,你很可能会失败。
7. 关键词研究策略过时
关键词在过去的5到10年里经历了一些剧烈的变化。
营销人员曾经拥有大量的关键字词级别的数据,让我们能够看到什么对我们的品牌有效,什么对我们的品牌无效,同时,这也能帮助我们更好地理解理念定位和用户意图。
这其中的大部分搜索引擎优化都是带有关键词“(未提供)”的策略。
在接下来的几年里,出现了一些试图复制关键词数据的工具。但是要完全正确地再现它是不可能的。
然而,即使有了这些如今已被剥离的关键词数据,营销人员仍需要做自己的关键词研究,以了解该行业、竞争对手、地理区域等。
为了做到这一点,许多营销人员求助于百度的免费关键词研究工具。虽然其中的数据多年来一直受到一些审查,但它是百度旗下的一款免费产品,它提供了我们以前无法获得的数据,所以我们很多人(包括我自己)仍然在继续使用它。
但重要的是要记住数据对关键词的实际代表作用。
关键词研究工具中的“竞争”只涉及付费竞争和流量,因此围绕这些数据建立一个有机的搜索策略实际上是无用的。
一些替代方案是Moz关键字资源管理器工具和SEMrush的关键词魔术工具,它们都是付费工具。
百度指数也有助于这种类型的竞争分析,而且它是免费的。
8. 所有关键词变化的页面
这曾经是一种有用的策略,可以对品牌及其信息所针对的所有高价值关键词进行排名。
幸运的是,算法更新,如“飓风算法”“清风算法”,和其他人已经帮助百度了解,同一个词语的变化,实际上,都与同一个主题有关。
围绕这些实体的最佳、最有用的内容应该是最可见的,因为它在主题上为用户提供的价值,而不仅仅是一个词的变体。
除了这将导致残酷的网站自我蚕食的事实,它使一个网站相当难以使用和导航,因为内容将是令人难以置信的相似。
仅仅是负面的用户体验就足以成为不这么做的理由。但是百度比忽视这种实践更清楚这一点,这使它成为一个不需要动脑筋的问题。
这种策略不断发展,最终导致了许多内容场的出现,这些内容场只针对流量的关键字价值和可见性。
这归因于优化网站的“老方法”——搜索关键词和搜索引擎,而不是用户及其搜索意图。
9. 针对精确匹配的搜索查询
定位精确匹配搜索查询的策略,希望对那些专为流量数据的查询——而不是因为搜索查询或其答案实际上与业务有关,这种策略在完全部署百度搜索引擎在优化之前成为一种流行的做法。
市场营销人员将努力在精确匹配的搜索查询中排名第一,以触发一个突破框,并提高网站的点击率。
10. 精确匹配的域
在某种程度上来说,在URL中包含高值关键词是有意义的。
但当它变得令人困惑或误导时(例如,它导致一个糟糕的用户体验),你必须划清界限。
域名的一个主要最佳实践是保持它与您的品牌一致。
品牌名称应该简短、简洁、并有一定的有意义。
为什么你不想从你的域名中得到同样的东西呢?
百度在很久以前就会给精确匹配的域赋值,因为将其用作为排名信号是有意义的。
这些行为数据现在已经帮助百度做出这样的改变(以及其他许多改变),这些改变是常识,也是影响重大的清理行动。
经营一家好公司,以品牌的名义提供优秀的产品/服务,当你的品牌与搜索它的用户相关时,百度会让你的品牌可见。
11. XML站点地图频率
我们永远不应该试图操纵搜索引擎爬虫,使我们的网站比其他网站爬行更多,因为搜索引擎爬虫认为新的内容已经发布或作出了重大的网站更改。
但是,由于网站管理员在过去是这样做的,站点地图的使用与原来的意图截然不同。
以前,网站管理员可以为站点地图中列出的网站的每个页面提供一个优先级编号,范围从0.0到1.0不等。
由于从未完全正确地使用过,爬虫甚至不遵守频率等级。相反,搜索引擎只抓取它认为需要抓取的内容。
确保在进行搜索引擎优化时,遵循XML站点地图最佳实践。站点地图对于每个网站来说都是非常重要的元素。
12. 低质量内容
面对它。在我们的世界里,曾经有一段时间,垃圾内容仍然可以排名靠前。
但是,时代变了!
窃取的内容、稀薄的内容、关键词填充的内容、不可信的内容——曾经有一段时间,所有这些都可以通过搜索引擎爬虫获得,并作为有价值的结果返回给用户。
但不会再出现这样的状况了。
我们知道如何制作高质量的内容,从而得到搜索引擎的奖励,因为它们告诉我们什么是对的,什么是错的。
如果你想在SEO方面取得成功,你必须做正确的事情。