没有什么是一成不变的,更何况是依靠互联网生存的搜索引擎,搜索引擎一直在与时俱进。一个企业,其网站最基础的目的还是为了让用户搜索到有需要的东西,当然文章的质量和内容就非常重要了,质量更高的文章不断更新,当然就更的搜索引擎的欢心。公司网站搜索引擎优化当然也要和搜索引擎一起与时俱进。
随着搜索引擎爬行索引和排序算法的改进,搜索引擎的智能化程度越来越高。搜索引擎可以检测更多的欺骗技术,以多种方式确定文件与关键字的相关性,并检测该文件是否对用户有用。在改进这个算法的过程中,网站建设者和推动者必须时刻关注搜索引擎算法中添加了哪些新的因素?原排名因子的权重与原排名因子的权重有什么不同?
在搜索引擎优化的早期,5到6年前,最有用的技术是关键字叠加。在你的标题标签、关键词标签、网页内容中,放很多关键词,有时候甚至是可以与网页内容无关的关键词,这就足够了。在不到几天的时间里,你的网站可能会被排在热门关键词的首页。
但一段时间后,大多数人意识到搜索引擎给标题标签,关键字标签,页面和seo优化因素很多体重,并开始滥用这些标记,并开始堆积大量的关键字,搜索引擎的搜索结果质量开始下降。当年的AltaVista状态相当于当前的谷歌,它被这样销毁了。
然后,谷歌发明了页面级和基于页面级的新算法。简单地说,外部链接越多,排名越高。很快大家都意识到了这个算法的漏洞,开始制作大量的垃圾链接,在论坛里留下各种不相关的链接等等,买卖PR,买卖链接,制作了大量的链接工厂,注册了大量域名,然后互相联系。连接,等等,等等。
谷歌也开始反击,加入了沙盒效应等一系列反击措施。雅虎也有类似的延时效应,但其优势没有谷歌那么大。使用沙箱效应或时间延迟效应,链接的效果似乎非常慢。干杯往往失去耐心,不要使用这种方法。
同时,这些搜索引擎改进了链接分析技术,以检测哪些链接是有意义的,哪些是欺骗。然而,不可否认的是,机器不如人聪明。人们可以一眼看出哪些链接纯粹是为了添加链接,欺骗搜索引擎,以及哪些链接是有意义的投票行为。但是搜索引擎蜘蛛离这一步还很远,所以仍然有无数的骗子每天制作大量垃圾链接。
搜索引擎现在越来越倾向于分析用户行为模式和用户与网站的交互。网站推广人员应该在书签、网页摘要、wiki、链接点击率、页面浏览量和用户互动等方面加大投入。作为一个合格的搜索引擎优化器,这些最新趋势应该仍然足够敏感。