“以人为本”服务宗旨,客户满意是我的目标!
烟台网站优化
上一篇 /
下一篇 2010-07-28 14:28:06
随着搜索引擎爬行索引和排名
技术的改进,搜索引擎也变得越来越聪明了,能够
检测更多的作弊手段,能够通过一定的方法判断一个文件对关键词的相关性,以及能够检测出这个网页内容是否对用户有用。在搜索引擎的这个算法改进的过程中,我们做SEO优化的站长,也要保持足够的敏感度,以保持网站的权重和排名不变!
下面我们
烟台网站优化公司就介绍一下搜索引擎几年来的算法变化:
在搜索引擎优化初期,在搜索引擎的排名因素中所占的权重最大的就是关键词密度,所以SEO优化手法最常用的就是关键词堆砌,只要在网页的标题标签、关键词标签、描述标签、以及正文中大量的出现关键词以提高关键词在网页文本中的密度,有时甚至是出现了大量根本与网页内容大不相关的关键词,也能在搜索引擎中有一个不错的排名。当大家都发现了这个事实后,
http://www.ytyouhua.com.cn/baidu.asp于是就大量的堆砌关键词,严重影响了搜索引擎的搜索结果。
然后搜索引擎巨头谷歌(Google)就发明了PR值,以及及于PR值的新的索引排名算法,也就是外链越多,网页在搜索引擎中的排名就越好,很快的大家就意识到了这个漏洞,于是就制造大量的不相关的垃圾链接,买链接,买PR,建立链接工厂,注册很多域名然后这些域名之间互相链接等,试图通过提高网站的PR值来提升在搜索引擎中的排名,烟台网站优化搜索引擎马上意识到了这个问题,于是就提出了sand-box沙盒效应,来延迟链接的作用。这在一定程序是阻止了垃圾链接的产生。可是搜索引擎毕竟是机器,始终没有人聪明,它不可能完全检测出哪些链接是对用户有用的。所以还是有很多人每天在制造着大量的垃圾链接。
现在,搜索引擎越来越倾向于
分析用户行为模式和用户与网站的互动性,例如网页的打开速度、跳出率、平均浏览时间等。越来越回归于搜索引擎的宗旨。对于搜索引擎的新变化,我们做seo优化的人要对搜索引擎算法改进保持足够的敏感!这样才能使网站处于不败之地!
导入论坛收藏
分享给好友
推荐到圈子
管理
举报
TAG: