当前位置: 博客首页 >> SEO学习园地 >> 网站优化SEO之搜索引擎的排名原理 rss

网站优化SEO之搜索引擎的排名原理

成都网站优化 在 2011-06-23 发表,评论(0),阅读(0)

要了解搜索引擎优化,首先了解搜索引擎优化的基本工作原理。搜索引擎排名大致上可以分为四个步骤。

1. 爬行和抓取
搜索引擎派出一个能够在网上发现新网页并抓取文件的程序,这个程序通常被称为蜘蛛(spider)或者机器人(robot)。搜索引擎蜘蛛从数据库已知的网页开始出发,就像正常用户的浏览器一样访问这些网页并抓取文件。

并且搜索引擎蜘蛛会跟踪网页上的链接,访问更多网页,这个过程就叫爬行(crawl)。当通过链接发现新网址的时候,蜘蛛将把新网址记录入数据库等待抓取。跟踪网页链接是搜索引擎蜘蛛发现新网址的最基本方法,所以反向链接称为搜索引擎优化的最基本因素之一。没有反向链接,搜索引擎连也页面都发现不了,就更谈不上排名了。

搜索引擎蜘蛛抓取的页面文件与用户浏览器得到的完全一样,住区的文件存入数据库。

2. 索引
搜索引擎索引程序把蜘蛛抓取的页面文件分解、分析,并以巨大表格的形式存入数据库,这个过程就是索引(index)。在索引数据库中,网页文字内容,关键词出现的位置、字体、颜色、加粗、斜体等相关信息都有相应记录。

搜索引擎索引数据库存储巨量数据,主流搜索引擎通常都存有几十亿级别的网页。

3. 搜索词处理
用户在搜索引擎页面输入关键词,单机“搜索”按钮后,搜索引擎程序即对输入的搜索词进行处理,如中文特有的分词处理,对关键词词序的分别,去除停止词,判断是否需要启动整合搜索,判断是否有拼写错误或错别字等情况。搜索词的处理必须十分快速。

4. 排序
对搜索词进行处理后,搜索引擎排序程序开始工作,从索引数据库中找出所有包含搜索词的网页,并且根据排名算法计算出哪些网页应该排在前面,然后按一定格式返回“搜索”页面。

排序过程虽然在一两秒钟之内就完成并返回用户所要的搜索结构,实际上这是一个非常复杂的过程。排名算法需要实时从索引数据库中找出所有相关页面,实时计算相关性,加入过滤算法,其复杂程序是外人无法想象的。搜索引擎是当今规模最大、最复杂的计算系统之一。

但是即使最好的搜索引擎在鉴别网页上也还无法与人相比,这就是为什么网站需要搜索引擎优化。没有SEO的帮助,搜索引擎常常并不能正确返回最相关、最权威、最有用的信息。

思为网络(http://www.sw996.com )成都专业从事网站优化(搜索引擎优化服务SEO),公司拥有专业SEO营销团队,为你量身定制网站整站优化方案及搜索引擎关键词排名方案。

Tags:网站优化SEO搜索引擎排名排名原理

思为网络腾讯企业微博,请关注我们:
已有位网友对“网站优化SEO之搜索引擎的排名原理”发表评论。

 

www.sw996.com/seoblog/