搜索引擎的排名原理

摘要

操作SEO之前应该搞明白搜索引擎的排名原理,搜索引擎对关键词的排名主要经过三个阶段:搜索引擎工作的第一步当然就是爬行于抓取;搜索引擎蜘蛛在爬取网站页面时相当于普通用户使用的浏览器。搜索引擎在访问页面的时候,服务器返回HTML代码,蜘蛛程序把收到的代码存入原始页面数据库。搜索引擎为了提高爬行和抓取速度,都使用多个蜘蛛并发分布爬行。蜘蛛在访问任何一个网站时,首先访问的是网站根目录下的文件。如果

操作SEO之前应该搞明白搜索引擎的排名原理,搜索引擎对关键词的排名主要经过三个阶段:

搜索引擎工作的第一步当然就是爬行于抓取;搜索引擎蜘蛛在爬取网站页面时相当于普通用户使用的浏览器。搜索引擎在访问页面的时候,服务器返回HTML代码,蜘蛛程序把收到的代码存入原始页面数据库。搜索引擎为了提高爬行和抓取速度,都使用多个蜘蛛并发分布爬行。

蜘蛛在访问任何一个网站时,首先访问的是网站根目录下的文件。如果robots.txt文件禁止搜索引擎抓取某些文件或目录,蜘蛛将遵守协议,不抓取被禁止的页面。

整个互联网就是由相互链接的网站和网页组成的。从理论上说,蜘蛛从任何一个页面出发,顺着链接都可以爬行到网站上的所有页面。其中,最简单的爬行遍历策略分为两种,一种是深度优先,一种是广度优先。无论是深度优先还是广度优先策略,只要给蜘蛛足够的时间,都能爬完整个互联网。在实际工作中,蜘蛛的带宽资源、时间都不是无限的,也不可能爬完多有页面。搜索引擎蜘蛛抓取的数据存入原始页面数据库。其中的页面数据与用户浏览器得到的HTML是完全一样的。每个URL都有一个独特的文件编号。

“预处理“也被称作为”索引“,因为索引是预处理最主要的步骤。

搜索引擎蜘蛛抓取的原始页面,并不能直接用于查询排名处理。必须经过预处理阶段,从HTML文件中去除标签、程序,提取出可以用于排名处理的网页文字内容。蜘蛛会将提取出来的文字进行中文分词、去除停止词、消除噪声、去重等处理,提取出页面中重要的文字,建立关键词与页面的索引,形成索引词库表。建立索引的过程中有正向索引和倒排索引两种排序方式,使得排序更加准确。

另外,链接关系计算也是预处理中很重要的一部分。现在所有的主流搜索引擎排名因素中都包含网页之间的链接流动信息。搜索引擎在抓取页面内容后,必须事前计算出:页面上有哪些链接指向哪些其他页面,每个页面有哪些导入链接,链接使用了什么描文字,这些复杂的链接指向关系形成了网站和页面的链接权重。

经过搜索引擎蜘蛛抓取页面,索引程序计算得到倒排索引后,搜索引擎就准备随时处理用户的搜索需求了。搜索引擎主要对用户的搜索词进行中文分词处理,去停止词处理、指令处理、拼写错误矫正、整合搜索处罚等处理进行用户搜索词有搜索引擎索引词库的匹配,建立排名。

搜索引擎的排名基本原理大概就以上三点,随着搜索引擎的规范化,排名原理更加的智能化,SEO也变得更加难以操作,但是所有的排名核心都是围绕用户需求而排名,所以做好体验满足需求,你的站离首页就不远了。

匿名

发表评论

匿名网友