阅读 56

【seo案例分析的书】SEO页面分析

    抓取只是搜索引擎工作中一个基本链接。当抓取时,它并不表示要马上向最终用户提供查询服务搜索引擎。由于用户使用搜索引擎查询单词或短语,到目前为止,搜索引擎只能提供整个原始页面,不能返回与用户查询条件相匹配的信息。因此,搜索引擎还需要对原始页面举行一系列的和处理,以满脚用户的信息查询习惯。

 

 

    首先,搜索引擎索引存储的原始页面,然后过滤原始web页面的标签信息,并从web页面中提取文本信息。然后对文本信息举行裁剪,建立关键词索引,得到页面与关键词之间的对应关系。最后,所有关键字都举行了重组和构建。垂直键和页面之间的对应关系。

 

    1.web索引?

 

    为了提高页面检索的效率,搜索引擎需要索引被捕获的原始页面。由于URL是页面的入口地址,所以原始页面的索引实际上是索引页面的URL,以便依据URL快速定位相应的页面。

 

    2.页面?

 

    网页分析是整个网页处理过程中最重要的部分,包括网页文本信息的提取(即标签信息的过滤)、分词、关键词索引镣犴的建立和关键词重组。因此,一个关键字被形成以对应于多个原始页面,也就是说,一个与用户查询习惯一致的信息原型被形成。

 

    文本信息提取?

 

    网页信息?这种提取实际上是对网页中非文本信息的过滤。其中最重要的是在网页中过滤标签信息。标签过滤后,搜索引擎可以猎取网页的文本信息。

 

    分词/分词之后,从原始页面中提取文本信息后,搜索引擎就可以得到页面的实质内容。为了获得与用户相关的数据,搜索引擎还需要删除页面中的内容,形成用户查询条件匹配的信息镣犴。

 

    每个搜索引擎的分割系统或多或少都会有所不同。分词系统的质量主要

相关推荐