北京网站建设>网络营销>Seo>

Seo

转载:百度蜘蛛是如何工作的

来源:未知 作者:admin 时间:2018-10-22 14:08 点击:

搜索引擎工作过程非常复杂,接下来我们简单介绍搜索引擎是怎样实现网页排名的。这里介绍的相对于真正的搜索引擎技术来说只是皮毛,不过对 SEO 人员已经足够用了。有兴趣的还可以阅读《百度搜索引擎优化指南》。

 

搜索引擎的工作过程大体上可以分成三个阶段:

1)爬行和抓取 – 搜索引擎蜘蛛通过跟踪链接访问网页,获得页面 HTML 代码存入数据库。

2)预处理 - 索引程序对抓取来的页面数据进行文字提取、中文分词、索引等处理,以备排名程序调用。《页面如何进行去重、去停止词》

3)排名 - 用户输入关键词后,排名程序调用索引库数据,计算相关性,然后按一定格式生成搜索结果页面。

爬行和抓取

爬行和抓取是搜索引擎工作的第一步,完成数据收集的任务。

蜘蛛

搜索引擎用来爬行和访问页面的程序被称为蜘蛛(spider),也称为机器人(bot)。

搜索引擎蜘蛛访问网站页面时类似于普通用户使用的浏览器。蜘蛛程序发出页面访问请求后,服务器返回 HTML 代码,蜘蛛程序把收到的代码存入原始页面数据库。搜索引擎为了提高爬行和抓取速度,都使用多个蜘蛛并发分布爬行。

蜘蛛访问任何一个网站时,都会先访问网站根目录下的 robots.txt 文件。如果 robots.txt 文件禁止搜索引擎抓取某些文件或目录,蜘蛛将遵守协议,不抓取被禁止的网址。

搜索引擎蜘蛛

和浏览器一样,搜索引擎蜘蛛也有标明自己身份的代理名称,站长可以在日志文件中看到搜索引擎的特定代理名称,从而辨识搜索引擎蜘蛛。《各大搜索引擎提交入口》

跟踪链接

为了抓取网上尽量多的页面,搜索引擎蜘蛛会跟踪页面上的链接,从一个页面爬到下一个页面,就好像蜘蛛在蜘蛛网上爬行那样,这也就是搜索引擎蜘蛛这个名称的由来。

整个互联网是由相互链接的网站及页面组成的。从理论上说,蜘蛛从任何一个页面出发,顺着链接都可以爬行到网上的所有页面。当然,由于网站及页面链接结构异常复杂,蜘蛛需要采取一定的爬行策略才能遍历网上所有页面。

最简单的爬行遍历策略分为两种,一是深度优先,二是广度优先。

所谓深度优先指的是蜘蛛沿着发现的链接一直向前爬行,直到前面再也没有其他链接,然后返回到第一个页面,沿着另一个链接再一直往前爬行。

seo抓取

如上图所示,蜘蛛跟踪链接,从 A 页面爬行到 A1,A2,A3,A4,到 A4 页面后,已经没有其他链接可以跟踪就返回 A 页面,顺着页面上的另一个链接,爬行到 B1,B2,B3,B4。在深度优先策略中,蜘蛛一直爬到无法再向前,才返回爬另一条线。

蜘蛛抓取路线

广度优先是指蜘蛛在一个页面上发现多个链接时,不是顺着一个链接一直向前,而是把页面上所有第一层链接都爬一遍,然后再沿着第二层页面上发现的链接爬向第三层页面。

如上图所示,蜘蛛从 A 页面顺着链接爬行到 A1,B1,C1 页面,直到 A 页面上的所有链接都爬行完,然后再从 A1 页面发现的下一层链接,爬行到 A2,A3,A4......页面。

从理论上说,无论是深度优先还是广度优先,只要给蜘蛛足够的时间,都能爬完整个互联网。

在实际工作中,蜘蛛的带宽资源、时间都不是无限的,也不可能爬完所有页面。实际上最大的搜索引擎也只是爬行和收录了互联网的一小部分。

深度优先和广度优先通常是混合使用的,这样既可以照顾到尽量多的网站(广度优先),也能照顾到一部分网站的内页(深度优先)。

吸引蜘蛛

由此可见,虽然理论上蜘蛛能爬行和抓取所有页面,但实际上不能也不会这么做。SEO 人员要

想自己的更多页面被收录,就要想方设法吸引蜘蛛来抓取。既然不能抓取所有页面,蜘蛛所要做的就是尽量抓取重要页面。哪些页面被认为比较重要呢?有几方面影响因素:

• 网站和页面权重。质量高、资格老的网站被认为权重比较高,这种网站上的页面被爬行的深度也会比较高,所以会有更多内页被收录。

• 页面更新度。蜘蛛每次爬行都会把页面数据存储起来。如果第二次爬行发现页面与第一次收录的完全一样,说明页面没有更新,蜘蛛也就没有必要经常抓取。如果页面内容经常更新,蜘蛛就会更加频繁地访问这种页面,页面上出现的新链接,也自然会被蜘蛛更快跟踪,抓取新页面。

• 导入链接。无论是外部链接还是同一个网站的内部链接,要被蜘蛛抓取就必须有导入链接进入页面,否则蜘蛛根本没有机会知道页面的存在。高质量的导入链接也经常使页面上的导出链接被爬行深度增加。

• 与首页点击距离。一般来说网站上权重最高的是首页,大部分外部链接是指向首页,蜘蛛访问最频繁的也是首页。离首页点击距离越近,页面权重越高,被蜘蛛爬行的机会也越大。

地址库

为了避免重复爬行和抓取网址,搜索引擎会建立一个地址库,记录已经被发现还没有抓取的页面,以及已经被抓取的页面。

地址库中的 URL 有几个来源。

1. 一是人工录入的种子网站。

2. 二是蜘蛛抓取页面后,从 HTML 中解析出新的链接 URL,与地址库中的数据对比,如果是地址库中没有的网址,就存入待访问地址库。

3. 三是站长通过搜索引擎网页提交表格提交进来的网址。

蜘蛛按重要性从待访问地址库中提取 URL,访问并抓取页面,然后把这个 URL 从待访问地址库中删除,放进已访问地址库中。

大部分主流搜索引擎都提供一个表格,让站长提交网址。不过这些提交来的网址都只是存入地址库而已,是否收录还要看页面重要性如何。搜索引擎所收录的绝大部分页面是蜘蛛自己跟踪链接得到的。可以说提交页面基本上是毫无用处的,搜索引擎更喜欢自己沿着链接发现新页面。

文件存储

搜索引擎蜘蛛抓取的数据存入原始页面数据库。其中的页面数据与用户浏览器得到的 HTML 是完全一样的。每个 URL 都有一个独特的文件编号。

爬行时的复制内容检测检测并删除复制内容通常是在下面介绍的预处理过程中进行,但现在的蜘蛛在爬行和抓取文件时也会进行一定程度的复制内容检测。遇到权重很低的网站上大量转载或抄袭内容时,很可能不再继续爬行。这也就是为什么有的站长在日志文件中发现了蜘蛛,但页面从来没有被真正收录过。

公司业务:北京网站建设刷百度下拉刷百度指数虚拟主机租用

如转载,请保留本文链接地址:/Market/Seo/2024/

Loading......
工作时间:

AM 09:00 ~ 12:00

PM 14:00 ~ 18:00

联系方式:

Tel 010-50933590

Hp 18701620736

设计优势

独立的设计团队 带给您全新的视觉体验

功能开发

强大的技术实力,完成您想要的任何功能

售后服务

完善的售后服务,解决您在使用过程中遇到的问题

Copyright © 2010 - 2018 北京顺晟科技发展有限公司 All Rights Reserved

地址:北京市顺义区南法信政府府前街16号 炫立方 | TEL:010-50933590

北京网站建设 | 北京网站设计 | 北京SEO公司