网络爬虫的前世、今生与未来发展是怎样的?

x
用微信扫描二维码
分享至好友和朋友圈

  网络爬虫,也称为网页抓取和网页数据提取,基本上是指通过超文本传输协议(HTTP)或通过网页浏览器获取万维网上可用的数据。

  

  网页数据爬取是如何工作的?

  通常,爬取网页数据时,只需要2个步骤。

  打开网页→将具体的数据从网页中复制并导出到表格或数据库中。

  

  这一切是如何开始的?

  尽管对许多人来说,网络爬虫听起来像是“大数据”或“机器学习”一类的新概念,但实际上,网络数据抓取的历史要长得多,可以追溯到万维网(或通俗的“互联网”)诞生之时。

  一开始,互联网还没有搜索。在搜索引擎被开发出来之前,互联网只是文件传输协议(FTP)站点的集合,用户可以在这些站点中导航以找到特定的共享文件。

  为了查找和组合互联网上可用的分布式数据,人们创建了一个自动化程序,称为网络爬虫/机器人,可以抓取互联网上的所有网页,然后将所有页面上的内容复制到数据库中制作索引。

  

  随后,互联网发展起来,最终有数百万级的网页生成,这些网页包含大量不同的形式的数据,其中包括文本、图像、视频和音频。互联网变成了一个开放的数据源。

  随着数据资源变得非常丰富且容易搜索,人们发现从网页上找到他们想要的信息是一件非常简单的事情,他们通常分布在大量的网站上。但另一个问题出现了,当他们想要数据的时候,并非每个网站都提供下载按钮,如果进行手动复制显然是非常低效且乏味的。

  

  这就是网络爬虫诞生的原因。网络爬虫实际上是由网页机器人/爬虫驱动的,其功能与搜索引擎相同。简单来说就是,抓取和复制。唯一的不同可能是规模。网络数据抓取是从特定的网站提取特定的数据,而搜索引擎通常是在万维网上搜索出大部分的网站。

  时间轴

  1989年万维网的诞生

  

  从技术上讲,万维网和因特网有所不同。前者是指信息空间,后者是由数台计算机连接起来的内部网络。

  感谢Tim Berners-Lee,万维网的发明者,他发明的三件东西,往后成为了我们日常生活中的一部分。

  统一资源定位器(url),我们通过它来访问我们想看的网站;

  内嵌的超链接,让我们可以在网页之间导航,例如产品详情页,我们可以在详情页找到产品规格和许多其他信息,比如“购买此产品的顾客也购买了某某商品”;

  网页不仅包含文本,还包括图像、音频、视频和软件组件。

  1990年第一个网络浏览器

  它也由Tim Berners-Lee发明,被称为WorldWide网页(无空间),以WWW项目命名。在网络出现一年后,人们有了一条途径去浏览它并与之互动。

  1991年第一个网页服务器和第一个http:// 网页页面

  网页的数量以平缓的速度增长。到1994年,HTTP服务器的数量超过200台。

  1993年6月第一台网页机器人——万维网漫游器

  虽然它的功能和今天的网页机器人一样,但它只是用来测量网页的大小。

  1993年12月首个基于爬虫的网络搜索引擎—JumpStation

  

  由于当时网络上的网站并不多,搜索引擎过去常常依赖人工网站管理员来收集和编辑链接,使其成为一种特定的格式。

  JumpStation带来了新的飞跃。它是第一个依靠网络机器人的WWW搜索引擎。

  从那时起,人们开始使用这些程序化的网络爬虫程序来收集和组织互联网。从Infoseek、Altavista和Excite,到如今的必应和谷歌,搜索引擎机器人的核心依然保持不变:

  找到一个网页页面,下载(获取)它,抓取网页页面上显示的所有信息,然后将其添加到搜索引擎的数据库中。

  由于网页页面是为人类用户设计的,不是为了自动化使用,即使开发了网页机器人,计算机工程师和科学家仍然很难进行网络数据抓取,更不用说普通人了。因此,人们一直致力于使网络爬虫变得更加容易使用。

  2000年网页API和API爬虫

  

  API表示应用程序编程接口。它是一个接口,通过提供搭建好的模块,使开发程序更加便捷。

  2000年,Salesforce和eBay推出了自己的API,程序员可以用它访问并下载一些公开数据。

  从那时起,许多网站都提供网页API让人们可以访问他们的公共数据库。

  发送一组HTTP请求,然后接收JSON或XML的回馈。

  网页API通过收集网站提供的数据,为开发人员提供了一种更友好的网络爬虫方式。

  2004 年Python Beautiful Soup

  

  不是所有的网站都提供API。即使他们提供了,他们也不一定会提供你想要的所有数据。因此,程序员们仍在开发一种能够完善网络爬虫的方法。

  2004年,Beautiful Soup发布。它是一个为Python设计的库。

  在计算机编程中,库是脚本模块的集合,就像常用的算法一样,它允许不用重写就可以使用,从而简化了编程过程。

  通过简单的命令,Beautiful Soup可以理解站点的结构,并帮助从HTML容器中解析内容。它被认为是用于网络爬虫的最复杂和最先进的库,也是当今最常见和最流行的方法之一。

  2005-2006年网络抓取软件的可视化

  2006年,Stefan Andresen和他的Kapow软件(Kofax于2013年收购)发布了网页集成平台6.0版本,这是一种可视化的网络爬虫软件,它允许用户轻松简单的选择网页内容,并将这些数据构造成可用的excel文件或数据库。

  八爪鱼数据采集器

  最终,可视化的网络数据抓取软件可以让大量非程序员自己进行网络爬虫。

  从那时起,网络抓取开始成为主流。现在,对于非程序员来说,他们可以很容易地找到80多个可提供可视化过程的的数据采集软件。

  

  网络爬虫未来将如何发展?

  我们总是想要更多的数据。我们收集数据,处理数据,并把数据转换成各种各样的成品,比如研究,洞察分析,信息,故事,资产等等。我们过去常常花费大量的时间、精力和金钱在寻找和收集数据上,以至于只有大公司和组织才能负担得起。

  在2018年,我们所知的万维网,或通俗的“互联网”,由超过18亿个网站组成。只需点击几下鼠标,就可以获得如此巨大的数据量。随着越来越多的人上网,每秒产生的数据也越来越多。

  

  如今,是一个比历史上任何时期都要方便的时代。任何个人、公司和组织都能够获得他们想要的数据,只要这些数据在网页上是公开可用的。

  多亏了网络爬虫/机器人、API、标准数据库和各种开箱即用的软件,一旦有人有了获取数据的意愿,就有了获取数据的方法。或者,他们也可以求助于那些他们接触得到又支付的起费用的专业人士。

  

  

  在自由职业任务平台guru.com上搜索“网络爬虫”时,你可以得到10088个搜索结果,这意味着超过10000名自由职业者在这个网站上提供网络抓取服务。

  而在同类的网站,Upwork上的搜索结果有13190个,fievere.com上的结果是1024个。

  各行各业的公司对网络数据的需求不断增长,推动了网络抓取行业的发展,带来了新的市场、就业机会和商业机会。

  

  与此同时,与其他新兴行业一样,网络抓取也伴随着法律方面的担忧。

  围绕网络爬虫合法性的讨论情况仍存在。它的合法与否与具体案例背景相关。目前,这种趋势下诞生的许多有趣的法律问题仍然没有得到解答,或者取决于非常具体的案例背景。

  虽然网络抓取已经存在了很长一段时间,但法院才刚刚开基础大数据相关的法律理论的应用。

  由于与网络爬取和数据抓取的仍处于发展阶段,所以它的发展仍然未稳定下来且难以预测。然而,有一件事是肯定的,那就是,只要有互联网,就有网络抓取。

  

  是网络抓取让新生的互联网变得可以搜索,使爆炸式增长的互联网变得更加容易访问和获取。

  毫无疑问,在可预见的未来,互联网和网络抓取,将继续稳定地向前迈进。

  还有就是做seo的要随时了解网络爬虫的抓取规则,想要了解更多的网站优化的信息可以关注星若文化传媒公众号。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

跟贴 跟贴 3 参与 3
推荐
资讯
财经
科技
娱乐
游戏
搞笑
汽车
历史
生活
更多
二次元
军事
教育
健身
健康
家居
故事
房产
宠物
旅游
时尚
美食
育儿
情感
人文
数码
三农
艺术
职场
体育
星座
© 1997-2020 网易公司版权所有 About NetEase | 公司简介 | 联系方法 | 招聘信息 | 客户服务 | 隐私政策 | 广告服务 | 侵权投诉 Reporting Infringements | 不良信息举报

星若传媒

企业名称

头像

星若传媒

企业名称

223

篇文章

25

人关注

列表加载中...
请登录后再关注
x

用户登录

网易通行证/邮箱用户可以直接登录:
忘记密码