Python爬虫从入门到精通——爬虫基础(一):爬虫基本原理[通俗易懂]

分类目录:《Python爬虫从入门到精通》总目录我们可以把互联网比作一张大网,而爬虫便是在网上爬行的蜘蛛。把网的节点比作一个个网页,爬虫爬到这就相当于访问了该页面,获取了其信息。可以把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛通过一个节点后,可以顺着节点连线继续爬行到达下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,网站的数据就可以被抓取下来了。简单…

大家好,又见面了,我是你们的朋友全栈君。

分类目录:《Python爬虫从入门到精通》总目录

我们可以把互联网比作一张大网,而爬虫便是在网上爬行的蜘蛛。把网的节点比作一个个网页,爬虫爬到这就相当于访问了该页面,获取了其信息。可以把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛通过一个节点后,可以顺着节点连线继续爬行到达下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,网站的数据就可以被抓取下来了。简单来说,爬虫就是获取网页并提取保存信息的自动化程序,其主要有如下三个步骤:

  1. 获取网页:爬虫首先要做的工作就是获取网页,这里就是获取网页的源代码。源代码里包含了网页的部分有用信息,所以只要把源代码获取下来,就可以从中提取想要的信息了。爬虫首先向网站的服务器发送一个请求,返回的响应体便是网页源代码。Python中提供了许多库(如urllib、requests)来帮助我们实现这个操作,我们可以用这些库来帮助我们实现HTTP请求操作,请求和响应都可以用类库提供的数据结构来表示,得到响应之后只需要解析数据结构中的Body部分即可,即得到网页的源代码,这样我们可以用程序来实现获取网页的过程了。
  2. 提取信息:获取网页源代码后,接下来就是分析网页源代码,从中提取我们想要的数据。首先,最通用的方法便是采用正则表达式提取,这是一个万能的方法,但是在构造正则表达式时比较复杂且容易出错。另外,由于网页的结构有一定的规则,所以还有一些根据网页节点属性、CSS选择器或XPath来提取网页信息的库,如Beautiful Soup、pyquery、lxml等。使用这些库,我们可以高效快速地从中提取网页信息,如节点的属性、文本值等。提取信息是爬虫非常重要的部分,它可以使杂乱的数据变得条理清晰,以便我们后续处理和分析数据。
  3. 保存数据:提取信息后,我们一般会将提取到的数据保存到某处以便后续使用。这里保存形式有多种多样,如可以简单保存为TXT文本或JSON文本,也可以保存到数据库,如MySQL和MongoDB等,也可以保存至远程服务器,如借助SFTP进行操作等。

能抓怎样的数据

在网页中我们能看到各种各样的信息,最常见的便是常规网页,它们对应着HTML代码,而最常抓取的便是HTML源代码。另外,可能有些网页返回的不是HTML代码,而是一个JSON字符串(其中API接口大多采用这样的形式),这种格式的数据方便传输和解析,它们同样可以抓取,而且数据提取更加方便。此外,我们还可以看到各种二进制数据,如图片、视频和音频等。利用爬虫,我们可以将这些二进制数据抓取下来,然后保存成对应的文件名。另外,还可以看到各种扩展名的文件,如CSS、JavaScript和配置文件等,这些其实也是最普通的文件,只要在浏览器里面可以访问到,就可以将其抓取下来。

上述内容其实都对应各自的URL,是基于HTTP或HTTPS协议的,只要是这种数据,爬虫都可以抓取。

JavaScript渲染页面

有时候,我们在用urllib或requests抓取网页时,得到的源代码实际和浏览器中看到的不一样。这是一个非常常见的问题。现在网页越来越多地采用Ajax、前端模块化工具来构建,整个网页可能都是由JavaScript渲染出来的,也就是说原始的HTML代码就是一个空壳,例如:

<IDOCTYPE html)
chtmly hona、
<meta charset="UTF-8",
<title>This is a Demo</title>
SCILLe
</head>
<div id="container")
SNLY
</body>
<script src="app.js")</script>

其body节点里面只有一个id为container的节点,但是需要注意在body节点后引入了appjs,它便负责整个网站的渲染。在浏览器中打开这个页面时,首先会加载这个HTML内容,接着浏览器会发现其中引入了一个appjs文件,然后便会接着去请求这个文件,获取到该文件后,便会执行其中的JavaScript代码,而JavaScript则会改变HTML中的节点,向其添加内容,最后得到完整的页面。

但是在用urlib或requests等库请求当前页面时,我们得到的只是这个HTML代码,它不会帮助我们去继续加载这个JavaScript文件,这样也就看不到浏览器中的内容了。
这也解释了为什么有时我们得到的源代码和浏览器中看到的不一样。

因此,使用基本HTTP请求库得到的源代码可能跟浏览器中的页面源代码不太一样。对于这样的情况,我们可以分析其后台Ajax接口,也可使用Selenium、Splash这样的库来实现模拟JavaScript渲染。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/127392.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • PAT乙级1004

    PAT乙级10041004.成绩排名(20)时间限制400ms内存限制65536kB代码长度限制8000B判题程序Standard作者CHEN,Yue读入n名学生的姓名、学号、成绩,分别输出成绩最高和成绩最低学生的姓名和学号。输入格式:每个测试输入包含1个测试用例,格式为第1行:正整数n第2行:第1个学生的姓名学号成绩第3行:第2个学生的姓名学号成绩…………

    2022年6月3日
    36
  • LeetCode 204. Count Primes[通俗易懂]

    LeetCode 204. Count Primes

    2022年2月5日
    52
  • 下载网页TS流视频无需手动合并

    下载网页TS流视频无需手动合并可以直接下载无需合并的Chrome插件有StreamRecorder(建议使用录制模式)StreamVideoDownloader有时候我们不想用VLC播放m3u8,可以直接使用下面的浏览器插件NativeHLSPlaybackPlayHLSM3u8NativeMPEG-Dash+HLSPlayback有时候我们下载多段TS想要无损转mp4可以使用下面的工具魔力玄(Medlexo):魔力玄FFmpegts转mp4等工具…

    2022年7月18日
    26
  • mplayer音乐播放器_potplayer 模拟5.1

    mplayer音乐播放器_potplayer 模拟5.1realplayer下载地址:https://player.helixcommunity.org/2005/downloads/下载rpm软件,然后运行它,但是此时提醒lsb>=3.1于是就要yuminstallredhat-lsb然后是这个时候提示repos源出错,网上百度一下,找到一篇文章:简单介绍如下:如何配置yum源国内的两大门户网易和搜狐都有镜像服务器了,ht

    2022年9月20日
    5
  • 鸿蒙三部曲为什么不写第四部,“鸿蒙三部曲”比“斗罗四作”评分高,为何动画人气远远不如?…

    鸿蒙三部曲为什么不写第四部,“鸿蒙三部曲”比“斗罗四作”评分高,为何动画人气远远不如?…“鸿蒙三部曲”与“斗罗四作”相信熟悉玄幻小说的朋友对于“鸿蒙三部曲”比“斗罗四作”是哪几部就很熟悉了,但更多的是熟悉“斗罗四作”,《斗罗大陆》、《斗罗大陆2:绝世唐门》、《斗罗大陆3:龙王传说》、《斗罗大陆4:终极斗罗》,出自大神作家唐家三少之手。对于“鸿蒙三部曲”就很陌生了,这三部曲分别是:《盘龙》、《星辰变》、《吞噬星空》。这三部小说同样出自大神作家,我爱吃西红柿之手。在2008年的时候,“鸿…

    2022年6月16日
    119
  • hibernate二级缓存(二)二级缓存实现原理简单剖析

    hibernate二级缓存(二)二级缓存实现原理简单剖析hibernate二级缓存(一)二级缓存的实现原理在前面我们将过hibernate二级缓存类似于一个插件,将缓存的具体实现分离,缓存的具体实现是通过hibernate.cache.region.factory_class参数配置指定。1.hibernate二级缓存结构hibernate二级缓存涉及到如下几个重要的接口:RegionFactoryDomainDataRegionEnt…

    2022年5月24日
    43

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号