python爬虫-数据解析(bs4)

python爬虫-数据解析(bs4)

python爬虫-数据解析(bs4)

基本知识概念

数据解析原理:

  1. 标签定位
  2. 提取标签、标签属性中存储的数据值

bs4数据解析原理:

  • 1.实例化一个BeautifulSoup对象,并且将页面原码数据加载到该对象中
  • 2.通过调用BeautifulSoup对象中相关的属性或方法进行标签定位和数据提取

环境安装:

pip install bs4

pip install lxml

如何实例化BeautifulSoup对象:

  • from bs4 import BeautifulSoup
  • 对象的实例化:

1.将本地的html文档中的数据加载到该对象中

fp = open('./test.html','r',encoding='utf-8')
soup = BeautifulSoup(fp,'lxml')

2.将互联网上获取的页面源码加载到该对象中

page_text = response.text
soup = BeautifulSoup(page_text,'lxml')

提供的用于数据解析的方法和属性:

- soup. tagName :返回的是文档中第一次 出现的tagName对应的标签

- soup. find() :
	- find( ' tagName ' ) :等同于soup. div
	- 属性定位:
		- soup. find( 'div' ,class_ , id/attr= ' song' ) 
	- soup. find_ all( 'tagName i ) :返回符合要求的所有标签(列表)
	
- select: 
	- select( '某种选择器(id, class, 标签...选择器) ' ),返回的是一个列表 。
	- 层级选择器: 
		- soup. select('.tang > ul > li > a'): >表示的是一个层级
		- oup. select(' .tang > ul a'): 空格表示的多个层级
		
- 获取标签之间的文本数据:
	- soup.a. text/string/get_ text( )
	- text/get_ text() :可以获取某一个标签中所有的文本内容
	- string:只可以获取该标签下面直系的文本内容
	
- 获取标签中属性值:
	- soup.a['href']

bs4实例 —— 爬取三国演义所有章节

需求:爬取三国演义所有章节

https://www.shicimingju.com/book/sanguoyanyi.html

from bs4 import BeautifulSoup
import requests
if __name__ == '__main__':
    headers = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    url = 'https://www.shicimingju.com/book/sanguoyanyi.html'
    page_text = requests.get(url=url,headers=headers).text
    soup = BeautifulSoup(page_text,'lxml')
    li_list = soup.select('.book-mulu > ul > li')
    fp = open('./三国演义小说.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'https://www.shicimingju.com'+li.a['href']
        detail_page_text = requests.get(url=detail_url,headers=headers).text
        detail_soup = BeautifulSoup(detail_page_text, 'lxml')
        div_tag = detail_soup.find('div',class_='chapter_content')
        content = div_tag.text
        fp.write('\n' + title + ':' + content +'\n')
        print(title,'爬取成功')

发现出现乱码
在这里插入图片描述

response.text以文本格式查看的时候有乱码,可能是返回的内容被压缩了,这里修改一下
response.content.decode(“utf-8”) 按utf-8格式输出

from bs4 import BeautifulSoup
import requests
if __name__ == '__main__':
    headers = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    url = 'https://www.shicimingju.com/book/sanguoyanyi.html'
    page_text = requests.get(url=url,headers=headers).content.decode("utf-8")
    soup = BeautifulSoup(page_text,'lxml')
    li_list = soup.select('.book-mulu > ul > li')
    fp = open('./三国演义小说.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'https://www.shicimingju.com'+li.a['href']
        detail_page_text = requests.get(url=detail_url,headers=headers).content.decode("utf-8")
        detail_soup = BeautifulSoup(detail_page_text, 'lxml')
        div_tag = detail_soup.find('div',class_='chapter_content')
        content = div_tag.text
        fp.write('\n' + title + ':' + content +'\n')
        print(title,'爬取成功')

效果图

在这里插入图片描述

练习2—爬取多情剑客无情剑小说所有章节

https://www.gulongwang.com/duo/

from bs4 import BeautifulSoup
import requests

if __name__ == '__main__':
    url = 'https://www.gulongwang.com/duo/'
    headers = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    page_text = requests.get(url=url,headers=headers).content.decode('GBK')
    soup = BeautifulSoup(page_text,'lxml')
    li_list = soup.select('.lb > ul > li')
    fp = open('./多情剑客无情剑.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'https://www.gulongwang.com/'+li.a['href']
        detail_page_text = requests.get(url=detail_url,headers=headers).content.decode('GBK')
        detail_soup = BeautifulSoup(detail_page_text,'lxml')
        div_tag = detail_soup.find('div', class_='nr_con')
        content = div_tag.text
        fp.write('\n'+title+content+'\n')
        print(title,'爬取成功')

效果图

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/100110.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • mysql索引类型和索引方式

    mysql索引类型和索引方式1.什么是索引在MySQL中,索引(index)也叫做“键(key)”,它是存储引擎用于快速找到记录的一种数据结构。2.索引的分类在MySQL中,通常我们所指的索引类型,有以下几种:主键索引(PRIMARYKEY)也简称主键。它可以提高查询效率,并提供唯一性约束。一张表中只能有一个主键。被标志为自动增长的字段一定是主键,但主键不一定是自动增长。一般把主键定义在无意义的字段上(如:编号)…

    2022年5月2日
    74
  • 最小角回归 LARS算法包的用法以及模型参数的选择(R语言 )

    最小角回归 LARS算法包的用法以及模型参数的选择(R语言 )Lasso回归模型,是常用线性回归的模型,当模型维度较高时,Lasso算法通过求解稀疏解对模型进行变量选择。Lars算法则提供了一种快速求解该模型的方法。Lars算法的基本原理有许多其他文章可以参考,这里不过多赘述,这里主要简介如何在R中利用lars算法包求解线性回归问题以及参数的选择方法。以下的的一些用法参照lars包的帮助文件,再加上自己的使用心得。所用的示例数据diabetes是Efron…

    2022年6月26日
    25
  • STM32F103参考手册_stm32f103 422

    STM32F103参考手册_stm32f103 422个人觉得,资源取于外,就应该分享。所以以下百度网盘的链接是关于stm32f103数据手册,参考手册等等资料!链接:https://pan.baidu.com/s/1fY8ggZi2Q-z1pvo0xk0bow提取码:cj40这个链接是stm32驱动方面的等等东西,都放在这个链接下了链接:https://pan.baidu.com/s/12mRgh_PaPOG6Yd9G21sxbA提取码:1hzf……

    2022年10月15日
    0
  • html5爱心代码_html爱心动画代码

    html5爱心代码_html爱心动画代码代码<!doctypehtml><html><head><metacharset=”utf-8″><title>canvas爱心</title><style>html,body{height:100%;padding:0;margin:0;background:#000;}canvas{position:absolute;width:100%;

    2022年10月10日
    0
  • Ubuntu18.04下卸载CUDA11.0

    Ubuntu18.04下卸载CUDA11.0由于深度学习部分代码仅支持CUDA11.0版本之前的Pytorch,Pytorch官网也没有提供与CUDA11.0配套的版本,因此决定卸载CUDA11.0,但是网上也都是11.0版本之前的卸载方式,因此按照网上的方法进行卸载,由于本人linux操作系统不熟,只能自己尝试首先在安装完CUDA11.0版本后,进入CUDA官网准备安装CUDA10.2,本来没想卸载CUDA11.0但在安装的最后一步出现:说明,在存在更高版本(11.0)情况下,无法正常安装,于是进行卸载:为什么不按照网.

    2022年6月17日
    43
  • realsense深度图像保存方法

    realsense深度图像保存方法一般使用realsense时会保存视频序列,当保存深度图像时,需要注意保存的图像矩阵的格式,不然可能造成深度值的丢失。在众多图像库中,一般会使用opencv中的imwrite()函数进行深度图像的保存。一般深度图像中深度值的单位是mm,因此一般使用np.uint16作为最终数据格式保存。例子:importnumpyasnpimportcv2deffun1(…

    2022年4月25日
    27

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号