python爬虫-数据解析(bs4)

python爬虫-数据解析(bs4)

python爬虫-数据解析(bs4)

基本知识概念

数据解析原理:

  1. 标签定位
  2. 提取标签、标签属性中存储的数据值

bs4数据解析原理:

  • 1.实例化一个BeautifulSoup对象,并且将页面原码数据加载到该对象中
  • 2.通过调用BeautifulSoup对象中相关的属性或方法进行标签定位和数据提取

环境安装:

pip install bs4

pip install lxml

如何实例化BeautifulSoup对象:

  • from bs4 import BeautifulSoup
  • 对象的实例化:

1.将本地的html文档中的数据加载到该对象中

fp = open('./test.html','r',encoding='utf-8')
soup = BeautifulSoup(fp,'lxml')

2.将互联网上获取的页面源码加载到该对象中

page_text = response.text
soup = BeautifulSoup(page_text,'lxml')

提供的用于数据解析的方法和属性:

- soup. tagName :返回的是文档中第一次 出现的tagName对应的标签

- soup. find() :
	- find( ' tagName ' ) :等同于soup. div
	- 属性定位:
		- soup. find( 'div' ,class_ , id/attr= ' song' ) 
	- soup. find_ all( 'tagName i ) :返回符合要求的所有标签(列表)
	
- select: 
	- select( '某种选择器(id, class, 标签...选择器) ' ),返回的是一个列表 。
	- 层级选择器: 
		- soup. select('.tang > ul > li > a'): >表示的是一个层级
		- oup. select(' .tang > ul a'): 空格表示的多个层级
		
- 获取标签之间的文本数据:
	- soup.a. text/string/get_ text( )
	- text/get_ text() :可以获取某一个标签中所有的文本内容
	- string:只可以获取该标签下面直系的文本内容
	
- 获取标签中属性值:
	- soup.a['href']

bs4实例 —— 爬取三国演义所有章节

需求:爬取三国演义所有章节

https://www.shicimingju.com/book/sanguoyanyi.html

from bs4 import BeautifulSoup
import requests
if __name__ == '__main__':
    headers = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    url = 'https://www.shicimingju.com/book/sanguoyanyi.html'
    page_text = requests.get(url=url,headers=headers).text
    soup = BeautifulSoup(page_text,'lxml')
    li_list = soup.select('.book-mulu > ul > li')
    fp = open('./三国演义小说.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'https://www.shicimingju.com'+li.a['href']
        detail_page_text = requests.get(url=detail_url,headers=headers).text
        detail_soup = BeautifulSoup(detail_page_text, 'lxml')
        div_tag = detail_soup.find('div',class_='chapter_content')
        content = div_tag.text
        fp.write('\n' + title + ':' + content +'\n')
        print(title,'爬取成功')

发现出现乱码
在这里插入图片描述

response.text以文本格式查看的时候有乱码,可能是返回的内容被压缩了,这里修改一下
response.content.decode(“utf-8”) 按utf-8格式输出

from bs4 import BeautifulSoup
import requests
if __name__ == '__main__':
    headers = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    url = 'https://www.shicimingju.com/book/sanguoyanyi.html'
    page_text = requests.get(url=url,headers=headers).content.decode("utf-8")
    soup = BeautifulSoup(page_text,'lxml')
    li_list = soup.select('.book-mulu > ul > li')
    fp = open('./三国演义小说.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'https://www.shicimingju.com'+li.a['href']
        detail_page_text = requests.get(url=detail_url,headers=headers).content.decode("utf-8")
        detail_soup = BeautifulSoup(detail_page_text, 'lxml')
        div_tag = detail_soup.find('div',class_='chapter_content')
        content = div_tag.text
        fp.write('\n' + title + ':' + content +'\n')
        print(title,'爬取成功')

效果图

在这里插入图片描述

练习2—爬取多情剑客无情剑小说所有章节

https://www.gulongwang.com/duo/

from bs4 import BeautifulSoup
import requests

if __name__ == '__main__':
    url = 'https://www.gulongwang.com/duo/'
    headers = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    page_text = requests.get(url=url,headers=headers).content.decode('GBK')
    soup = BeautifulSoup(page_text,'lxml')
    li_list = soup.select('.lb > ul > li')
    fp = open('./多情剑客无情剑.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'https://www.gulongwang.com/'+li.a['href']
        detail_page_text = requests.get(url=detail_url,headers=headers).content.decode('GBK')
        detail_soup = BeautifulSoup(detail_page_text,'lxml')
        div_tag = detail_soup.find('div', class_='nr_con')
        content = div_tag.text
        fp.write('\n'+title+content+'\n')
        print(title,'爬取成功')

效果图

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/100110.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 什么是OJ _OJ是什么?[通俗易懂]

    什么是OJ _OJ是什么?[通俗易懂]OnlineJudgeSystem即在线评测系统(以下简称OJ),用户可以在线的提交程序源代码,OJ会对这些源代码进行编译和运行,并且通过每道题目预先设计的数据和时空限制等标准来检验用户程序的正确性。用户提交的程序在OJ下执行的时候会受到严格的限制,包括且不限于时间的限制、内存的限制、系统接口的限制和安全限制。用户程序执行的输出结果会被OJ接收并保存,然后通过裁判程序进行比较用户输出和标…

    2022年6月15日
    43
  • MATLAB绘图怎么变得更好看[通俗易懂]

    MATLAB绘图怎么变得更好看[通俗易懂]同样用的都是MATLAB,为啥大佬们画的图都那么好看,而你画的图都是简单、普通,那是因为我们掌握的基础元素不一样,只有掌握了最基本的基础元素,再加上日益增长的审美,才会有一张好图出来。二维绘图 函数名 说明 plot 基本的线性坐标绘图 loglog X-Y轴双对数坐标绘图 …

    2022年6月20日
    28
  • 使用FSO修改文件特定内容的函数

    使用FSO修改文件特定内容的函数function FSOchange(filename,Target,String)Dim objFSO,objCountFile,FiletempDataSet objFSO = Server.CreateObject(“Scripting.FileSystemObject”)Set objCountFile = objFSO.OpenTextFile(Server.MapPath(fil

    2022年5月31日
    36
  • link和@import的区别

    link和@import的区别

    2021年9月5日
    67
  • python attrs_Python attrs作用是什么?

    python attrs_Python attrs作用是什么?fromrest_frameworkimportserializersclassCommentSerializer(serializers.Serializer):email=serializers.EmailField()content=serializers.CharField(max_length=200)created=serializers.DateTimeField…

    2022年10月18日
    3
  • PyCharm for Anaconda

    PyCharm for AnacondaPyCharmforAnaconda新版本的特点智能Python帮助 PyCharm提供了智能代码完成、代码检查、动态错误突出显示和快速修复,以及自动化的代码重构和丰富的导航功能。 Web开发框架 PyCharm为现代web开发框架(如Django、Flask、Google应用程序引擎、Pyramid和web2py)提供了强大的特定于框架的支持。 科学工具(新版本的)…

    2022年8月29日
    7

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号