python爬虫-数据解析(bs4)

python爬虫-数据解析(bs4)

python爬虫-数据解析(bs4)

基本知识概念

数据解析原理:

  1. 标签定位
  2. 提取标签、标签属性中存储的数据值

bs4数据解析原理:

  • 1.实例化一个BeautifulSoup对象,并且将页面原码数据加载到该对象中
  • 2.通过调用BeautifulSoup对象中相关的属性或方法进行标签定位和数据提取

环境安装:

pip install bs4

pip install lxml

如何实例化BeautifulSoup对象:

  • from bs4 import BeautifulSoup
  • 对象的实例化:

1.将本地的html文档中的数据加载到该对象中

fp = open('./test.html','r',encoding='utf-8')
soup = BeautifulSoup(fp,'lxml')

2.将互联网上获取的页面源码加载到该对象中

page_text = response.text
soup = BeautifulSoup(page_text,'lxml')

提供的用于数据解析的方法和属性:

- soup. tagName :返回的是文档中第一次 出现的tagName对应的标签

- soup. find() :
	- find( ' tagName ' ) :等同于soup. div
	- 属性定位:
		- soup. find( 'div' ,class_ , id/attr= ' song' ) 
	- soup. find_ all( 'tagName i ) :返回符合要求的所有标签(列表)
	
- select: 
	- select( '某种选择器(id, class, 标签...选择器) ' ),返回的是一个列表 。
	- 层级选择器: 
		- soup. select('.tang > ul > li > a'): >表示的是一个层级
		- oup. select(' .tang > ul a'): 空格表示的多个层级
		
- 获取标签之间的文本数据:
	- soup.a. text/string/get_ text( )
	- text/get_ text() :可以获取某一个标签中所有的文本内容
	- string:只可以获取该标签下面直系的文本内容
	
- 获取标签中属性值:
	- soup.a['href']

bs4实例 —— 爬取三国演义所有章节

需求:爬取三国演义所有章节

https://www.shicimingju.com/book/sanguoyanyi.html

from bs4 import BeautifulSoup
import requests
if __name__ == '__main__':
    headers = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    url = 'https://www.shicimingju.com/book/sanguoyanyi.html'
    page_text = requests.get(url=url,headers=headers).text
    soup = BeautifulSoup(page_text,'lxml')
    li_list = soup.select('.book-mulu > ul > li')
    fp = open('./三国演义小说.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'https://www.shicimingju.com'+li.a['href']
        detail_page_text = requests.get(url=detail_url,headers=headers).text
        detail_soup = BeautifulSoup(detail_page_text, 'lxml')
        div_tag = detail_soup.find('div',class_='chapter_content')
        content = div_tag.text
        fp.write('\n' + title + ':' + content +'\n')
        print(title,'爬取成功')

发现出现乱码
在这里插入图片描述

response.text以文本格式查看的时候有乱码,可能是返回的内容被压缩了,这里修改一下
response.content.decode(“utf-8”) 按utf-8格式输出

from bs4 import BeautifulSoup
import requests
if __name__ == '__main__':
    headers = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    url = 'https://www.shicimingju.com/book/sanguoyanyi.html'
    page_text = requests.get(url=url,headers=headers).content.decode("utf-8")
    soup = BeautifulSoup(page_text,'lxml')
    li_list = soup.select('.book-mulu > ul > li')
    fp = open('./三国演义小说.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'https://www.shicimingju.com'+li.a['href']
        detail_page_text = requests.get(url=detail_url,headers=headers).content.decode("utf-8")
        detail_soup = BeautifulSoup(detail_page_text, 'lxml')
        div_tag = detail_soup.find('div',class_='chapter_content')
        content = div_tag.text
        fp.write('\n' + title + ':' + content +'\n')
        print(title,'爬取成功')

效果图

在这里插入图片描述

练习2—爬取多情剑客无情剑小说所有章节

https://www.gulongwang.com/duo/

from bs4 import BeautifulSoup
import requests

if __name__ == '__main__':
    url = 'https://www.gulongwang.com/duo/'
    headers = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    page_text = requests.get(url=url,headers=headers).content.decode('GBK')
    soup = BeautifulSoup(page_text,'lxml')
    li_list = soup.select('.lb > ul > li')
    fp = open('./多情剑客无情剑.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'https://www.gulongwang.com/'+li.a['href']
        detail_page_text = requests.get(url=detail_url,headers=headers).content.decode('GBK')
        detail_soup = BeautifulSoup(detail_page_text,'lxml')
        div_tag = detail_soup.find('div', class_='nr_con')
        content = div_tag.text
        fp.write('\n'+title+content+'\n')
        print(title,'爬取成功')

效果图

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/100110.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 《吐血整理》Linux面试题Top100@面试官你好,我精通Linux!嘿嘿~

    《吐血整理》Linux面试题Top100@面试官你好,我精通Linux!嘿嘿~Linux初学者面试问题Linux基本面试问题1.什么是Linux?回答:Linux是基于Linux内核的操作系统。它是一个开源操作系统,可以在不同的硬件平台上运行。它为用户提供了免费的低成本操作系统。这是一个用户友好的环境,他们可以在其中轻松修改和创建源代码的变体。2.谁发明了Linux?解释Linux的历史?回答:LinusTorvalds创建了Linux。莱纳斯·…

    2022年6月8日
    42
  • 16 岁高中生成功将 Linux 移植到 iPhone,并贴出详细指南[通俗易懂]

    16 岁高中生成功将 Linux 移植到 iPhone,并贴出详细指南[通俗易懂]本文转载自InfoQ,作者李俊辰如果你的旧iPhone已经无法支持你日常使用了,你会怎么处理这部iPhone呢?卖掉还是留起来收藏呢?近日,国外一名16岁的小开发者在YouTube上发布了一则视频,展示了自己是如何将Linux移植到一部无法使用的iPhone7。2020年3月,Corellium提出了ProjectSandcastle,通过使用checkra1n越狱程序在iPhone上成功运行Android,激发了开发者对那些旧型号的iPhone.

    2022年9月25日
    3
  • 探秘X86架构CPU流水线[通俗易懂]

    探秘X86架构CPU流水线[通俗易懂]http://ee.ofweek.com/2013-07/ART-11001-2805-28704745.html导读:CPU是如何工作的呢?一条指令执行需要多长时间?当我们讨论某个新款处理器拥有12级流水线还是18级流水线,甚至是更深的31级流水线时,这到些都意味着什么呢?作为程序员,CPU在我们的工作中扮演了核心角色,因此了解处理器内部的工作方式对程序员来说不无裨益。  CPU…

    2022年8月20日
    20
  • JavaScript getElementById()方法介绍

    JavaScript getElementById()方法介绍getElementById()根据元素的id属性获取一个元素节点对象getElementById()可以根据元素的id属性获取一个元素节点对象,该方法所有浏览器均可使用返回带有指定ID的元素,如下图:我们可以通过innerHTML属性(获取或者设置元素的内容(包含HTML标签解析)),如下图:我们可以通过innerText属性(获取或者设置元素的内容…

    2022年7月15日
    19
  • JavaScript实现进制转换

    JavaScript实现进制转换

    2022年3月12日
    40
  • 2019版idea激活码(破解版激活)[通俗易懂]

    2019版idea激活码(破解版激活),https://javaforall.net/100143.html。详细ieda激活码不妨到全栈程序员必看教程网一起来了解一下吧!

    2022年3月17日
    698

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号