基于Python编程实现简单网络爬虫实现

基于Python编程实现简单网络爬虫实现编写一个非常轻量的python代码,实现网络爬虫

大家好,又见面了,我是你们的朋友全栈君。

引言

网络爬虫(英语:web crawler),也叫网络蜘蛛(spider),是一种用来自动浏览万维网的网络机器人。其目的一般为编纂网络索引。 –维基百科

网络爬虫可以将自己所访问的页面保存下来,以便搜索引擎事后生成索引供用户搜索。
一般有两个步骤:1.获取网页内容  2.对获得的网页内容进行处理

 

准备

Linux开发环境

python3.61安装方法:https://www.cnblogs.com/kimyeee/p/7250560.html

安装一些必要的第三方库
其中requiests可以用来爬取网页内容,beautifulsoup4用来将爬取的网页内容分析处理

pip3 install requiests
pip3 install beautifulsoup4

 

第一步:爬取

使用request库中的get方法,请求url的网页内容
更多了解:http://docs.python-requests.org/en/master/

 

编写代码
 

[root@localhost demo]# touch demo.py
[root@localhost demo]# vim demo.py
#web爬虫学习 -- 分析
#获取页面信息

#输入:url
#处理:request库函数获取页面信息,并将网页内容转换成为人能看懂的编码格式
#输出:爬取到的内容

import requests

def getHTMLText(url):
    try:
        r = requests.get( url, timeout=30 )
        r.raise_for_status()    #如果状态码不是200,产生异常
        r.encoding = 'utf-8'    #字符编码格式改成 utf-8
        return r.text
    except:
        #异常处理
        return " error "

url = "http://www.baidu.com"
print( getHTMLText(url) )
[root@localhost demo]# python3 demo.py

基于Python编程实现简单网络爬虫实现

 

 

 

 

第二步:分析

使用bs4库中BeautifulSoup类,生成一个对象。find()和find_all()方法可以遍历这个html文件,提取指定信息。
更多了解:https://www.crummy.com/software/BeautifulSoup/

编写代码

[root@localhost demo]# touch demo1.py
[root@localhost demo]# vim demo1.py
#web爬虫学习 -- 分析
#获取页面信息

#输入:url
#处理:request库获取页面信息,并从爬取到的内容中提取关键信息
#输出:打印输出提取到的关键信息

import requests
from bs4 import BeautifulSoup
import re

def getHTMLText(url):
    try:
        r = requests.get( url, timeout=30 )
        r.raise_for_status()    #如果状态码不是200,产生异常
        r.encoding = 'utf-8'    #字符编码格式改成 utf-8
        return r.text
    except:
        #异常处理
        return " error "

def findHTMLText(text):
    soup = BeautifulSoup( text, "html.parser" )    #返回BeautifulSoup对象
    return soup.find_all(string=re.compile( '百度' )) #结合正则表达式,实现字符串片段匹配

url = "http://www.baidu.com"
text = getHTMLText(url)        #获取html文本内容
res = findHTMLText(text)    #匹配结果

print(res)        #打印输出
[root@localhost demo]# python3 demo1.py

基于Python编程实现简单网络爬虫实现

 

 

 

一个例子:中国大学排名爬虫

参考链接:https://python123.io/index/notebooks/python_programming_basic_v2

#e23.1CrawUnivRanking.py
import requests
from bs4 import BeautifulSoup
allUniv = []
def getHTMLText(url):
    try:
        r = requests.get(url, timeout=30)
        r.raise_for_status()
        r.encoding = 'utf-8'
        return r.text
    except:
        return ""
def fillUnivList(soup):
    data = soup.find_all('tr')
    for tr in data:
        ltd = tr.find_all('td')
        if len(ltd)==0:
            continue
        singleUniv = []
        for td in ltd:
            singleUniv.append(td.string)
        allUniv.append(singleUniv)
def printUnivList(num):
    print("{:^4}{:^10}{:^5}{:^8}{:^10}".format("排名","学校名称","省市","总分","培养规模"))
    for i in range(num):
        u=allUniv[i]
        print("{:^4}{:^10}{:^5}{:^8}{:^10}".format(u[0],u[1],u[2],u[3],u[6]))
def main():
    url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
    html = getHTMLText(url)
    soup = BeautifulSoup(html, "html.parser")
    fillUnivList(soup)
    printUnivList(10)
main()

展示

基于Python编程实现简单网络爬虫实现

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/144742.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • Modelsim SE 下载安装、注册详细教程「建议收藏」

    目录一、ModelsimSE下载及安装参考资料一、ModelsimSE下载及安装百度网盘下载链接:https://pan.baidu.com/s/1a9d-bq9RZmWrRV542X4IEA——提取码:ifte下载完成后,解压缩win64版的modelsim压缩包。双击可执行文件运行。点击【Next】。选择安装路径,然后点击【Next】。点击【Agree】。正在安装…弹窗添加环境变量,点击【允许】,这样就可以从DOS提示符执行Modelsim了。

    2022年4月10日
    488
  • 【边缘计算】边缘计算元年一文看懂云边协同!九大场景带来新一轮信息革命…

    【边缘计算】边缘计算元年一文看懂云边协同!九大场景带来新一轮信息革命…来源:产业智能官2019年边缘计算备受产业关注,一度引起了资本市场的投资热潮,很多人把2019年称作边缘计算的元年。理性来看,造成如此火爆局势难免有一些炒作因素在推…

    2022年6月22日
    45
  • 虚拟机与宿主机网络[通俗易懂]

    虚拟机与宿主机网络[通俗易懂]桥接、NAT和host-only三种网络连接方式的区别一、不同网络连接方式对网络网络影响简介:二、三种网络连接方式详细介绍:我本机宿主机使用win10系统,IP地址为:192.168.1.117。1、桥接方式桥接方式下,虚拟机和宿主机处于同一网段,真实存在于网络中,像是一台真实的主机。虚拟机和宿主机彼此互通,且网络中的其他主机也可以互通。就像是连接在hub中的主机一样。获取的IP地址网段为:192.168.1.X,实际获取的为192.168.1.220。优点:可以轻松实现上网,同网段中的主机

    2022年8月21日
    7
  • mysql密码更改_mysql初始密码在哪个文件

    mysql密码更改_mysql初始密码在哪个文件若使用mysqld–initialize初始化mysql数据库,会产生一个默认的随机密码。密码位置:mysql安装目录下的data目录下的xxx.err文件,此文件如下所示:用记事本打开err文件可以看到临时密码:<a5F34))PqMb使用cmd命令行工具,用临时密码登录,进行修改密码命令:mysql-uroot-p修改密码sqlsetpasswordfo…

    2022年8月12日
    6
  • 双机热备方案设计

    1什么是双机热备方案  双机热备就是使用互为备份的两台服务器共同执行同一服务,其中一台主机为工作机(PrimaryServer),另一台主机为备份机(StandbyServer),保证系统不间断的运行。双机热备软件就是实现上述功能的软件产品。双机热备针对的是服务器的临时故障所做的一种备份技术,通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。  企事业机构的信息化建设已…

    2022年4月6日
    45
  • spring boot 系列之二:spring boot 如何修改默认端口号和contextpath「建议收藏」

    上一篇文件我们通过一个实例进行了springboot入门,我们发现tomcat端口号和上下文(contextpath)都是默认的,如果我们对于这两个值有特殊需要的话,需要自己制定的时候怎么办呢

    2022年2月16日
    33

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号