python实现简单爬虫功能[通俗易懂]

python实现简单爬虫功能[通俗易懂]python实现简单爬虫功能,抓取百度贴吧页面中的图片,下载到本地。

大家好,又见面了,我是你们的朋友全栈君。

 

  在我们日常上网浏览网页的时候,经常会看到一些好看的图片,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材。

  我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过截图工具截取下来,但这样就降低图片的清晰度。好吧~!其实你很厉害的,右键查看页面源代码。

  我们可以通过python 来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地。下面就看看如何使用python来实现这样一个功能。

 

 

一,获取整个页面数据

 

首先我们可以先获取要下载图片的整个页面信息。

getjpg.py

#coding=utf-8
import urllib def getHtml(url): page = urllib.urlopen(url) html = page.read() return html html = getHtml("http://tieba.baidu.com/p/2738151262") print html

  Urllib 模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取wwwftp上的数据。首先,我们定义了一个getHtml()函数:

  urllib.urlopen()方法用于打开一个URL地址。

  read()方法用于读取URL上的数据,向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。

 

 

二,筛选页面中想要的数据

 

  Python 提供了非常强大的正则表达式,我们需要先要了解一点python 正则表达式的知识才行。

http://www.cnblogs.com/fnng/archive/2013/05/20/3089816.html

 

假如我们百度贴吧找到了几张漂亮的壁纸,通过到前段查看工具。找到了图片的地址,如:src=”http://imgsrc.baidu.com/forum……jpg”pic_ext=”jpeg”

python实现简单爬虫功能[通俗易懂]

修改代码如下:

import re import urllib def getHtml(url): page = urllib.urlopen(url) html = page.read() return html def getImg(html): reg = r'src="(.+?\.jpg)" pic_ext' imgre = re.compile(reg) imglist = re.findall(imgre,html) return imglist html = getHtml("http://tieba.baidu.com/p/2460150866") print getImg(html)

  我们又创建了getImg()函数,用于在获取的整个页面中筛选需要的图片连接。re模块主要包含了正则表达式:

  re.compile() 可以把正则表达式编译成一个正则表达式对象.

  re.findall() 方法读取html 中包含 imgre(正则表达式)的数据。

    运行脚本将得到整个页面中包含图片的URL地址。

 

 

三,将页面筛选的数据保存到本地

 

把筛选的图片地址通过for循环遍历并保存到本地,代码如下:

 

#coding=utf-8
import urllib import re def getHtml(url): page = urllib.urlopen(url) html = page.read() return html def getImg(html): reg = r'src="(.+?\.jpg)" pic_ext' imgre = re.compile(reg) imglist = re.findall(imgre,html) x = 0 for imgurl in imglist: urllib.urlretrieve(imgurl,'%s.jpg' % x) x+=1 html = getHtml("http://tieba.baidu.com/p/2460150866") print getImg(html)

 

  这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。

  通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。

程序运行完成,将在目录下看到下载到本地的文件。

 

python实现简单爬虫功能[通俗易懂]

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/155846.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • WordPress建站_如何建设社区

    Wordpress建站_如何建设社区创始人或建设者,您需要了解将社区集成到您的项目中的哪些内容?采用什么样的去中心化的方式?”在2020年之前,我花了很多时间分析中心化社区建设最佳实践的来龙去脉,主要来自我作为用户(Foursquare、Meetup、Twitter),作为一名员工(StackOverflow),或者在我在UnionSquareVentures期间通过渗透了解到的成功Web2网络示例。…

    2022年10月2日
    2
  • 可用免费asp.net空间

    可用免费asp.net空间免费试用空间:支持到.net4.6,有sqlserver数据。1G空间,500M数据库。免费使用60天。可绑定一二级域名。到期不能再绑定已绑定过的域名。http://www.mywindows

    2022年6月30日
    26
  • 编译java程序需要使用命令_编译Java程序需要使用____命令。

    编译java程序需要使用命令_编译Java程序需要使用____命令。—myglasses?—Yes,Isawthemonyourbedaminuteago.A.DoyouseeB.HadyouseenC.WouldyouseeD.H_______acertaindoubtamongthepeopleastothepracticalvalueoftheproject.A.IthasB.TheyhavHer…

    2022年7月7日
    18
  • 归一化函数normalize详解_求归一化常数A

    归一化函数normalize详解_求归一化常数A1.归一化归一化就是要把需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内。首先归一化是为了后面数据处理的方便,其次是保证程序运行时收敛加快。归一化的具体作用是归纳统一样本的统计分布性。归一化在0-1之间是统计的概率分布,归一化在某个区间上是统计的坐标分布。归一化有同一、统一和合一的意思。归一化的目的,是使得没有可比性的数据变得具有可比性,同时又保持相比较的两个数据之间的相对关系,……

    2022年10月11日
    3
  • 201521123068 《java程序设计》第9周学习总结

    201521123068 《java程序设计》第9周学习总结

    2022年3月2日
    31
  • 权重系数确定问题_如何确定权重系数例子

    权重系数确定问题_如何确定权重系数例子根据各个指标获得综合指标时,由于各个指标对综合指标的贡献度不同,相应权重也应不同,对综合指标贡献大的指标更重要,应该分配更大的权重。如何确定各个指标的权重,这里介绍两种方法:熵值法和pca确定权重。也

    2022年8月4日
    8

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号