爬虫爬取妹子图片(入门篇)

爬虫爬取妹子图片(入门篇)

python 爬虫如果不尝试一下爬取漂亮妹子的图片,那怎么能算得上真正的爬虫呢?
下面就一起来尝试一下吧。(绝对领域
观看一下网站首页(是不是很刺激啊,动手吧)

这里介绍使用scrapy框架进行爬取全网的图片,如果想要使用requests模块进行爬取也是可以的,毕竟这个网站的爬取还是非常的简单。

1.建立一个新的项目,选择一个文件夹在给文件夹中新建一个项目,打开终端(win+R 输入cmd ),切换到该文件的路径下,输入命令。

scrapy startproject projectname         # 项目名称按照自己的想法定

# 例如:
scrapy startproject juedui

2.打开pycharm ,切换到当前项目路径下,如下所示(file—-open—-之后选择自己的项目路径)
在这里插入图片描述
3.打开setting文件,设置setting文件中的配置信息。(大部分信息都是处于注释状态,需要用到的信息就打开)
(设置头部,打开中间件,机器人协议……)
设置头部信息:
在这里插入图片描述
修改机器人协议(只用于学习,暂时不遵循)(把注释去掉)
同时设置输出信息的权限,使得输出的信息的权限不低于WARNING(警告)(这样子输出的内容就能够少去很多不必要信息)(自行添加)
在这里插入图片描述
设置中间的权重
在这里插入图片描述

4.书写爬虫处理文件,以及发起请求(juedui文件下的spider文件下的爬虫文件)
全部代码如下:

# -*- coding: utf-8 -*-
import scrapy,json,parsel,re,requests,os
from ..items import JueduiItem
from fake_useragent import UserAgent

ua = UserAgent()
header = {
   "User-Agent":ua.random}

class JdSpider(scrapy.Spider):
    name = 'jd'
    allowed_domains = ['jdlingyu.mobi']
    start_urls = ['https://www.jdlingyu.mobi']

    # 主页面的分析,提取列表页面url
    def parse(self, response):
        url_lsit = response.xpath('//div[@class="grid-bor"]//div[@class="pos-r cart-list"]')
        print(len(url_lsit))
        for url in url_lsit:
            item = JueduiItem()
            item['pageTitle'] = url.xpath('.//h2[@class="entry-title"]/a/text()').extract_first()
            item['pageUrl'] = url.xpath('.//h2[@class="entry-title"]/a/@href').extract_first()
            yield scrapy.Request(
                item['pageUrl'],
                callback=self.page_parse,
                meta={
   "item":item}
            )
        page = response.xpath('//div[@id="primary-home"]/@data-pages').extract_first()
        if page == None:                            # 获取该URL下的总页数
            page = response.xpath('//page-nav').extract_first()
            mold = re.findall('nav-type="(.*?)"',page)[0]
            page = re.findall('pages="(.*?)"',page)[0]
            print("page:",page,"type:",mold)
        for i in range(2,3):              # 逐个发起请求 int(page)+1
            yield scrapy.FormRequest(
                "https://www.jdlingyu.mobi/wp-admin/admin-ajax.php?action=zrz_load_more_posts",
                formdata={
   "type":mold,"paged":str(i)},
                callback=self.page_parse1,
            )

    # 对使用post请求发送得到的页面进行同样的分析
    def page_parse1(self,response):
        res = json.loads(response.body.decode())
        img = res['msg']
        html = parsel.Selector(img)
        url_lsit = html.xpath('//h2')
        for url in url_lsit:
            item = JueduiItem()
            item['pageTitle'] = url.xpath('.//a/text()').extract_first()
            item['pageUrl'] = url.xpath('.//a/@href').extract_first()
            yield scrapy.Request(
                item['pageUrl'],
                callback=self.page_parse,
                meta={
   'item':item}
            )


    # 提取文章中的图片URL,以及下载图片
    def page_parse(self,response):
        item = response.meta['item']
        item['imgUrl'] = response.xpath('//div[@id="content-innerText"]//img/@src').extract()
        print(item['pageTitle'])
        # print(item['imgUrl']) # 图片URL
        for url in item['imgUrl']:
            res = requests.get(url,headers=header)
            # 把图片保存到本地硬盘中,文件路径按照自己电脑来写
            if not os.path.exists(r"F:\相片\绝对领域/"+item['pageTitle']):   # 这个地址自己设置自己的本地地址
                os.makedirs(r"F:\相片\绝对领域/"+item['pageTitle'])
            with open(r"F:\相片\绝对领域/"+item['pageTitle']+'/'+url.split('/')[-1],"wb") as fp:
                fp.write(res.content)


这样子就把所有的图片保存到了硬盘文件中了。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/115125.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • idea正则替换小技巧「建议收藏」

    idea正则替换小技巧「建议收藏」相信很多idea开发的人都遇到过要替换某些拷贝的内容然后转换成自己的注释,但是一个一个替换又太麻烦,正则替换这时就是快速解决的办法。如下面图所示这个java类里面的属性就是mybatis的自动生成,带了很多注释,但如果想换成swagger来展示给前端看的时候就需要替换成下面的样子。想要做到这一步只需要执行下面的正则就行。首先点击打开替换窗口,idea原生快捷键按CTRL+R就行,全…

    2022年9月27日
    4
  • npm和cnpm(windows)安装步骤

    npm和cnpm(windows)安装步骤一、什么是npm和cnpmnpm(nodepackagemanager):nodejs的包管理器,用于node插件管理(包括安装、卸载、管理依赖等)cnpm:因为npm安装插件是从国外服务器下载,受网络的影响比较大,可能会出现异常,如果npm的服务器在中国就好了,所以我们乐于分享的淘宝团队干了这事。来自官网:“这是一个完整npmjs.org镜像,你可以用此代替官方版本(只读),同步频……………

    2022年10月16日
    3
  • plsql连接oracle数据库报ora 12154错误解决方法

    plsql连接oracle数据库报ora 12154错误解决方法今天遇到一个问题,plsql连接oracle数据库报ora12154错误,本文将为您详细介绍此等问题的几种解决方法(我是使用第二种方法解决的)解决方法如下:1.先检查服务器端的监听服务是否打开,如果没有打开请启动其监听客户端:tnsping服务器Linux下:#>lsnrctlstatus查看监听状态#>lsnrctlstart启动监听 

    2022年7月19日
    19
  • pytest-allure_pytest数据驱动

    pytest-allure_pytest数据驱动前言allure是一个report框架,支持java的Junit/testng等框架,当然也可以支持python的pytest框架,也可以集成到Jenkins上展示高大上的报告界面。mac环境:

    2022年7月28日
    13
  • Ios frida_frida

    Ios frida_frida一、FridaFrida是一款基于Python+javascript的hook框架,通杀android\iOS\linux\win\osx各平台。Frida原理是手机端安装一个server程序把手机端的端口转到PC端写的python脚本进行通信,而Python脚本中采用javascript语言编写hook代码。①installfridaondeviceStartCydiaandaddFrida’srepositorybynavig

    2025年6月22日
    4
  • dsp McBSP模块「建议收藏」

    dsp McBSP模块「建议收藏」McBSP,是多通道缓冲串行接口。在DSP嵌入式系统中,常常用来连接音频编码解码芯片,串行AD/DA器件等。具有如下特性:全双工;两个数据缓冲寄存器;独立的发送和接收帧和时钟;多达129通道的发送和接收等等。McBSP结构图如下:首先对引脚进行介绍:CLKR:接收时钟CLKX:发送时钟CLKS:外部时钟源DR“:串行数据接收DX:串行数据发送

    2022年5月21日
    162

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号