爬虫工具_应用程序market

爬虫工具_应用程序market一个简单的异步爬虫.私信太多,统一回答一下:关于异步函数的:1.真正派发任务的是consumer这个coroutine,所以也在内部做了并发控制.2.process_content用于获取html及保存到mysql.关于异步相关(asyncio)的:1.await相当于yieldfrom.2.await后面是一个coroutine,…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全家桶1年46,售后保障稳定

一个简单的异步爬虫. 

私信太多,统一回答一下:

关于异步函数的:

1. 真正派发任务的是  consumer 这个coroutine,所以也在内部做了并发控制. 

2. process_content 用于获取html及保存到mysql.

关于异步相关(asyncio)的 :

1.await 相当于 yield from . 

 

2.await 后面是一个coroutine, 普通函数不是coroutine,普通函数也不是通过加一个 async   / asyncio.coroutine,就能真正

成为coroutine的,就算没报错,如果内部加了阻塞函数(time.sleep / read /write ) 还是一个阻塞函数;因此,往往我们自己的

coroutine只是一个中间层的东西,所以需要aiohttp , aiomysql等这个模块来提供支持,就跟tornado的异步框架一样,如果你

在get()/post() 中加了阻塞函数调用,tornado 还是阻塞的.

 

3. 这个问题问的有点多 . 

1. await 后面可以是 Task,Future,async def xxx() ( 自定义函数) ,因此在加入loop 时,将自动封装我们自定义的coroutine成为一个 Task / Future 对象.

* 2. 无论是 await 还是  asyncio.ensure_future/async , 都将把coroutine加入loop中,但是两者有一个差别:

      await 是等待这个coroutine 运行完成, ensure_future/async 不会等待直接仍入循环体中运行. 

      这个就是下面代码中一会用await 一会用ensure_future/async .同样的也是很多人问,

      为什么在控制 coroutine 的时候: async with sem 后面用ensure_future 控制不了的原因

 

3.额外说明一下Future对象. 下面代码中没有自行创建Future对象, 其实也可以用, Future对象与Twisted中的

Defer对象极其类似. 只不过Future 对象一般都是 await Future, 当然也可以使用回调: Future.add_done_callback.

而Defer对象是使用2个回调链的方式.具体可参考我写的:Twisted

这2个对象都在Future.set_result  /  Defered.callbacks  “返回”执行 await Future之后的代码 / Deferred 中的无穷无尽的callbacks.

关于Future对象的运行流程可看官方文档或Tornado中的 AsyncHTTPClient.fetch.

下面给一个Tornado中使用Future对象的案例 :  注意,没有使用过Tornado协程的别看了, Tornado旧版本的协程有些误导 

1.第一个使用Future对象的Tornado案例

class cor(RequestHandler):
   @gen.coroutine  #tornado 装饰器
   def get(self):
        #创建一个异步客户端
        clt = AsyncHTTPClient()
        #fetch 将返回一个Future对象 . yield 这个Future,直到set_result被调用
        res = yield clt.fetch('http://www.baidu.com')
        print('fetch : ' , res)
        self.write(res.body)

Jetbrains全家桶1年46,售后保障稳定

2.这个案例比较容易理解, 使用了新的语法,与下面爬虫的协程语法一致

class cor(RequestHandler):
   async def get(self): #用了新的语法
        clt = AsyncHTTPClient()

        #使用了await Future,直到 Future.set_result 被调用
        res = await clt.fetch('http://www.baidu.com')
        print('fetch : ' , res)
        self.write(res.body)

 

 

分割线:

 

import asyncio
import aiohttp
from lxml import etree
import aiomysql
import re


#一些全局变量
start_url = "http://www.jobbole.com/"
waitting_urls = None
visited_urls = set()
failed_urls = set()
stop_fetch = False
USER_AGENT_LIST = [
    'MSIE (MSIE 6.0; X11; Linux; i686) Opera 7.23',
    'Opera/9.20 (Macintosh; Intel Mac OS X; U; en)',
    'Opera/9.0 (Macintosh; PPC Mac OS X; U; en)',
    'iTunes/9.0.3 (Macintosh; U; Intel Mac OS X 10_6_2; en-ca)',
    'Mozilla/4.76 [en_jp] (X11; U; SunOS 5.8 sun4u)',
    'iTunes/4.2 (Macintosh; U; PPC Mac OS X 10.2)',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:5.0) Gecko/20100101 Firefox/5.0',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:9.0) Gecko/20100101 Firefox/9.0',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.8; rv:16.0) Gecko/20120813 Firefox/16.0',
    'Mozilla/4.77 [en] (X11; I; IRIX;64 6.5 IP30)',
    'Mozilla/4.8 [en] (X11; U; SunOS; 5.7 sun4u)',
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36"
]

import random

#控制corroutine数量
sem = asyncio.Semaphore(4)

#获取html
async def fetch(session, url):
    headers = {'User-Agent' : random.choice(USER_AGENT_LIST)}
    try:
        #单一一个站点用一个会话就行了
        async with session.get(url,headers=headers) as r:
            
            #已经访问过的url
            visited_urls.add(url)
            print("url:{} status:{}".format(url,r.status))
            
            #获取结果,用 await / yield from (如果用asyncio.coroutine)
            text = await r.text(encoding='utf8')
            return text
    except Exception as e:
        print('url:{} failed')
        failed_urls.add(url)
        return None


#获取mysql pool . 自己看文档把,文档里写的很清楚
async def get_mysql_pool(**settings):
    pool = await aiomysql.create_pool(**settings)
    return pool


#获取href属性
def extract_urls(html):
    htmlobj = etree.HTML(html)
    return set(htmlobj.xpath('//a[contains(@href,"http")]/@href'))

#获取标题
def get_title(html):
    htmlobj = etree.HTML(html)
    title = ''.join(htmlobj.xpath('//div[@class="entry-header"]/h1/text()'))
    return title

#处理数据,保存到mysql
async  def process_content(session,url,pool):
    
    #获取html
    html = await fetch(session, url)

    #深度控制,我这就获取一层
    # urls = extract_urls(html) 深度控制,这里不做了
    sql = 'insert into jobbole(title) VALUES(%s)'
    title = get_title(html)

    #获取pool中的连接
    async with pool.acquire() as conn:
        #拿游标
        async with conn.cursor() as cur:
            try:
                await cur.execute(sql,(title))
                await conn.commit()
            except Exception as e:
                await conn.rollback()
                print(e)


#额,这个名字随意取了一个,相当于消费者.申明啊,这个函数我就随意一写,没调式过.
async def consumer(session,pool):

    #只要waitting_urls不为空,就拿出来,去获取内容
    while not stop_fetch:
        while len(waitting_urls) == 0 and not stop_fetch:

            #如果空了,休息一下
            await asyncio.sleep(1)
            continue

        
        if len(waitting_urls) > 0 :
            url = waitting_urls.pop()

            #这里就拿个标题,只要符合的就ok.
            if re.match('https?://.*?jobbole.com/\d+/',url) and url not in visited_urls:

                #做一下控制并发
                async with sem:
        
                    #这行注释掉,否则就别用控制并发了
                    # asyncio.ensure_future(process_content(session,url,pool))
                    await process_content(session,url,pool)

#一开始的准备工作, 我这里只从首页拿所有的url
async def prepare_urls(session):
    global waitting_urls
    html = await fetch(session, start_url)
    urls = extract_urls(html)
    waitting_urls = {url for url in urls}
    print('waitinglist len:' , len(waitting_urls))


#一个检测函数
async def check_tasks():
    while True:
        print('当前运行corotine数量 :' , len(asyncio.Task.all_tasks()))
        await asyncio.sleep(0.5)


async def main(**settings):

    #创建sess
    session = aiohttp.ClientSession()
    
    #创建mysql pool
    pool = await get_mysql_pool(**settings)
    
    #开启检测
    asyncio.ensure_future(check_tasks())

    #准备首页的所有url
    await prepare_urls(session)
    
    #开始运行这个coroutine ,真正干活的
    asyncio.ensure_future(consumer(session,pool))




#关闭用的,这里没用到, 可以自行修改添加
async def close(session,pool):
    await session.close()
    pool.close()
    await pool.wait_closed()

#拿主循环
lp = asyncio.get_event_loop()

#mysql配置
db_mysql_settings = {
    'db' : 'testdb',
    'host' : '127.0.0.1',
    'port' : 3306,
    'user' : 'root',
    'password' : 'fuck',
    'loop' : lp,
    'charset' : 'utf8',
    'maxsize':50
}

#开始运行
asyncio.ensure_future(main(**db_mysql_settings))
lp.run_forever()

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/210149.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 解决kali-linux更新源无法使用的问题(签名失效)

    解决kali-linux更新源无法使用的问题(签名失效)本来说是这个寒假好好学习一下渗透测试的,可随着了解的深入,发现渗透测试需要的知识储备太多了,因此好长时间都没有真正的去学习渗透工具的使用,今天上午装了一个kali,装上之后第一件事就是执行apt-getupdate&&apt-getupgrade,结果却出现了这样的错误我添加的是中科大的更新源,在浏览器中是可以正常打开的:debhttp://mirrors.ustc.ed

    2022年5月28日
    214
  • layui弹出层弹出另一个页面[通俗易懂]

    layui弹出层弹出另一个页面[通俗易懂]layer.open({type:2,skin:’layui-layer-demo’,//样式类名title:’标题’,closeBtn:0,//不显示关闭按钮anim:2,area:[‘893px’,’60…

    2022年6月14日
    223
  • python光流法算法学习「建议收藏」

    python光流法算法学习「建议收藏」基于python-opencv程序对光流法的理解光流法的定义Lucas-Kanade光流原理Shi-Tomasi角点检测python-opencv代码demo光流法的定义光流法是空间运动物体在观察成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。一般而言,光流是由于场景…

    2022年7月23日
    6
  • 奋斗米莱经典台词[通俗易懂]

    奋斗米莱经典台词[通俗易懂]米莱,她专一,不做作,善良,敢爱敢恨。1.记住,在这个世界上,男人女人各有分工,男人主要用来对女人使坏,女人主要用来对男人好,以前我对这种混蛋分工特不满意。可是现在,我认命了。2.对夏琳:其

    2022年7月3日
    21
  • BigDecimal加减乘除运算工具类

    BigDecimal加减乘除运算工具类BigDecimal加减乘除运算工具类

    2022年6月2日
    57
  • 数据库的数据模型是网状模型_网状模型的数据结构是

    数据库的数据模型是网状模型_网状模型的数据结构是层次数据模型    定义:层次数据模型是用树状<层次>结构来组织数据的数据模型。    满足下面两个条件的基本层次联系的集合为层次模型    1.有且只有一个结点没有双亲结点,这个结点称为根结点    2.根以外的其它结点有且只有一个双亲结点其实层次数据模型就是的图形表示就是一个倒立生长的树,由基本数据结构中的树(或者二叉树)的定义可知,每棵树都有且仅有一个根节点,其余的…

    2022年10月29日
    0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号