java高并发下数据入库

java高并发下数据入库java高并发下数据批量入库该服务利用线程池并结合缓存类来处理高并发下数据入库问题,做到实时数据存入redis和数据批量入库,使用的时候需要修改为自己的业务数据,该服务暂时适合下面两种情况:1、达到设置的超时时间。2、达到最大批次。packageio.renren.service.impl;importcom.alibaba.fastjson.JSON;importcom.alibaba.fastjson.JSONArray;importlombok.extern.slf4j.Slf

大家好,又见面了,我是你们的朋友全栈君。

java高并发下数据入库

该服务利用线程池并结合缓存类来处理高并发下数据入库问题,做到实时数据存入redis和数据批量入库,使用的时候需要修改为自己的业务数据,该模块是根据下面的设置进行高并发处理。
1、达到设置的超时时间。
2、达到最大批次。

package io.jack.service.impl;

import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.JSONArray;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.InitializingBean;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;

/** * <pre> * 数据批量入库服务 * </pre> * Created by RuiXing Hou on 2021-08-05. * * @since 1.0 */
@Component
@Slf4j
public class BatchDataStorageService implements InitializingBean
{ 
   
	/** * 最大批次数量 */
	@Value("${app.db.maxBatchCount:800}")
    private int maxBatchCount;

	/** * 最大线程数 */
    @Value("${app.db.maxBatchThreads:100}")
    private int maxBatchThreads;

	/** * 超时时间 */
	@Value("${app.db.batchTimeout:3000}")
    private int batchTimeout;

	/** * 批次数量 */
    private int batchCount = 0;

	/** * 批次号 */
	private static long batchNo = 0;

	/** * 线程池定义接口 */
    private ExecutorService executorService = null;

	/** * 服务器缓存工具类,下面提供源码 */
	@Resource
	private CacheService cacheService;

	/** * 业务接口 */
	@Resource
	private DeviceRealTimeService deviceRealTimeService;

	/** * redis工具类 */
	@Resource
	private RedisUtils redisUtils;

	@Override
	public void afterPropertiesSet() { 
   
		this.executorService = Executors.newFixedThreadPool(this.maxBatchThreads, r -> { 
   
			Thread thread = new Thread(r);
			if (r instanceof BatchWorker) { 
   
				thread.setName("batch-worker-" + ((BatchWorker) r).batchKey);
			}
			return thread;
		});
	}

	/** * 需要做高并发处理的类只需要调用该方法 (我用的是rabbitMq) * * @param deviceRealTimeDTO */
	public void saveRealTimeData(DeviceRealTimeDTO deviceRealTimeDTO) { 
   
		final String failedCacheKey = "device:real_time:failed_records";

		try { 
   

			String durationKey = "device:real_time:batchDuration" + batchNo;
			String batchKey = "device:real_time:batch" + batchNo;

			if (!cacheService.exists(durationKey)) { 
   
				cacheService.put(durationKey, System.currentTimeMillis());
				new BatchTimeoutCommitThread(batchKey, durationKey, failedCacheKey).start();
			}

			cacheService.lPush(batchKey, deviceRealTimeDTO);
			if (++batchCount >= maxBatchCount) { 
   
				// 达到最大批次,执行入库逻辑
				dataStorage(durationKey, batchKey, failedCacheKey);
			}

		} catch (Exception ex) { 
   
			log.warn("[DB:FAILED] 设备上报记录入批处理集合异常: " + ex.getMessage() + ", DeviceRealTimeDTO: " + JSON.toJSONString(deviceRealTimeDTO), ex);
			cacheService.lPush(failedCacheKey, deviceRealTimeDTO);
		} finally { 
   
			updateRealTimeData(deviceRealTimeDTO);
		}
	}

	/** * 更新实时数据 * @param deviceRealTimeDTO 业务POJO */
	private void updateRealTimeData(DeviceRealTimeDTO deviceRealTimeDTO) { 
   
		redisUtils.set("real_time:"+deviceRealTimeDTO.getDeviceId(), JSONArray.toJSONString(deviceRealTimeDTO));
	}

	/** * * @param durationKey 持续时间标识 * @param batchKey 批次标识 * @param failedCacheKey 错误标识 */
	private void dataStorage(String durationKey, String batchKey, String failedCacheKey) { 
   
		batchNo++;
		batchCount = 0;
		cacheService.del(durationKey);
		if (batchNo >= Long.MAX_VALUE) { 
   
			batchNo = 0;
		}
		executorService.execute(new BatchWorker(batchKey, failedCacheKey));
	}

	private class BatchWorker implements Runnable
	{ 
   

		private final String failedCacheKey;
		private final String batchKey;

		public BatchWorker(String batchKey, String failedCacheKey) { 
   
			this.batchKey = batchKey;
			this.failedCacheKey = failedCacheKey;
		}
		
		@Override
		public void run() { 
   
			final List<DeviceRealTimeDTO> deviceRealTimeDTOList = new ArrayList<>();
			try { 
   
				DeviceRealTimeDTO deviceRealTimeDTO = cacheService.lPop(batchKey);
				while(deviceRealTimeDTO != null) { 
   
					deviceRealTimeDTOList.add(deviceRealTimeDTO);
					deviceRealTimeDTO = cacheService.lPop(batchKey);
				}

				long timeMillis = System.currentTimeMillis();

				try { 
   
					List<DeviceRealTimeEntity> deviceRealTimeEntityList = ConvertUtils.sourceToTarget(deviceRealTimeDTOList, DeviceRealTimeEntity.class);
					deviceRealTimeService.insertBatch(deviceRealTimeEntityList);
				} finally { 
   
					cacheService.del(batchKey);
					log.info("[DB:BATCH_WORKER] 批次:" + batchKey + ",保存设备上报记录数:" + deviceRealTimeDTOList.size() + ", 耗时:" + (System.currentTimeMillis() - timeMillis) + "ms");
				}
			} catch (Exception e) { 
   
				log.warn("[DB:FAILED] 设备上报记录批量入库失败:" + e.getMessage() + ", DeviceRealTimeDTO: " + deviceRealTimeDTOList.size(), e);
				for (DeviceRealTimeDTO deviceRealTimeDTO : deviceRealTimeDTOList) { 
   
					cacheService.lPush(failedCacheKey, deviceRealTimeDTO);
				}
			}
		}
    }

	class BatchTimeoutCommitThread extends Thread { 
   

		private final String batchKey;
		private final String durationKey;
		private final String failedCacheKey;

		public BatchTimeoutCommitThread(String batchKey, String durationKey, String failedCacheKey) { 
   
			this.batchKey = batchKey;
			this.durationKey = durationKey;
			this.failedCacheKey = failedCacheKey;
			this.setName("batch-thread-" + batchKey);
		}

		public void run() { 
   
			try { 
   
				Thread.sleep(batchTimeout);
			} catch (InterruptedException e) { 
   
				log.error("[DB] 内部错误,直接提交:" + e.getMessage());
			}

			if (cacheService.exists(durationKey)) { 
   
				// 达到最大批次的超时间,执行入库逻辑
				dataStorage(durationKey, batchKey, failedCacheKey);
			}
		}

	}

}

package io.jack.service;

import org.springframework.beans.factory.InitializingBean;
import org.springframework.context.annotation.Scope;
import org.springframework.stereotype.Component;

import java.util.HashMap;
import java.util.LinkedList;
import java.util.Map;
import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.atomic.AtomicLong;

@Component
@Scope("singleton")
public class CacheService implements InitializingBean { 
   

    private Map<String, Object> objectCache = new ConcurrentHashMap<>();

    private Map<String, AtomicLong> statCache = new ConcurrentHashMap<>();

    @Override
    public void afterPropertiesSet() { 
   
        statCache.put("terminals", new AtomicLong(0));
        statCache.put("connections", new AtomicLong(0));
    }

    public long incr(String statName) { 
   
        if (!statCache.containsKey(statName))
            statCache.put(statName, new AtomicLong(0));
        return statCache.get(statName).incrementAndGet();
    }

    public long decr(String statName) { 
   
        if (!statCache.containsKey(statName))
            statCache.put(statName, new AtomicLong(0));
        return statCache.get(statName).decrementAndGet();
    }

    public long stat(String statName) { 
   
        if (!statCache.containsKey(statName))
            statCache.put(statName, new AtomicLong(0));
        return statCache.get(statName).get();
    }

    public <T> void put(String key, T object) { 
   
        objectCache.put(key, object);
    }

    public <T> T get(String key) { 
   
        return (T) objectCache.get(key);
    }

    public void remove(String key) { 
   
        objectCache.remove(key);
    }

    public void hSet(String key, String subkey, Object value) { 
   
        synchronized (objectCache) { 
   
            HashMap<String, Object> submap = (HashMap<String, Object>) objectCache.get(key);
            if (submap == null) { 
   
                submap = new HashMap<>();
                objectCache.put(key, submap);
            }
            submap.put(subkey, value);
        }
    }

    public <T> T hGet(String key, String subkey) { 
   
        synchronized (objectCache) { 
   
            HashMap<String, Object> submap = (HashMap<String, Object>) objectCache.get(key);
            if (submap != null) { 
   
                return (T) submap.get(subkey);
            }
            return null;
        }
    }

    public boolean hExists(String key, String subkey) { 
   
        synchronized (objectCache) { 
   
            HashMap<String, Object> submap = (HashMap<String, Object>) objectCache.get(key);
            if (submap != null) { 
   
                return submap.containsKey(subkey);
            }
            return false;
        }
    }

    public void lPush(String key, Object value) { 
   
        synchronized (objectCache) { 
   
            LinkedList queue = (LinkedList) objectCache.get (key);
            if (queue == null) { 
   
                queue = new LinkedList();
                objectCache.put(key, queue);
            }
            queue.addLast(value);
        }
    }

    public <T> T lPop(String key) { 
   
        synchronized (objectCache) { 
   
            LinkedList queue = (LinkedList) objectCache.get (key);
            if (queue != null) { 
   
                if (!queue.isEmpty()) { 
   
                    return (T)queue.removeLast();
                }
                objectCache.remove(key);
            }
            return null;
        }
    }

    public void del(String key) { 
   
        objectCache.remove(key);
    }

    public boolean exists(String key) { 
   
        return objectCache.containsKey(key);
    }

    public void dump() { 
   

    }
}

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/144596.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 老王讲二进制 & 0xFF;「建议收藏」

    老王讲二进制 & 0xFF;「建议收藏」$a=2;$b=($a<<6)&0xFF;var_dump($b);die;代码如上 最后结果是128。   $a  二进制左移6位 相当于$a*2^6(2的6次方)。现在告诉你后边的  &0xFF是什么鬼东西。这个东西的有无并不会影响计算结果,但严格意义上说应该有。因为前边的位移运算是二进制算法,计算结果是一个二进制数据,byte类型的

    2022年6月19日
    24
  • Eurake和Zookeeper的区别

    Eurake和Zookeeper的区别拉取方式zookeeper通知消费者来拿Eurake是定时去拿集群方式zookeeper分主从eureka没有主从之分设计角度不同capc 一致性 a 可用性 p 分区容错区 如果zookeeper的主集群挂掉之后那么整个zookeeper的集群就无法对外提供服务,大多数情况可以容忍一段时间的脏数据但是不能接收整个注册中心无法对外提供服务。所以在设计时zookeeper强调cp(c在官网的解释是一致性,底层有一个queu…

    2022年5月27日
    67
  • 一阶惯性滤波特点_一阶惯性环节仿真

    一阶惯性滤波特点_一阶惯性环节仿真由文章(二)可知,二次平均法改善了一次平均法滤除低频干扰时超调的影响,但仍然未能完全滤除低频干扰。因此,通过改变反馈控制系统参数结合平均法是一个不错的选择,仿真如图:通过改变比例系数,可以实现一定的滤波效果,此方法是通过降低响应参数的方式实现一级滤波,通过平均法实现二级滤波,仿真结果如下图:文章《一阶惯性传感器的快速跟踪性能实现》中,最终传递函数为:本例中,传递函数为启动性能与文章《一阶惯性传感器的快速跟踪性能实现》中接近,且较大地滤除了高频、低频干扰可见,该控制

    2022年10月4日
    0
  • 解析土豆视频下载地址以及硕鼠网原理

    解析土豆视频下载地址以及硕鼠网原理

    2021年8月20日
    127
  • Java Web项目 慧心人力资源管理系统[通俗易懂]

    Java Web项目 慧心人力资源管理系统[通俗易懂]美和易思JavaWeb机试试题题目:慧心人力资源管理系统文档下载:https://download.csdn.net/download/weixin_44893902/16336711实现代码下载:目录一、语言和环境二、实现功能三、数据库设计四、具体要求及推荐实现步骤五、评分标准六、实现代码一、语言和环境实现语言:JAVA语言。 环境要求:MyEclipse/Eclipse+Tomcat+MySql。 使用技术:Jsp+Servlet+Jav..

    2022年5月28日
    30
  • 11 Best Google Chrome Plugins For Designers

    11 Best Google Chrome Plugins For Designers

    2021年9月6日
    83

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号