大数据之Atlas元数据管理「建议收藏」

大数据之Atlas元数据管理「建议收藏」背景:公司做数据仓库时,管理自己多张表时,需要使用元数据管理系统进行管理。更多java、大数据学习面试资料,请扫码关注我的公众号:

大家好,又见面了,我是你们的朋友全栈君。

背景:

公司做数据仓库时,管理自己多张表时,需要使用数仓元数据管理系统进行管理。

一、Atlas简介

Atlas 是一个可伸缩且功能丰富、开源的元数据管理系统,深度对接了 Hadoop 大数据组件。

atlas 本身从技术上来说,就是一个典型的 JAVA WEB 系统,其整体结构图如下所示:

在这里插入图片描述

janusGraph (底层存储) :依赖于 hbase 和 solr
core (核心功能层): 相当于 javaee 里面的 service 层
integration(对外提供服务):相当于 javaee 里面的 controller 层

二、Atlas安装

1、下载源码包,并上传到linux,解压

tar -zxf apache-atlas-2.0.0-sources.tar.gz -C /opt/app/

2、执行 maven 编译打包

[root@h4 ~]# cd apache-atlas-sources-2.0.0/ 
[root@h4 apache-atlas-sources-2.0.0]# export MAVEN_OPTS="-Xms2g -Xmx2g" 
[root@h4 apache-atlas-sources-2.0.0]# mvn clean -DskipTests package -Pdist,embedded-hbase-solr

3、Atlas 安装配置

若是之前安装了zookeeper,kafka,hbase直接启动就行

4、安装solr

[root@h3 solr]# bin/solr start -c -z h1:2181,h2:2181,h3:2181 -p 8984 -force

初始化 solr 中的索引数据

${SOLR}/bin/solr create -c vertex_index -shards 1 -replicationFactor 1 -force 
${SOLR}/bin/solr create -c edge_index -shards 1 -replicationFactor 1 -force 
${SOLR}/bin/solr create -c fulltext_index -shards 1 -replicationFactor 1 -force

5、配置及启动 atlas

上传 atlas 编译好之后的安装包

sftp> put d:/apache-atlas-bin-2.0.0.tar.gz /root/

修改配置文件

vi atlas-env.sh

export JAVA_HOME=/opt/app/jdk1.8.0_191/ 
export MANAGE_LOCAL_HBASE=false (如果要使用内嵌的 zk 和 hbase,则改为 true) 
export MANAGE_LOCAL_SOLR=false (如果要是用内嵌的 solr,则改为 true) 
export HBASE_CONF_DIR=/opt/apps/hbase-2.0.6/conf

vi atlas-application.properties

# Hbase 地址配置
atlas.graph.storage.hostname=doitedu01:2181,doitedu02:2181,doitedu03:2181
(如果使用内嵌 hbase,则填写 localhost:2181# Solr 地址配置
#Solr http mode properties 
atlas.graph.index.search.solr.mode=http 
atlas.graph.index.search.solr.http-urls=http://h3:8984/solr(solr 服务地址)
# Kafka 地址配置 
atlas.notification.embedded=false (如果要使用内嵌的 kafka,则改为 true) 
atlas.kafka.zookeeper.connect=doitedu01:2181,doitedu02:2181,doitedu03:2181 
atlas.kafka.bootstrap.servers=doitedu01:9092,doitedu02:9092,doitedu03:9092

######### Server Properties ######### 
atlas.rest.address=http://doitedu01:21000

启动 atlas

[root@h3 apache-atlas-2.0.0]#
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/140168.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 黑盒 测试用例设计方法「建议收藏」

    黑盒 测试用例设计方法「建议收藏」概述黑盒测试用例设计方法包括等价类划分法、边界值分析法、错误推测法、因果图法、判定表驱动法、正交试验设计法、功能图法等。等价类划分法概念等价类划分法是把程序的输入域划分成若干部分(子集),然后从每个部分中选取少数代表性数据作为测试用例。每一类的代表性数据在测试中的作用等价于这一类中的其他值。等价类划分法的应用1.等价类是指某个输入域的子集合。在该子集合中,各个输入数据对于揭露程序中的错…

    2022年6月11日
    34
  • pycharm如何导入自定义模块_Python添加模块

    pycharm如何导入自定义模块_Python添加模块问题:明明python已经安装模块,但是在pycharm打开的项目中,导入改模块,却提示找不到改模块解决办法:需要在project中导入该模块,具体操作如下:1、点击File,选择Settings选项2、选择projectinterpreter选项,上面显示的是已安装的模块,要安装我们所需要的模块,点击右侧”+”3、搜索需要安装的模块,点击左下角的InstallPackage,等待安装,完成之后界面会提示:Package‘openpyxl’installedsuccessfully,表示

    2022年8月29日
    2
  • Hive Hsql 常用命令「建议收藏」

    Hive Hsql 常用命令「建议收藏」简介Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计。以下介绍常用的Hive的类SQL语句。创建表:hive>createtabletablename(idint,namestri…

    2022年9月22日
    0
  • PreEssentials与MFC集成使用

    PreEssentials与MFC集成使用

    2021年11月19日
    55
  • FastQC_fastech

    FastQC_fastech1、下载fastqc2、解压3、给予执行权限,否则执行的时候会显示没有权限cdFastQCchmod755fastqc4、加入到PATHexportPATH=/home/h/Fas

    2022年8月5日
    5
  • java解析json转Map

    java解析json转Map前段时间在做json报文处理的时候,写了一个针对不同格式json转map的处理工具方法,总结记录如下:1、单节点单层级、单节点多层级json转mapimportjava.util.ArrayList;importjava.util.HashMap;importjava.util.Iterator;importjava.util.List;importjava.util.Map;i

    2022年6月15日
    66

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号