ElasticSearch安装及辅件安装
前言: es的安装分为ElasticSearch安装和辅助安装工具,小编也是学习后将笔记整理分享给大家,有什么不对的地方可以在下方留言更正。
- 一、ES的安装
登录网址:www.elastic.co/ 官网里有很多的环境解压包,由windows、linux等
[appadmin@VM-0-17-centos bin]$ /opt/elasticsearch-7.4.0/bin/elasticsearch -d Exception in thread "main" java.lang.RuntimeException: starting java failed with [1] output: # # There is insufficient memory for the Java Runtime Environment to continue. # Native memory allocation (mmap) failed to map bytes for committing reserved memory. # An error report file with more information is saved as: # logs/hs_err_pid16564.log error: OpenJDK 64-Bit Server VM warning: INFO: os::commit_memory(0x00000000e0000000, , 0) failed; error='Not enough space' (errno=12) at org.elasticsearch.tools.launchers.JvmErgonomics.flagsFinal(JvmErgonomics.java:111) at org.elasticsearch.tools.launchers.JvmErgonomics.finalJvmOptions(JvmErgonomics.java:79) at org.elasticsearch.tools.launchers.JvmErgonomics.choose(JvmErgonomics.java:57) at org.elasticsearch.tools.launchers.JvmOptionsParser.main(JvmOptionsParser.java:89)
这时输入命令:free -h
开始的时候,我的Swap都是0,这是我后来设置完后的截图。
当内存不足我们可以使用Swap中的内存,虽然不是很建议,因为会有点慢的。但这也是一个办法。它的原理就是将磁盘空间的一步分内存变成内存。
修改如下:
创建swapfile:# dd if=/dev/zero of=swapfile bs=1024 count=500000 (of是空间名称,count是空间大小,bs是单位,这里是kb,你可以将bs=1024改为bs=1G,后面的count就可以该为count=2,就是创建2G大小的swap文件)
将swapfile设置为swap空间:# mkswap swapfile
启用交换空间: # swapon swapfile (删除交换空间命令 swapoff swapfile)
到这里你就可以再用free -h命令查看内存情况,就会发现Swap中的内存增加了,这样你就可以愉快的启动项目了。
- ES辅助插件的安装
辅助插件需要postman、kibana、head(了解即可)
- postman
下载网址 www.getpostman.com
- kibana安装
kibana是一个前端的项目。
Kibana安装过程中需要内存,如果报内存不足需要扩展内存。
Kibana启动也是建议不要用root权限启动,但是他支持你强制root启动,用 –allow-root命令
启动成功
访问kibana http://192.168.149.135:5601
在左边菜单栏找到 dev Tools,点击他给你写好的执行es的脚本,点击一下
- Head安装(了解)
以上ES就在linux环境下部署搭建完成了,但是ES是个搜索引擎,小编提前介绍个彩蛋,ES有个插件是IK分词器,IK分词器是专门对中文进行分词的,如”我爱中国“,传统的分词会分为:我、爱、中、国。
但是引入IK分词器后,就会分词为:我、爱、中国,这种。
说了这么多那我们开始下载IK分词器插件
- IK分词器
- 介绍
分词器(Analyzer)将一段文本,按照一定的逻辑,分析成多个词语的一种工具。
如华为手机:华为、手、手机
对中文分词如下
对英文分词如下
由上可以看到,他对中文是按字分词的很不友好,下面要介绍对中文进行的分词器,IK分词器(插件) - IK分词器下载
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。是一个基于maven构建的项目。具有60万字/秒的高速处理能力,支持用户词典扩展定义。
下载地址
- IK分词器的安装文档
安装好后,验证下是否安装成功
再启动kibana
这样IK分词器就安装完成了
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/233369.html原文链接:https://javaforall.net