冲!!!!!!!!!!!!!!!!!!!!!!!!!!!1
下面不多说,我本地自己搞一个es集群和使用kibanna
本次使用的是7.6.2版本,如果觉得麻烦的话可以直接下载:
链接:https://pan.baidu.com/s/1BFsEveHMpsO3PbqRhCZijw
提取码:jk9z
下载下来之后,首先先配置es
这里我复制了三份es,并改名
es_cluster_01
es_cluster_02
es_cluster_03
接着我们打开每个es里面的config目录下的elasticsearch.yml文件
首先,我们打开es_cluster_01的elasticsearch.yml文件,修改内容如下:
http.cors.enabled: true http.cors.allow-origin: "*" # 集群名称 cluster.name: my-es # 节点名称 node.name: node-1 # 本机IP地址 network.host: 127.0.0.1 # 服务端口号 http.port: 9201 # 集群间通信端口号 transport.tcp.port: 9301 # 设置集群自动发现机器IP集合 discovery.zen.ping.unicast.hosts: ["127.0.0.1:9301","127.0.0.1:9302","127.0.0.1:9303"] cluster.initial_master_nodes: ["node-1"]
这里的cluster.initial_master_nodes三个es里面要保持统一,我这里使用的是node-1
接着,我们打开es_cluster_02的elasticsearch.yml文件,修改内容如下:
http.cors.enabled: true http.cors.allow-origin: "*" # 集群名称 cluster.name: my-es # 节点名称 node.name: node-2 # 本机IP地址 network.host: 127.0.0.1 # 服务端口号 http.port: 9202 # 集群间通信端口号 transport.tcp.port: 9302 # 设置集群自动发现机器IP集合 discovery.zen.ping.unicast.hosts: ["127.0.0.1:9301","127.0.0.1:9302","127.0.0.1:9303"] cluster.initial_master_nodes: ["node-1"]
接着,我们打开es_cluster_03的elasticsearch.yml文件,修改内容如下:
http.cors.enabled: true http.cors.allow-origin: "*" # 集群名称 cluster.name: my-es # 节点名称 node.name: node-3 # 本机IP地址 network.host: 127.0.0.1 # 服务端口号 http.port: 9203 # 集群间通信端口号 transport.tcp.port: 9303 # 设置集群自动发现机器IP集合 discovery.zen.ping.unicast.hosts: ["127.0.0.1:9301","127.0.0.1:9302","127.0.0.1:9303"] cluster.initial_master_nodes: ["node-1"]
这样,我们就把集群的配置给修改好了,当然,还有一个重要的是,每个es目录的data里面需要把东西都删了
就这个data里面的东西都删除,三个es都需要删除
当然,如果需要使用ik分词器的时候,在我上面的网盘里面下载,下载之后解压到每一个es里面的plugins目录下,进入目录之后创建文件夹为ik
然后把ik分词器解压到这里ik里面就行
这样我们就基本配置好了,就可以去分别启动es了,进行每个es的bin目录下,双击:elasticsearch.bat即可
不会闪退,说明启动成功;
访问:localhost:9201
localhost:9202
localhost:9203
当然,我们不想每次都来看这个,那我们是不是可以使用一个可视化工具来进行监督呢?
答案当然是可以的
使用kibana来进行数据的增删改查和监控es运行状态
下载我上面的kibana
打开config文件夹下的kibana.yml文件
elasticsearch.hosts: ["http://127.0.0.1:9201","http://127.0.0.1:9202","http://127.0.0.1:9203"]
添加这一行或者把下面的elasticsearch.hosts注释放开,然后把我们的集群和ip+端口写进行
接下来提供kibana就行了
kibana默认访问的端口是5601
启动之后我们访问:localhost:5601出现如下界面
说明配置成功了
点击左侧的心脏,进行集群的检测配置,选择默认的就行,配置完之后打开就是:
好了,我们点击扳手就可以对数据进行操作了,既然大伙都看了这么多了,我就分享一些常用操作:
GET _search { "query": { "match_all": {} } } PUT /es_db GET /es_db PUT /es_db/_doc/4 { "name": "admin", "sex": 1, "age": 25, "address": "广州天河公园" } GET /es_db/_doc/1 GET /es_db/_doc/_search GET /es_db/_doc/_search?_source=name,age POST /es_db/_search { "query": { "term": { "name": "admin" } } } POST /es_db/_doc/_search { "from": 0, "size": 10, "query": { "match": { "address": "广州" } } } POST /es_db/_doc/_search { "query":{ "multi_match":{ "query":"张三", "fields":["address","name"] } } } POST /es_db/_search { "query":{ "query_string":{ "query":"(广州) OR 长沙" } } } POST /es_db/_doc/_search { "query":{ "query_string":{ "query":"admin OR 长沙", "fields":["name","address"] } } } POST _analyze { "analyzer": "ik_smart", "text": "中华人民共和国" } POST _analyze { "analyzer":"ik_max_word", "text":"我爱你中国" }
可以自己试试看看,打解释有点麻烦了哈哈,自此,就搭建好了;linux搭建按道理也基本是这个流程;附送linux命令:
cd kibana-7.4.2-linux-x86_64
ps -ef|grep kibana
nohup ./bin/kibana >out.file 2>&1 &
3.重启 服务
cd ~/bin
./elasticsearch -d
喜欢的可以点个关注哦!!!!!!!
下一期使用springboot来进行es的开发!!!1