1 ElasticSearch简介
1.1 什么是ElasticSearch
Elasticsearch是一个实时的分布式搜索和分析引擎。它可以帮助你用前所未有的速度去处理大规模数据。ElasticSearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。
1.2 ElasticSearch特点
(1)可以作为一个大型分布式集群(数百台服务器)技术,处理PB级数据,服务大公司;也可以运行在单机上
(2)将全文检索、数据分析以及分布式技术,合并在了一起,才形成了独一无二的ES;
(3)开箱即用的,部署简单
(4)全文检索,同义词处理,相关度排名,复杂数据分析,海量数据的近实时处理
1.3 ElasticSearch体系结构
下表是Elasticsearch与MySQL数据库逻辑结构概念的对比
Elasticsearch | 关系型数据库Mysql |
索引(index) | 数据库(databases) |
类型(type) | 表(table) |
文档(document) | 行(row) |
2 走进ElasticSearch
2.1 ElasticSearch部署与启动
下载ElasticSearch 5.6.8版本,无需安装,解压安装包后即可使用,在命令提示符下,进入ElasticSearch安装目录下的bin目录,执行命令(如果输入elasticsearch 报没有相关命令错,配置elasticsearch的环境变量,也就是安装包的bin目录)
elasticsearch
即可启动,我们打开浏览器,在地址栏输入http://127.0.0.1:9200/ 即可看到输出结果,注意elasticsearch启用了两个端口,9200端口是给除java应用以外的REST用的,java应用所用的端口是9300端口。
{
"name" : "uV2glMR",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "RdV7UTQZT1‐Jnka9dDPsFg",
"version" : {
"number" : "5.6.8",
"build_hash" : "688ecce",
"build_date" : "2018‐02‐16T16:46:30.010Z",
"build_snapshot" : false,
"lucene_version" : "6.6.1"
},
"tagline" : "You Know, for Search"
}
2.2 Postman调用RestAPI
2.2.1 新建索引
要创建一个叫articleindex的索引 ,就以put方式提交 http://127.0.0.1:9200/articleindex/
2.2.2 新建文档
以post方式提交 http://127.0.0.1:9200/articleindex/article,将自动创建type为article的文档
//参数
{
"title":"SpringBoot2.0",
"content":"发布啦"
}
返回结果如下:
{
"_index": "articleindex",
"_type": "article",
"_id": "AWPKsdh0FdLZnId5S_F9",
"_version": 1,
"result": "created",
"_shards":
{
"total": 2,
"successful": 1,
"failed": 0
},
"created": true
}
_id是由系统自动生成的。
2.2.3 查询全部文档
查询某索引某类型的全部数据,以get方式请求 http://127.0.0.1:9200/articleindex/article/_search 返回结果如下
{
"took": 5,
"timed_out": false,
"_shards": {
"total": 5,
"successful": 5,
"skipped": 0,
"failed": 0
},
"hits": {
"total": 2,
"max_score": 1,
"hits": [
{
"_index": "articleindex",
"_type": "article",
"_id": "AWPKrI4pFdLZnId5S_F7",
"_score": 1,
"_source": {
"title": "SpringBoot2.0",
"content": "发布啦"
}
},
{
"_index": "articleindex",
"_type": "article",
"_id": "AWPKsdh0FdLZnId5S_F9",
"_score": 1,
"_source": {
"title": "elasticsearch入门",
"content": "零基础入门"
}
}
]
}
}
2.2.4 修改文档
以put形式提交以下地址:http://127.0.0.1:9200/articleindex/article/AWPKrI4pFdLZnId5S_F7(ID存在)
//参数
{
"title":"SpringBoot2.0正式版",
"content":"发布了吗"
}
返回结果:
{
"_index": "articleindex",
"_type": "article",
"_id": "AWPKsdh0FdLZnId5S_F9",
"_version": 2,
"result": "updated",
"_shards": {
"total": 2,
"successful": 1,
"failed": 0
},
"created": false
}
如果我们在地址中的ID不存在,则会创建新文档,以put形式提交地址:http://127.0.0.1:9200/articleindex/article/1
//参数
{
"title":"LOL十周年纪念",
"content":"皮肤免费领"
}
返回信息:
{
"_index": "articleindex",
"_type": "article",
"_id": "1",
"_version": 1,
"result": "created",
"_shards": {
"total": 2,
"successful": 1,
"failed":
},
"created": true
}
再次查询,看是否有新增的这条文档
2.2.5 按ID查询文档
GET方式请求 http://127.0.0.1:9200/articleindex/article/1 (ID已存在)
2.2.6 基本匹配查询
根据某列进行查询 get方式提交下列地址:
http://127.0.0.1:9200/articleindex/article/_search?q=title:"LOL十周年纪念"
{
"took": 10,
"timed_out": false,
"_shards": {
"total": 5,
"successful": 5,
"skipped": 0,
"failed": 0
},
"hits": {
"total": 1,
"max_score": 2.0649285,
"hits": [
{
"_index": "articleindex",
"_type": "article",
"_id": "1",
"_score": 2.0649285,
"_source": {
"title": "LOL十周年纪念",
"content": "皮肤免费领"
}
}
]
}
}
2.2.7 模糊查询
我们可以用*代表任意字符:
http://127.0.0.1:9200/articleindex/article/_search?q=title:“*周年*”
2.2.8 删除文档
根据ID删除文档,删除ID为1的文档 DELETE方式提交 http://127.0.0.1:9200/articleindex/article/1
返回结果如下:
{
"found": true,
"_index": "articleindex",
"_type": "article",
"_id": "1",
"_version": 2,
"result": "deleted",
"_shards": {
"total": 2,
"successful": 1,
"failed": 0
}
}
再次查看全部是否还存在此记录
3 Head插件的安装与使用
3.1 Head插件安装
如果都是通过rest请求的方式使用Elasticsearch,未免太过麻烦,而且也不够人性化。一般都会使用图形化界面来实现Elasticsearch的日常管理,最常用的就是Head插件
步骤1:下载head插件:https://github.com/mobz/elasticsearch-head
步骤2:解压到任意目录,但是要和elasticsearch的安装目录区别开。
步骤3:安装node js ,安装cnpm
npm install ‐g cnpm ‐‐registry=https://registry.npm.taobao.org
步骤4:将grunt安装为全局命令 。Grunt是基于Node.js的项目构建工具。它可以自动运行你所设定的任务
npm install ‐g grunt‐cli
步骤5:安装依赖
cnpm install
步骤6:进入head目录启动head,在命令提示符下输入命令
grunt server
如果输入grunt server 报没有相关命令错,配置head的环境变量,这是因为我们虽然已经安装了grunt,但是没有指定正确的环境变量Path(用户变量或系统变量)。
例如,在我的系统中,gurnt.cmd 在 "C:\Program Files\nodejs\node_global"
那么,你可以在 "用户变量"或"系统变量"的Path 指定路径。
关闭后,重新启动cmd运行即可。
步骤7:打开浏览器,输入 http://localhost:9100
步骤8:点击连接按钮没有任何相应,按F12发现有如下错误No 'Access-Control-Allow-Origin' header is present on the requested resource这个错误是由于elasticsearch默认不允许跨域调用,而elasticsearch-head是属于前端工程,所以报错。我们这时需要修改elasticsearch的配置,让其允许跨域访问。
修改elasticsearch配置文件:elasticsearch.yml,增加以下两句命令:
http.cors.enabled: true
http.cors.allow-origin: "*"
此步为允许elasticsearch跨越访问 点击连接即可看到相关信息
3.2 Head插件操作
3.2.1 新建索引
选择“索引”选项卡,点击“新建索引”按钮
输入索引名称点击OK,若是长时间没反应,重启一下elastcisearch,再重建索引
3.2.2 新建或修改文档
在复合查询中提交地址,输入内容,提交方式为PUT,如果ID不存在(此次3不存在),就是创建文档。
点击数据浏览 ,点击要查询的索引名称,右侧窗格中显示文档信息
我们再次回到刚才的界面
修改数据后重新提交请求 , 此时因为ID已经存在,所以执行的是修改操作,重新查询此记录,发现版本为2 。也就是说每次修改后版本都会增加1.
3.2.3 搜索文档
3.2.4 删除文档
4 IK分词器
4.1什么是IK分词器
分词:即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,这显然是不符合要求的。
http://127.0.0.1:9200/_analyze?analyzer=chinese&pretty=true&text=我是程序员,浏览器显示效果如下
{
"tokens" : [
{
"token" : "我",
"start_offset" : 0,
"end_offset" : 1,
"type" : "<IDEOGRAPHIC>",
"position" : 0
},
{
"token" : "是",
"start_offset" : 1,
"end_offset" : 2,
"type" : "<IDEOGRAPHIC>",
"position" : 1
},
{
"token" : "程",
"start_offset" : 2,
"end_offset" : 3,
"type" : "<IDEOGRAPHIC>",
"position" : 2
},
{
"token" : "序",
"start_offset" : 3,
"end_offset" : 4,
"type" : "<IDEOGRAPHIC>",
"position" : 3
},
{
"token" : "员",
"start_offset" : 4,
"end_offset" : 5,
"type" : "<IDEOGRAPHIC>",
"position" : 4
}
]
}
所以我们需要安装中文分词器来解决这个问题。IK分词是一款国人开发的相对简单的中文分词器。虽然开发者自2012年之后就不在维护了,但在工程应用中IK算是比较流行的一款!
4.2 IK分词器安装
下载地址:https://github.com/medcl/elasticsearch-analysis-ik/releases
(1)先将其解压,将解压后的elasticsearch文件夹重命名文件夹为ik
(2)将ik文件夹拷贝到elasticsearch/plugins 目录下。
(3)重新启动,即可加载IK分词器
4.3 IK分词器测试
IK提供了两个分词算法ik_smart 和 ik_max_word 其中 ik_smart 为最少切分,ik_max_word为最细粒度划分
(1)最小切分
在浏览器地址栏输入地址 http://127.0.0.1:9200/_analyze?analyzer=ik_smart&pretty=true&text=我是程序员
输出的结果为:
{
"tokens" : [
{
"token" : "我",
"start_offset" : 0,
"end_offset" : 1,
"type" : "CN_CHAR",
"position" : 0
},
{
"token" : "是",
"start_offset" : 1,
"end_offset" : 2,
"type" : "CN_CHAR",
"position" : 1
},
{
"token" : "程序员",
"start_offset" : 2,
"end_offset" : 5,
"type" : "CN_WORD",
"position" : 2
}
]
}
(2)最细切分
在浏览器地址栏输入地址http://127.0.0.1:9200/_analyze?analyzer=ik_max_word&pretty=true&text=我是程序员
输出的结果为:
{
"tokens" : [
{
"token" : "我",
"start_offset" : 0,
"end_offset" : 1,
"type" : "CN_CHAR",
"position" : 0
},
{
"token" : "是",
"start_offset" : 1,
"end_offset" : 2,
"type" : "CN_CHAR",
"position" : 1
},
{
"token" : "程序员",
"start_offset" : 2,
"end_offset" : 5,
"type" : "CN_WORD",
"position" : 2
},
{
"token" : "程序",
"start_offset" : 2,
"end_offset" : 4,
"type" : "CN_WORD",
"position" : 3
},
{
"token" : "员",
"start_offset" : 4,
"end_offset" : 5,
"type" : "CN_CHAR",
"position" : 4
}
]
}
4.4 自定义词库
我们现在测试"科蓝张欣",浏览器的测试效果如下
http://127.0.0.1:9200/_analyze?analyzer=ik_smart&pretty=true&text=科蓝张欣
{
"tokens": [
{
"token": "科",
"start_offset": 0,
"end_offset": 1,
"type": "CN_CHAR",
"position": 0
},
{
"token": "蓝",
"start_offset": 1,
"end_offset": 2,
"type": "CN_CHAR",
"position": 1
},
{
"token": "张",
"start_offset": 2,
"end_offset": 3,
"type": "CN_CHAR",
"position": 2
},
{
"token": "欣",
"start_offset": 3,
"end_offset": 4,
"type": "CN_CHAR",
"position": 3
}
]
}
默认的分词并没有识别“科蓝张欣”是一个词。如果我们想让系统识别“科蓝张欣”是一个词,需要编辑自定义词库。
步骤:
(1)进入elasticsearch/plugins/ik/config目录
(2)新建一个my.dic文件,编辑内容:科蓝张欣
(3)修改IKAnalyzer.cfg.xml(在ik/config目录下)
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!‐‐用户可以在这里配置自己的扩展字典 ‐‐>
<entry key="ext_dict">my.dic</entry>
<!‐‐用户可以在这里配置自己的扩展停止词字典‐‐>
<entry key="ext_stopwords"></entry>
</properties>
重新启动elasticsearch,通过浏览器测试分词效果
{
"tokens": [
{
"token": "科蓝张欣",
"start_offset": 0,
"end_offset": 4,
"type": "CN_WORD",
"position": 0
}
]
}
5 搜索微服务开发
5.1 模块搭建
(1)创建模块tensquare_search ,pom.xml引入依赖
<dependencies>
<dependency>
<groupId>org.springframework.data</groupId>
<artifactId>spring-data-elasticsearch</artifactId>
</dependency>
<dependency>
<groupId>com.tensquare</groupId>
<artifactId>tensquare_common</artifactId>
<version>1.0-SNAPSHOT</version>
</dependency>
</dependencies>
(2)application.yml
#配置tomcat端口
server.port: 9007
#指定应用名
spring:
application:
name: tensquare-search
#索引库配置
data:
elasticsearch:
cluster-nodes: 127.0.0.1:9300
(3)创建包com.tensquare.search ,包下创建启动类
@SpringBootApplication
public class RecruitApplication {
public static void main(String[] args) {
SpringApplication.run(RecruitApplication.class, args);
}
@Bean
public IdWorker idWorkker(){
return new IdWorker(1, 1);
}
}
5.2 添加文章(添加:测试搜索服务功能,没实际作用)
(1)创建实体类创建com.tensquare.search.pojo包,包下建立类
@Document(indexName = "tensquare_article",type = "article")
public class Article implements Serializable{
@Id
private String id;
/**
* 是否索引:是否能够搜索
* 是否分词:是否能够全部匹配,部分匹配
* ik_max_word为最细粒度划分
* 是否存储:是否能够页面显示 这些写入的属性都表示要存储
*/
@Field(index = true,analyzer = "ik_max_word",searchAnalyzer = "ik_max_word")
private String title;
@Field(index = true,analyzer = "ik_max_word",searchAnalyzer = "ik_max_word")
private String content;
//是否能够被查询的条件
private String state;
public String getId() {
return id;
}
public void setId(String id) {
this.id = id;
}
public String getTitle() {
return title;
}
public void setTitle(String title) {
this.title = title;
}
public String getContent() {
return content;
}
public void setContent(String content) {
this.content = content;
}
public String getState() {
return state;
}
public void setState(String state) {
this.state = state;
}
}
(2)创建数据访问接口
创建com.tensquare.search.dao包,包下建立接口
/**
* 文章数据访问层接口
*/
public interface ArticleSearchDao extends
ElasticsearchRepository<Article,String> {
}
(3)创建业务逻辑类
创建com.tensquare.search.service包,包下建立类
@Service
public class ArticleSearchService {
@Autowired
private ArticleSearchDao articleSearchDao;
/**
* 增加文章
* @param article
*/
public void add(Article article){
articleSearchDao.save(article);
}
}
(4)创建控制器类
创建com.tensquare.search.controller包,包下建立类
@RestController
@CrossOrigin
@RequestMapping("/article")
public class ArticleSearchController {
@Autowired
private ArticleSearchService articleSearchService;
@RequestMapping(method= RequestMethod.POST)
public Result save(@RequestBody Article article){
articleSearchService.save(article);
return new Result(true, StatusCode.OK, "操作成功");
}
}
5.3 文章搜索
(1)ArticleSearchRepository新增方法定义
/**
* 检索
* @param
* @return
*/
public Page<Article> findByTitleOrLikeContentLike(String title, String
content, Pageable pageable);
(2)ArticleSearchService新增方法
public Page<Article> findByKey(String keywords, int page, int size)
{
PageRequest pageRequest = PageRequest.of(page‐1, size);
return articleSearchRepository.findByTitleLikeOrContentLike(keywords,keywords,pageRequest);
}
(3)ArticleSearchController方法
@RequestMapping(value="/search/{keywords}/{page}/{size}",method=
RequestMethod.GET)
public Result findByKey(@PathVariable String keywords,
@PathVariable int page, @PathVariable int size){
Page<Article> articlePage =articleSearchService.findByKey(keywords,page,size);
return new Result(true, StatusCode.OK, "查询成功",
new PageResult<Article>(articlePage.getTotalElements(),articlePage.getContent()));
}
(4)测试
现在elasticsearch中有如下数据
启动springboot程序,然后浏览器输入地址
http://localhost:9007/article/search/我是程序员/1/6
结果显示
{
"code": 20000,
"flag": true,
"message": "查询成功",
"data": {
"total": 5,
"rows": [
{
"id": "12",
"title": "java程序员",
"content": "java程序员",
"state": null
},
{
"id": "19",
"title": "php程序",
"content": "我是一个工程师",
"state": null
},
{
"id": "13",
"title": "java编程",
"content": "Java程序员",
"state": null
},
{
"id": "14",
"title": "一员大将",
"content": "科蓝凯伦",
"state": null
},
{
"id": "17",
"title": "测试人员",
"content": "lily",
"state": null
}
]
}
}
结果分析:由于ik分词器的最细切分,把'我是程序员'分为几个关键字:'我','是','程序员','程序','员'。由于方法findByTitleOrLikeContentLike根据内容或标题的模糊查询,所以会出现上述五条结果。
6 elasticsearch与MySQL数据同步
6.1 Logstash
6.1.1什么是Logstash
Logstash是一款轻量级的日志搜集处理框架,可以方便的把分散的、多样化的日志搜集起来,并进行自定义的处理,然后传输到指定的位置,比如某个服务器或者文件.。
6.1.2 Logstash安装与测试解压,进入bin目录
logstash ‐e 'input { stdin { } } output { stdout {} }'
控制台输入字符,随后就有日志输出
stdin,表示输入流,指从键盘输入,stdout,表示输出流,指从显示器输出命令行参数:-e 执行--config 或 -f 配置文件,后跟参数类型可以是一个字符串的配置或全路径文件名或全路径(如:/etc/logstash.d/,logstash会自动读取/etc/logstash.d/目录下所有*.conf 的文本文件,然后在自己内存里拼接成一个完整的大配置文件再去执行)
6.2 MySQL数据导入Elasticsearch
(1)在logstash-5.6.8安装目录下创建文件夹mysqletc (名称随意)
(2)文件夹下创建mysql.conf (名称随意) ,内容如下:
input {
jdbc {
# mysql jdbc connection string to our backup databse
jdbc_connection_string => "jdbc:mysql://192.168.92.132:3306/tensquare_article?useUnicode=true&characterEncoding=UTF8"
# the user we wish to excute our statement as
jdbc_user => "root"
jdbc_password => "123456"
# the path to our downloaded jdbc driver 驱动包的路径
jdbc_driver_library => "D:/software/public/logstash-5.6.8/mysqletc/mysql-connector-java-5.1.46.jar"
# the name of the driver class for mysql 驱动类名
jdbc_driver_class => "com.mysql.jdbc.Driver"
jdbc_paging_enabled => "true"
jdbc_page_size => "50"
#以下对应着要执行的sql的绝对路径。
#statement_filepath => ""
statement => "select id,title,content from tb_article where state='0'"
#定时字段 各字段含义(由左至右)分、时、天、月、年,全部为*默认含义为每分钟都更新
schedule => "* * * * *"
}
}
output {
elasticsearch {
#ESIP地址与端口
hosts => "127.0.0.1:9200"
#ES索引名称(自己定义的)
index => "tensquare_article"
#自增ID编号
document_id => "%{id}"
document_type => "article"
}
stdout {
#以JSON格式输出
codec => json_lines
}
}
(3)将mysql驱动包mysql-connector-java-5.1.46.jar拷贝至D:/logstash-5.6.8/mysqletc/ 下 。D:/logstash-5.6.8是你的安装目录
(4)命令行下执行
logstash ‐f ../mysqletc/mysql.conf
观察控制台输出,每间隔1分钟就执行一次sql查询。
再次刷新elasticsearch-head的数据显示,看是否也更新了数据。
7 Elasticsearch Docker环境下安装
7.1 容器的创建与远程连接
(1)下载镜像
docker pull elasticsearch:5.6.8
(2)创建容器
docker run ‐di ‐‐name=tensquare_elasticsearch ‐p 9200:9200 ‐p 9300:9300 elasticsearch:5.6.8
(3)浏览器输入地址:http://192.168.184.134:9200/ 即可看到如下信息:
{
"name" : "WmBn0H‐",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "2g‐VVbm9Rty7J4sksZNJEg",
"version" : {
"number" : "5.6.8",
"build_hash" : "688ecce",
"build_date" : "2018‐02‐16T16:46:30.010Z",
"build_snapshot" : false,
"lucene_version" : "6.6.1"
},
"tagline" : "You Know, for Search"
}
(4)我们修改demo的application.yml
#配置tomcat端口
server.port: 9007
#指定应用名
spring:
application:
name: tensquare-search
#索引库配置
data:
elasticsearch:
cluster-nodes: 192.168.92.132:9300
(5)运行测试程序,发现会报如下错误
NoNodeAvailableException[None of the configured nodes are available:
[{#transport#‐1}{exvgJLR‐RlCNMJy‐hzKtnA}{192.168.92.132:9300}{192.168.92.132:9300:9300}]]
at org.elasticsearch.client.transport.TransportClientNodesService.ensureNodes
AreAvailable(TransportClientNodesService.java:347) at org.elasticsearch.client.transport.TransportClientNodesService.execute(Tra
nsportClientNodesService.java:245)at org.elasticsearch.client.transport.TransportProxyClient.execute(TransportP
roxyClient.java:59)
这是因为elasticsearch从5版本以后默认不开启远程连接,需要修改配置文件
(6)我们进入容器
docker exec ‐it tensquare_elasticsearch /bin/bash
此时,我们看到elasticsearch所在的目录为/usr/share/elasticsearch ,进入config看到了配置文件elasticsearch.yml我们通过vi命令编辑此文件,尴尬的是容器并没有vi命令 ,咋办?我们需要以文件挂载的方式创建容器才行,这样我们就可以通过修改宿主机中的某个文件来实现对容器内配置文件的修改
(7)拷贝配置文件到宿主机
首先退出容器,然后执行命令:
docker cp tensquare_elasticsearch:/usr/share/elasticsearch/config/elasticsearch.yml /usr/share/elasticsearch.yml
(8)停止和删除原来创建的容器
docker stop tensquare_elasticsearch
docker rm tensquare_elasticsearch
(9)重新执行创建容器命令
docker run ‐di ‐‐name=tensquare_elasticsearch ‐p 9200:9200 ‐p 9300:9300 ‐v /usr/share/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml elasticsearch:5.6.8
(10)修改/usr/share/elasticsearch.yml 将 transport.host: 0.0.0.0 前的#去掉后保存文件退出。其作用是允许任何ip地址访问elasticsearch .开发测试阶段可以这么做,生产环境下指定具体的IP
(11)重启启动
docker restart tensquare_elasticsearch
重启后发现重启启动失败了,这时什么原因呢?这与我们刚才修改的配置有关,因为elasticsearch在启动的时候会进行一些检查,比如最多打开的文件的个数以及虚拟内存区域数量等等,如果你放开了此配置,意味着需要打开更多的文件以及虚拟内存,所以我们还需要系统调优
(12)系统调优
我们一共需要修改两处
修改/etc/security/limits.conf ,追加内容
* soft nofile 65536
* hard nofile 65536
nofile是单个进程允许打开的最大文件个数 soft nofile 是软限制 hard nofile是硬限制,修改/etc/sysctl.conf,追加内容
vm.max_map_count=655360
限制一个进程可以拥有的VMA(虚拟内存区域)的数量,执行下面命令, 修改内核参数马上生效
sysctl ‐p
(13)重新启动虚拟机,再次启动容器,发现已经可以启动并远程访问
7.2 IK分词器安装
(1)快捷键alt+p进入sftp , 将ik文件夹上传至宿主机。
sftp> put ‐r d:\setup\ik
(2)在宿主机中将ik文件夹拷贝到容器内 /usr/share/elasticsearch/plugins 目录下。
docker cp ik tensquare_elasticsearch:/usr/share/elasticsearch/plugins/
(3)重新启动,即可加载IK分词器
docker restart tensquare_elasticsearch
7.3 HEAD插件安装
(1)修改/usr/share/elasticsearch.yml ,添加允许跨域配置
http.cors.enabled: true
http.cors.allow-origin: "*"
(2)重新启动elasticseach容器
(3)下载head镜像(此步省略)
docker pull mobz/elasticsearch‐head:5
(4)创建head容器
docker run ‐di ‐‐name=myhead ‐p 9100:9100 mobz/elasticsearch‐head:5