docker-compose 启动ELK

时间: 2023-09-10 21:10:44 浏览: 15
要使用 Docker Compose 启动 ELK,需要编写一个 `docker-compose.yml` 文件,文件内容如下: ``` version: '3' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.11.2 container_name: elasticsearch environment: - discovery.type=single-node ports: - 9200:9200 - 9300:9300 networks: - elk kibana: image: docker.elastic.co/kibana/kibana:7.11.2 container_name: kibana ports: - 5601:5601 environment: - ELASTICSEARCH_URL=http://elasticsearch:9200 - ELASTICSEARCH_HOSTS=http://elasticsearch:9200 depends_on: - elasticsearch networks: - elk logstash: image: docker.elastic.co/logstash/logstash:7.11.2 container_name: logstash volumes: - ./logstash/config:/usr/share/logstash/config - ./logstash/pipeline:/usr/share/logstash/pipeline environment: - ELASTICSEARCH_HOSTS=http://elasticsearch:9200 ports: - 5000:5000 - 9600:9600 depends_on: - elasticsearch networks: - elk networks: elk: driver: bridge ``` 在上述 `docker-compose.yml` 文件中,我们定义了三个服务: - `elasticsearch`:Elasticsearch 服务,使用 Elastic 官方提供的镜像,监听 9200 和 9300 端口,这是 Elasticsearch 的默认端口; - `kibana`:Kibana 服务,同样使用 Elastic 官方提供的镜像,监听 5601 端口,这是 Kibana 的默认端口; - `logstash`:Logstash 服务,使用 Elastic 官方提供的镜像,监听 5000 和 9600 端口,这是 Logstash 的默认端口。 在 `docker-compose.yml` 文件中,我们还定义了一个名为 `elk` 的网络,以供三个服务使用。同时,我们还把 `logstash` 服务的配置文件和 pipeline 配置文件挂载到了本地的 `./logstash/config` 和 `./logstash/pipeline` 目录,以便于我们自定义 Logstash 的配置。 启动 ELK,只需要在终端中进入 `docker-compose.yml` 文件所在目录,然后执行以下命令: ``` docker-compose up -d ``` 这个命令会下载所需要的镜像,然后启动三个服务,启动完成后,可以通过浏览器访问 `http://localhost:5601`,来访问 Kibana 界面。

相关推荐

当然,下面是使用docker-compose安装ELK的简要教程: 1. 首先,确保你已经安装了Docker和docker-compose工具。 2. 创建一个新的目录,用于存放ELK的配置文件和数据。例如,可以在命令行中运行以下命令创建一个名为elk的文件夹: mkdir elk cd elk 3. 在elk目录中创建一个名为docker-compose.yml的文件,并使用文本编辑器打开它。 4. 将以下内容复制并粘贴到docker-compose.yml文件中: yaml version: '3.7' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.14.0 container_name: elasticsearch environment: - discovery.type=single-node ports: - 9200:9200 logstash: image: docker.elastic.co/logstash/logstash:7.14.0 container_name: logstash volumes: - ./logstash/config:/usr/share/logstash/pipeline ports: - 5000:5000 kibana: image: docker.elastic.co/kibana/kibana:7.14.0 container_name: kibana ports: - 5601:5601 这个docker-compose.yml文件定义了三个服务:Elasticsearch、Logstash和Kibana。其中,Elasticsearch提供数据存储和搜索功能,Logstash用于数据处理和传输,Kibana提供了一个可视化的控制台。 5. 保存并关闭docker-compose.yml文件。 6. 在elk目录中创建一个名为logstash的文件夹,并在该文件夹中创建一个名为config的文件夹。 7. 进入config文件夹,并创建一个名为logstash.conf的文件,并使用文本编辑器打开它。 8. 将以下内容复制并粘贴到logstash.conf文件中: input { tcp { port => 5000 codec => json_lines } } output { elasticsearch { hosts => "elasticsearch:9200" index => "logs-%{+YYYY.MM.dd}" } } 这个logstash.conf文件定义了一个TCP输入插件,监听端口5000,并将数据发送到Elasticsearch。 9. 保存并关闭logstash.conf文件。 10. 返回elk目录,并在命令行中运行以下命令启动ELK堆栈: docker-compose up -d 这将下载并启动Elasticsearch、Logstash和Kibana的Docker镜像。 11. 等待一段时间,直到所有容器成功启动。你可以使用以下命令检查容器的状态: docker-compose ps 12. 现在,你可以通过浏览器访问Kibana的Web界面。打开http://localhost:5601/,你将看到Kibana的欢迎页面。 这样,你就成功地使用docker-compose安装了ELK堆栈。你可以通过配置Logstash来接收和处理日志数据,然后使用Kibana进行可视化和查询。请注意,这只是一个简单的示例,你可以根据自己的需求进行配置和调整。
要使用Docker Compose安装ELK(Elasticsearch, Logstash, Kibana),您可以按照以下步骤进行操作: 1. 首先,确保您已经安装了Docker和Docker Compose。如果尚未安装,请根据您的操作系统进行安装。 2. 创建一个新的目录,用于存储ELK配置文件。在此目录中创建一个名为docker-compose.yml的文件。 3. 打开docker-compose.yml文件,并添加以下内容: yaml version: '3' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.14.0 ports: - 9200:9200 volumes: - esdata:/usr/share/elasticsearch/data environment: - discovery.type=single-node logstash: image: docker.elastic.co/logstash/logstash:7.14.0 volumes: - ./logstash.conf:/usr/share/logstash/pipeline/logstash.conf depends_on: - elasticsearch kibana: image: docker.elastic.co/kibana/kibana:7.14.0 ports: - 5601:5601 depends_on: - elasticsearch volumes: esdata: 4. 在同一目录中创建一个名为logstash.conf的文件,并添加Logstash的配置。以下是一个简单的示例配置,您可以根据需要进行修改: input { file { path => "/path/to/your/logs/*.log" } } output { elasticsearch { hosts => ["elasticsearch:9200"] index => "logs-%{+YYYY.MM.dd}" } } 5. 保存文件并关闭编辑器。 6. 在终端中,导航到存储ELK配置文件的目录,并运行以下命令启动ELK容器: docker-compose up -d 7. Docker Compose将下载并启动Elasticsearch、Logstash和Kibana容器。您可以使用浏览器访问http://localhost:5601来访问Kibana的Web界面。 现在您已经成功地使用Docker Compose安装了ELK。
Docker-compose 部署 ELK(Elasticsearch、Logstash、Kibana)的步骤如下: 1. 创建一个目录,例如 elk,用于存放 docker-compose.yml 文件和其他配置文件。 2. 在 elk 目录下创建一个 docker-compose.yml 文件,内容如下: version: '3' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.10.2 container_name: elasticsearch environment: - discovery.type=single-node ports: - "920:920" - "930:930" volumes: - ./elasticsearch/data:/usr/share/elasticsearch/data networks: - elk logstash: image: docker.elastic.co/logstash/logstash:7.10.2 container_name: logstash volumes: - ./logstash/config:/usr/share/logstash/pipeline/ environment: - ELASTICSEARCH_HOSTS=http://elasticsearch:920 ports: - "500:500" - "960:960" networks: - elk kibana: image: docker.elastic.co/kibana/kibana:7.10.2 container_name: kibana environment: - ELASTICSEARCH_HOSTS=http://elasticsearch:920 ports: - "5601:5601" networks: - elk networks: elk: driver: bridge 3. 在 elk 目录下创建一个 elasticsearch 目录,用于存放 Elasticsearch 的数据。 4. 在 elk 目录下创建一个 logstash 目录,用于存放 Logstash 的配置文件。 5. 在 logstash 目录下创建一个 logstash.conf 文件,用于配置 Logstash 的输入、过滤和输出,例如: input { tcp { port => 500 codec => json } } filter { # 过滤器配置 } output { elasticsearch { hosts => ["http://elasticsearch:920"] index => "logstash-%{+YYYY.MM.dd}" } } 6. 在 elk 目录下运行以下命令启动 ELK: docker-compose up -d 7. 访问 http://localhost:5601 即可打开 Kibana 界面,开始使用 ELK。 注意:在生产环境中,应该根据实际需求对 ELK 进行配置和优化,例如设置 Elasticsearch 的内存和磁盘限制、配置 Logstash 的过滤器和输出、使用安全证书等。
回答: Docker-Compose是一个用于定义和运行多个Docker容器的工具。在使用Docker-Compose部署ELK(Elasticsearch, Logstash, Kibana)时,可以使用docker-compose.yml文件来定义容器的配置和依赖关系。\[1\] 根据引用\[2\]和引用\[3\]的内容,可以看出在部署ELK时,需要创建一个docker-compose.yml文件,并在其中指定输入日志的端口、配置logstash.conf文件等。具体的步骤如下: 1. 创建一个目录,比如/opt/docker_elk,用于存放相关文件。 2. 在/opt/docker_elk目录下创建docker-compose.yml文件,并在其中配置ELK组件的相关参数。 3. 创建logstash配置文件,一般存放在/opt/docker_elk/logstash目录下,并在logstash.conf文件中配置输入和输出的设置。 4. 启动docker-compose,可以使用命令sudo docker-compose up来启动ELK容器。 至于具体的ELK版本,根据提供的信息中没有明确指定,所以无法确定是部署elk8.*版本。如果有具体的版本要求,请提供更多的信息,以便给出更准确的回答。 #### 引用[.reference_title] - *1* [Docker - docker-compose安装ELK](https://blog.csdn.net/xuezhiwu001/article/details/124896803)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Docker-Compose部署ELK](https://blog.csdn.net/weixin_44359151/article/details/129341044)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
好的,以下是使用 Docker Compose 部署 ELK7.4.2 的步骤: 1. 首先,创建一个名为 docker-compose.yml 的文件,并在其中添加以下内容: version: '3.2' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.4.2 container_name: elasticsearch environment: - node.name=elasticsearch - discovery.type=single-node - bootstrap.memory_lock=true - "ES_JAVA_OPTS=-Xms512m -Xmx512m" ulimits: memlock: soft: -1 hard: -1 ports: - 9200:9200 volumes: - esdata:/usr/share/elasticsearch/data networks: - elk logstash: image: docker.elastic.co/logstash/logstash:7.4.2 container_name: logstash volumes: - ./logstash.conf:/usr/share/logstash/pipeline/logstash.conf ports: - 5000:5000 - 9600:9600 networks: - elk kibana: image: docker.elastic.co/kibana/kibana:7.4.2 container_name: kibana ports: - 5601:5601 networks: - elk volumes: esdata: networks: elk: 这里我们使用了三个服务:Elasticsearch、Logstash 和 Kibana。其中 Elasticsearch 用于存储和索引日志数据,Logstash 用于处理日志数据,Kibana 用于可视化和查询日志数据。 2. 创建一个名为 logstash.conf 的文件,并在其中添加以下内容: input { tcp { port => 5000 codec => json } } output { elasticsearch { hosts => ["elasticsearch:9200"] index => "logs-%{+YYYY.MM.dd}" } } 这里我们使用了 TCP 输入插件来监听 5000 端口的日志数据,并将其发送到 Elasticsearch 中。 3. 运行以下命令启动 ELK: docker-compose up -d 4. 等待一段时间后,访问 http://localhost:5601 即可进入 Kibana 的管理界面。 至此,你已经成功部署了 ELK7.4.2。注意,这只是一个简单的示例,实际上你可能需要根据自己的需求进行更加详细的配置。
根据提供的引用内容,可以看出以下是关于Docker Compose配置ELK(Elasticsearch、Logstash和Kibana)和Filebeat的步骤: 1. 首先,拉取所需的镜像,包括Elasticsearch、Kibana、Logstash和Filebeat。例如,使用以下命令拉取特定版本的镜像: docker pull elasticsearch:7.16.1 docker pull kibana:7.16.1 docker pull logstash:7.16.1 docker pull elastic/filebeat:7.16.1 2. 创建一个自定义网络,以便ELK容器可以相互通信。例如,使用以下命令创建一个名为"somenetwork"的网络: docker network create somenetwork 3. 配置Elasticsearch。根据提供的引用\[2\],可以在指定的目录(例如/mydata/elk/elasticsearch/conf)中创建一个配置文件(例如elasticsearch.yml),并根据需要进行配置。例如,设置集群名称、主机IP和允许跨域等。 4. 配置Kibana。根据提供的引用\[2\],可以在指定的目录(例如/mydata/elk/kibana/conf)中创建一个配置文件(例如kibana.yml),并根据需要进行配置。例如,设置服务器名称、主机IP和与Elasticsearch的连接等。 5. 配置Logstash。根据提供的引用\[3\],可以在指定的目录(例如/mydata/elk/logstash/conf)中创建一个配置文件(例如logstash.yml),并根据需要进行配置。例如,设置集群名称、主机IP和允许跨域等。 6. 配置Filebeat。根据提供的引用\[1\],可以在指定的目录(例如/mydata/elk/filebeat/conf)中创建一个配置文件(例如filebeat.yml),并根据需要进行配置。例如,设置Elasticsearch的主机IP和端口等。 请注意,以上步骤仅提供了基本的配置示例,实际配置可能因环境和需求而有所不同。您可以根据自己的需求进行相应的配置。 #### 引用[.reference_title] - *1* *2* *3* [docker-compose配置elk + filebeat(版本:7.16.1)](https://blog.csdn.net/paidaxinga_/article/details/122218054)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
以下是将 ELK7.4.2 部署在 Docker Compose 中,并汉化 Kibana 的详细步骤: 1. 创建一个名为 docker-elk 的文件夹,并在该文件夹中创建一个 docker-compose.yml 文件。 2. 在 docker-compose.yml 文件中添加以下内容: version: '3' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.4.2 container_name: elasticsearch environment: - discovery.type=single-node ports: - 9200:9200 - 9300:9300 volumes: - ./elasticsearch/data:/usr/share/elasticsearch/data networks: - elk logstash: image: docker.elastic.co/logstash/logstash:7.4.2 container_name: logstash volumes: - ./logstash/config:/usr/share/logstash/pipeline/ ports: - 5000:5000 - 9600:9600 networks: - elk kibana: image: docker.elastic.co/kibana/kibana:7.4.2 container_name: kibana environment: - ELASTICSEARCH_URL=http://elasticsearch:9200 ports: - 5601:5601 volumes: - ./kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml networks: - elk networks: elk: 3. 在 docker-elk 文件夹中创建一个名为 kibana 的文件夹,并在该文件夹中创建一个 config 文件夹。 4. 在 config 文件夹中创建一个 kibana.yml 文件,并将以下内容添加到该文件中: server.name: kibana server.host: "0.0.0.0" i18n.locale: "zh-CN" 其中,i18n.locale 的值可以设置为任何支持的语言。 5. 在 docker-elk 文件夹中创建一个名为 elasticsearch 的文件夹,并在该文件夹中创建一个 data 文件夹。 6. 在 docker-elk 文件夹中创建一个名为 logstash 的文件夹,并在该文件夹中创建一个 config 文件夹。 7. 在 config 文件夹中创建一个名为 logstash.conf 的文件,并将以下内容添加到该文件中: input { tcp { port => 5000 } } output { elasticsearch { hosts => "elasticsearch:9200" index => "logstash-%{+YYYY.MM.dd}" } } 8. 在 docker-elk 文件夹中打开终端,并运行以下命令: docker-compose up -d 该命令将下载并启动 ELK 服务。 9. 打开浏览器,访问 http://localhost:5601,即可进入 Kibana 界面。 10. 在 Kibana 界面中,选择 Management,然后选择 Stack Management,最后选择 Kibana Settings。 11. 在 Kibana Settings 中,将 i18n.locale 的值设置为 zh-CN,然后点击 Save 按钮。 12. 刷新浏览器页面,即可看到已经汉化的 Kibana 界面。 以上就是使用 Docker Compose 部署 ELK7.4.2 并汉化 Kibana 的详细步骤。
通过docker-compose安装logstash的步骤如下: 1. 首先,需要编写一个docker-compose.yaml文件,指定logstash的版本、资源限制、挂载路径、端口等配置信息。示例文件如下: version: '3' services: logstash: restart: always image: logstash:6.7.0 deploy: replicas: 1 update_config: parallelism: 2 delay: 10s restart_policy: condition: on-failure delay: 5s max_attempts: 3 window: 120s resources: limits: cpus: '0.5' memory: 1024M reservations: cpus: '1' memory: 2408M volumes: - /opt/data/logstash/:/opt/data/logstash/ ports: - "9600:9600" - "5044:5044" container_name: "logstash" networks: - back-up networks: back-up: driver: bridge 2. 然后,使用docker-compose命令构建logstash容器: docker-compose -f docker-compose.yaml up -d 3. 最后,通过以下命令进入logstash容器进行操作: docker exec -it logstash /bin/bash 这样就可以通过docker-compose安装logstash了。123 #### 引用[.reference_title] - *1* [docker-compose搭建 es/kibana/logstash elk](https://blog.csdn.net/chugu5948/article/details/100614342)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [docker-compose docker 一次性安装打包 各个中间件 mysql zookeeper kafka redis](https://download.csdn.net/download/huangyanhua616/85592973)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [docker部署logstash](https://blog.csdn.net/u013214151/article/details/105682052)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
你可以使用以下步骤使用Docker Compose安装ELK(Elasticsearch, Logstash和Kibana)并使用阿里云镜像: 1. 首先,在你的项目目录下创建一个名为 docker-compose.yml 的文件。 2. 打开 docker-compose.yml 文件并添加以下内容: yaml version: '3.7' services: elasticsearch: image: registry.cn-hangzhou.aliyuncs.com/elasticsearch/elasticsearch:7.13.2 container_name: elasticsearch environment: - discovery.type=single-node ports: - 9200:9200 volumes: - esdata:/usr/share/elasticsearch/data logstash: image: registry.cn-hangzhou.aliyuncs.com/logstash/logstash:7.13.2 container_name: logstash ports: - 5000:5000 volumes: - ./logstash/config:/usr/share/logstash/pipeline depends_on: - elasticsearch kibana: image: registry.cn-hangzhou.aliyuncs.com/kibana/kibana:7.13.2 container_name: kibana ports: - 5601:5601 depends_on: - elasticsearch volumes: esdata: 3. 创建一个名为 logstash 的目录,用于存放 Logstash 的配置文件。在 logstash 目录中创建一个名为 config 的子目录。 4. 在 config 目录中创建一个名为 logstash.conf 的文件,并将以下内容添加到文件中: conf input { tcp { port => 5000 codec => json_lines } } output { elasticsearch { hosts => "elasticsearch:9200" index => "logs-%{+YYYY.MM.dd}" } } 这个配置将监听端口5000上的TCP输入,并将收到的日志数据传输到Elasticsearch。 5. 确保你已经安装了Docker和Docker Compose,并在命令行中导航到包含 docker-compose.yml 文件的目录。 6. 运行以下命令启动ELK堆栈: bash docker-compose up -d 7. 等待一段时间,直到所有容器启动并完成初始化。 现在,你可以通过访问 http://localhost:5601 来访问Kibana界面,http://localhost:9200 来访问Elasticsearch。 请注意,上述示例使用了7.13.2版本的ELK镜像。你可以根据需要更改版本号。此外,你还可以根据你的需求自定义配置和参数。 希望这对你有帮助!如果有任何问题,请随时问我。
你可以使用Docker Compose配置MySQL集群。首先,你需要创建一个Docker网络,比如mysqlms_myweb,可以使用以下命令来创建网络: docker network create mysqlms_myweb 然后,你可以使用docker-compose.yml文件来定义MySQL集群的配置。在文件中,你可以指定每个MySQL实例的容器,并在它们之间设置适当的连接和环境变量。这样,当你启动Docker Compose时,它将自动创建和连接这些容器。 下面是一个示例docker-compose.yml文件的配置,将创建一个包含两个MySQL实例的集群: version: '3' services: mysql1: image: mysql restart: always environment: MYSQL_ROOT_PASSWORD: password networks: - mysqlms_myweb mysql2: image: mysql restart: always environment: MYSQL_ROOT_PASSWORD: password networks: - mysqlms_myweb networks: mysqlms_myweb: external: name: mysqlms_myweb 在这个配置中,我们定义了两个MySQL实例:mysql1和mysql2。每个实例都使用了mysql镜像,并设置了root用户的密码。 同时,我们还定义了一个外部网络mysqlms_myweb,并将这两个MySQL实例连接到了这个网络上,以便它们可以相互通信。 为了启动MySQL集群,你可以使用以下命令运行Docker Compose: docker-compose up -d 通过这个配置,你将创建一个包含两个MySQL实例的集群,可以通过mysql1和mysql2来访问它们。 请注意,这只是一个示例配置,你可以根据你的需求进行修改和扩展。同时,你还可以在docker-compose.yml文件中添加其他服务,并与MySQL集群进行连接和通信。 引用提供了关于使用Docker Compose建立ELK集群的实现方法的详细说明,你可以参考其中的示例代码和配置进行学习和实践。123 #### 引用[.reference_title] - *1* [docker-compose部署mysql主从复制集群](https://blog.csdn.net/qq_29012499/article/details/128489129)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [Docker-compose 建立ELK集群的实现方法](https://download.csdn.net/download/weixin_38589314/12899018)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [python开发Youtube官方调用接口,支持一键部署!!!](https://download.csdn.net/download/L_huiger/88221247)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
以下是在已经部署了Elasticsearch服务,端口为9200的情况下,使用docker-compose部署ELK7.4.2详细版并进行Kibana汉化的步骤: 1. 创建一个新的文件夹,命名为elk,用于存放docker-compose.yml文件和相关配置文件。 2. 在elk文件夹中创建一个新的文件,命名为docker-compose.yml,内容如下: yml version: '3' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.4.2 container_name: elasticsearch environment: - discovery.type=single-node ports: - 9200:9200 - 9300:9300 volumes: - esdata:/usr/share/elasticsearch/data networks: - elk kibana: image: docker.elastic.co/kibana/kibana:7.4.2 container_name: kibana environment: ELASTICSEARCH_URL: http://elasticsearch:9200 ELASTICSEARCH_HOSTS: http://elasticsearch:9200 ports: - 5601:5601 networks: - elk volumes: esdata: driver: local networks: elk: driver: bridge 3. 在elk文件夹中创建一个新的文件夹,命名为kibana,用于存放Kibana的配置文件。 4. 进入kibana文件夹,创建一个新的文件,命名为kibana.yml,内容如下: yml server.name: kibana server.host: "0.0.0.0" elasticsearch.hosts: ["http://elasticsearch:9200"] i18n.locale: "zh-CN" 其中,i18n.locale配置项用于将Kibana界面汉化。 5. 回到elk文件夹,运行docker-compose命令启动ELK容器: docker-compose up -d 6. 启动完成后,访问http://localhost:5601/,进入Kibana界面。如果一切正常,应该能够看到汉化后的界面。 至此,ELK7.4.2版本已经成功部署并汉化。

最新推荐

BundleDemo本地和远程

BundleDemo本地和远程

市建设规划局gis基础地理信息系统可行性研究报告.doc

市建设规划局gis基础地理信息系统可行性研究报告.doc

"REGISTOR:SSD内部非结构化数据处理平台"

REGISTOR:SSD存储裴舒怡,杨静,杨青,罗德岛大学,深圳市大普微电子有限公司。公司本文介绍了一个用于在存储器内部进行规则表达的平台REGISTOR。Registor的主要思想是在存储大型数据集的存储中加速正则表达式(regex)搜索,消除I/O瓶颈问题。在闪存SSD内部设计并增强了一个用于regex搜索的特殊硬件引擎,该引擎在从NAND闪存到主机的数据传输期间动态处理数据为了使regex搜索的速度与现代SSD的内部总线速度相匹配,在Registor硬件中设计了一种深度流水线结构,该结构由文件语义提取器、匹配候选查找器、regex匹配单元(REMU)和结果组织器组成。此外,流水线的每个阶段使得可能使用最大等位性。为了使Registor易于被高级应用程序使用,我们在Linux中开发了一组API和库,允许Registor通过有效地将单独的数据块重组为文件来处理SSD中的文件Registor的工作原

要将Preference控件设置为不可用并变灰java完整代码

以下是将Preference控件设置为不可用并变灰的Java完整代码示例: ```java Preference preference = findPreference("preference_key"); // 获取Preference对象 preference.setEnabled(false); // 设置为不可用 preference.setSelectable(false); // 设置为不可选 preference.setSummary("已禁用"); // 设置摘要信息,提示用户该选项已被禁用 preference.setIcon(R.drawable.disabled_ico

基于改进蚁群算法的离散制造车间物料配送路径优化.pptx

基于改进蚁群算法的离散制造车间物料配送路径优化.pptx

海量3D模型的自适应传输

为了获得的目的图卢兹大学博士学位发布人:图卢兹国立理工学院(图卢兹INP)学科或专业:计算机与电信提交人和支持人:M. 托马斯·福吉奥尼2019年11月29日星期五标题:海量3D模型的自适应传输博士学校:图卢兹数学、计算机科学、电信(MITT)研究单位:图卢兹计算机科学研究所(IRIT)论文主任:M. 文森特·查维拉特M.阿克塞尔·卡里尔报告员:M. GWendal Simon,大西洋IMTSIDONIE CHRISTOPHE女士,国家地理研究所评审团成员:M. MAARTEN WIJNANTS,哈塞尔大学,校长M. AXEL CARLIER,图卢兹INP,成员M. GILLES GESQUIERE,里昂第二大学,成员Géraldine Morin女士,图卢兹INP,成员M. VINCENT CHARVILLAT,图卢兹INP,成员M. Wei Tsang Ooi,新加坡国立大学,研究员基于HTTP的动态自适应3D流媒体2019年11月29日星期五,图卢兹INP授予图卢兹大学博士学位,由ThomasForgione发表并答辩Gilles Gesquière�

PostgreSQL 中图层相交的端点数

在 PostgreSQL 中,可以使用 PostGIS 扩展来进行空间数据处理。如果要计算两个图层相交的端点数,可以使用 ST_Intersection 函数来计算交集,然后使用 ST_NumPoints 函数来计算交集中的点数。 以下是一个示例查询,演示如何计算两个图层相交的端点数: ``` SELECT ST_NumPoints(ST_Intersection(layer1.geometry, layer2.geometry)) AS intersection_points FROM layer1, layer2 WHERE ST_Intersects(layer1.geometry,

漕河渡槽Ⅳ标段_工程施工土建监理资料建筑监理工作规划方案报告.doc

漕河渡槽Ⅳ标段_工程施工土建监理资料建筑监理工作规划方案报告.doc

HAL多学科开放获取档案库的作用及代理重加密和认证委托的研究

0HAL编号:tel-038172580https://theses.hal.science/tel-038172580提交日期:2022年10月17日0HAL是一个多学科开放获取档案库,用于存储和传播科学研究文档,无论其是否发表。这些文档可以来自法国或国外的教育和研究机构,也可以来自公共或私人研究中心。0HAL多学科开放获取档案库旨在存储和传播法国或国外的教育和研究机构、公共或私人实验室发表或未发表的研究文档。0代理重加密和认证委托的贡献0Anass Sbai0引用此版本:0Anass Sbai. 代理重加密和认证委托的贡献. 离散数学[cs.DM]. 皮卡第朱尔大学, 2021. 法语. �NNT:2021AMIE0032�. �tel-03817258�0博士学位论文0专业“计算机科学”0提交给科技与健康学院博士学位学校0皮卡第朱尔大学0由0Anass SBAI0获得皮卡第朱尔大学博士学位0代理重加密和认证委托的贡献0于2021年7月5日,在评审人的意见后,面向考试委员会进行

编写一个函数,将double数组转换成一个三列显示的二维数组(用grouped方法实现传入列数作为参数)

以下是一个基于Python实现的函数,可将长度为n的double数组转换为k列的二维数组,其中k为传入的列数。如果n不是k的倍数,则最后一行的元素数可能少于k列。 ```python import math def convert_to_2d(arr, k): n = len(arr) rows = math.ceil(n / k) result = [[0] * k for _ in range(rows)] for i in range(n): row = i // k col = i % k result