which: no hbase in (/home/jdk1.8.0_144/bin:/home/hadoop-2.8.2/sbin:/home/hadoop-2.8.2/bin:/home/apache-hive-2.1.1-bin/bin:/home/sqoop-1.4.5-cdh5.3.6/bin:/home/jdk1.8.0_144/bin:/home/hadoop-2.8.2/sbin:/home/hadoop-2.8.2/bin:/home/apache-hive-2.1.1-bin/bin:/home/jdk1.8.0_144/bin:/home/hadoop-2.8.2/sbin:/home/hadoop-2.8.2/bin:/home/jdk1.8.0_144/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin) SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/home/apache-hive-2.1.1-bin/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/home/hadoop-2.8.2/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] Connecting to jdbc:hive2://localhost:10000 23/07/19 10:32:24 [main]: WARN jdbc.HiveConnection: Failed to connect to localhost:10000 Could not open connection to the HS2 server. Please check the server URI and if the URI is correct, then ask the administrator to check the server status. Error: Could not open client transport with JDBC Uri: jdbc:hive2://localhost:10000: java.net.ConnectException: Connection refused (Connection refused) (state=08S01,code=0) Beeline version 2.1.1 by Apache Hive

时间: 2023-07-28 08:08:45 浏览: 340

根据您提供的信息,您尝试连接到Hive Server2的端口10000时出现了连接失败的错误。该错误提示表明无法连接到Hive Server2,可能有几个原因:

  1. Hive Server2未运行:请确保Hive Server2已经成功启动。您可以使用以下命令检查Hive Server2的状态:

    sudo systemctl status hive-server2
    

    如果Hive Server2未运行,请使用以下命令启动它:

    sudo systemctl start hive-server2
    
  2. 端口号不正确:请确保您正在使用正确的端口号。默认情况下,Hive Server2使用端口10000进行通信,但在某些情况下,该端口可能被修改。确保您正在使用正确的端口号。

  3. 防火墙或网络问题:如果您的系统上启用了防火墙,请确保允许通过端口10000进行连接。或者,您的网络环境可能存在问题,导致无法连接到端口10000。请检查网络配置和防火墙设置,确保可以从您的系统访问到目标主机的端口10000。

请根据实际情况检查上述可能的原因,并尝试解决问题。如果问题仍然存在,请提供更多详细信息,以便我能够更好地帮助您。

相关问题

[atguigu@node11 flume]$ echo $PATH /home/hadoop/zookeeper/bin:/usr/local/flume/bin:/usr/local/hbase/bin:/home/hadoop/zookeeper/bin:/usr/local/flume/bin:/usr/local/hbase/bin:/home/hadoop/zookeeper/bin:/usr/local/flume/bin:/usr/local/hbase/bin:/usr/java/jdk1.8.0_361/bin:/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/opt/module/jdk1.8.0_361/bin:/opt/module/hadoop-3.1.3/bin:/opt/module/hadoop-3.1.3/sbin:/opt/module/sbt:/usr/local/flume/bin:/usr/local/hbase/bin:/home/atguigu/.local/bin:/home/atguigu/bin

从您提供的输出来看,您的Flume安装路径为"/usr/local/flume/bin",并且在环境变量中已经正确配置了Flume的安装路径。因此,Flume的安装路径应该是正确的。

您可以尝试在Flume的安装目录下执行"./bin/flume-ng version"命令,查看是否能够正确输出Flume的版本信息。如果还是无法输出版本信息,可能是您的Flume存在其他问题,可以查看Flume的日志文件,通常位于"logs/flume.log",查看是否有相关的错误信息。

export PATH=$PATH:/export/servers/hadoop-2.7.4/bin:/export/servers/hadoop-2.7.4/sbin:/usr/local/jdk1.8.0_202/bin还是报错

根据提供的引用内容,您提到了两个问题。第一个问题是没有找到hbase,第二个问题是在本地文件系统下执行hadoop命令时报错。针对您提供的引用内容,我无法直接回答您的问题,因为您并没有提出明确的问题。但是,我可以为您提供一些相关信息,帮助您解决问题。

首先,对于第一个问题,您需要检查您的环境变量是否正确设置。您可以使用echo $PATH命令来检查您的环境变量。如果您的环境变量中没有包含hbase的路径,那么您需要将hbase的路径添加到环境变量中。您可以使用export PATH=$PATH:/path/to/hbase/bin命令将hbase的路径添加到环境变量中。请注意,您需要将/path/to/hbase/bin替换为实际的hbase路径。

对于第二个问题,您需要确保您在hadoop系统环境中执行hadoop命令。您可以使用以下命令进入hadoop系统环境:

source /path/to/hadoop/etc/hadoop/hadoop-env.sh

请注意,您需要将/path/to/hadoop替换为实际的hadoop路径。一旦您进入了hadoop系统环境,您就可以执行hadoop命令了。

如果您已经按照上述步骤进行操作,但仍然遇到问题,请提供更多详细信息,以便我能够更好地帮助您解决问题。

向AI提问 loading 发送消息图标

相关推荐

Warning: No configuration directory set! Use --conf <dir> to override. Info: Including Hadoop libraries found via (/opt/hadoop-3.1.2/bin/hadoop) for HDFS access Info: Including HBASE libraries found via (/opt/hbase-2.2.6/bin/hbase) for HBASE access 错误: 找不到或无法加载主类 org.apache.flume.tools.GetJavaProperty Info: Including Hive libraries found via (/opt/hive-3.1.2) for Hive access + exec /opt/jdk1.8.0_351/bin/java -Xmx20m -cp '/opt/flume-1.9.0/lib/*:/opt/hadoop-3.1.2/etc/hadoop:/opt/hadoop-3.1.2/share/hadoop/common/lib/*:/opt/hadoop-3.1.2/share/hadoop/common/*:/opt/hadoop-3.1.2/share/hadoop/hdfs:/opt/hadoop-3.1.2/share/hadoop/hdfs/lib/*:/opt/hadoop-3.1.2/share/hadoop/hdfs/*:/opt/hadoop-3.1.2/share/hadoop/mapreduce/lib/*:/opt/hadoop-3.1.2/share/hadoop/mapreduce/*:/opt/hadoop-3.1.2/share/hadoop/yarn:/opt/hadoop-3.1.2/share/hadoop/yarn/lib/*:/opt/hadoop-3.1.2/share/hadoop/yarn/*:/opt/hbase-2.2.6/conf:/opt/jdk1.8.0_351//lib/tools.jar:/opt/hbase-2.2.6:/opt/hbase-2.2.6/lib/shaded-clients/hbase-shaded-client-byo-hadoop-2.2.6.jar:/opt/hbase-2.2.6/lib/client-facing-thirdparty/audience-annotations-0.5.0.jar:/opt/hbase-2.2.6/lib/client-facing-thirdparty/commons-logging-1.2.jar:/opt/hbase-2.2.6/lib/client-facing-thirdparty/findbugs-annotations-1.3.9-1.jar:/opt/hbase-2.2.6/lib/client-facing-thirdparty/htrace-core4-4.2.0-incubating.jar:/opt/hbase-2.2.6/lib/client-facing-thirdparty/log4j-1.2.17.jar:/opt/hbase-2.2.6/lib/client-facing-thirdparty/slf4j-api-1.7.25.jar:/opt/hadoop-3.1.2/etc/hadoop:/opt/hadoop-3.1.2/share/hadoop/common/lib/*:/opt/hadoop-3.1.2/share/hadoop/common/*:/opt/hadoop-3.1.2/share/hadoop/hdfs:/opt/hadoop-3.1.2/share/hadoop/hdfs/lib/*:/opt/hadoop-3.1.2/share/hadoop/hdfs/*:/opt/hadoop-3.1.2/share/hadoop/mapreduce/lib/*:/opt/hadoop-3.1.2/share/hadoop/mapreduce/*:/opt/hadoop-3.1.2/share/hadoop/yarn:/opt/hadoop-3.1.2/share/hadoop/yarn/lib/*:/opt/hadoop-3.1.2/share/hadoop/yarn/*:/opt/hadoop-3.1.2/etc/hadoop:/opt/hbase-2.2.6/conf:/opt/hive-3.1.2/lib/*' -Djava.library.path=:/opt/hadoop-3.1.2/lib/native org.apache.flume.node.Application --name a1 --conf/opt/flume-1.9.0/conf --conf-file/opt/flume-1.9.0/conf/dhfsspool.conf-Dflume.root.logger=DEBUG,consol SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/flume-1.9.0/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/hadoop-3.1.2/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/hive-3.1.2/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] 2023-06-08 17:26:46,403 ERROR node.Application: A fatal error occurred while running. Exception follows. org.apache.commons.cli.UnrecognizedOptionException: Unrecognized option: --conf/opt/flume-1.9.0/conf at org.apache.commons.cli.Parser.processOption(Parser.java:363) at org.apache.commons.cli.Parser.parse(Parser.java:199) at org.apache.commons.cli.Parser.parse(Parser.java:85) at org.apache.flume.node.Application.main(Application.java:287)

[root@master apache-hive-2.1.1-bin]# bin/hive which: no hbase in (/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/usr/java/jdk1.8.0_144/bin:/usr/zookeeper/zookeeper-3.4.10/bin:/usr/hadoop/hadoop-2.7.3/bin:/usr/hadoop/hadoop-2.7.3/sbin:/root/bin:/usr/java/jdk1.8.0_144/bin:/usr/zookeeper/zookeeper-3.4.10/bin:/usr/hadoop/hadoop-2.7.3/bin:/usr/hadoop/hadoop-2.7.3/sbin:/usr/hive/apache-hive-2.1.1-bin/bin) SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/usr/hive/apache-hive-2.1.1-bin/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/usr/hadoop/hadoop-2.7.3/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] Logging initialized using configuration in jar:file:/usr/hive/apache-hive-2.1.1-bin/lib/hive-common-2.1.1.jar!/hive-log4j2.properties Async: true Exception in thread "main" java.lang.RuntimeException: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:591) at org.apache.hadoop.hive.ql.session.SessionState.beginStart(SessionState.java:531) at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:705) at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:641) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.util.RunJar.run(RunJar.java:221) at org.apache.hadoop.util.RunJar.main(RunJar.java:136) Caused by: org.apache.hadoop.hiv

最新推荐

recommend-type

计算机发展与计算机应用概述.pdf

计算机发展与计算机应用概述.pdf
recommend-type

计算机二级公共基础知识全集合.pdf

计算机二级公共基础知识全集合.pdf
recommend-type

hiddenite-shops:Minecraft Bukkit商店交易插件

Minecraft 是一款流行的沙盒游戏,允许玩家在虚拟世界中探索、建造和生存。为了增加游戏的可玩性和互动性,开发者们创造了各种插件来扩展游戏的功能。Bukkit 是一个流行的 Minecraft 服务器端插件API,它允许开发人员创建插件来增强服务器的功能。本文将详细介绍一个基于 Bukkit API 的插件——hiddenite-shops,该插件的主要功能是在 Minecraft 游戏中的商店系统中进行商品的买卖。 首先,我们需要了解 Bukkit 是什么。Bukkit 是一款开源的 Minecraft 服务器软件,它允许开发人员利用 Java 编程语言创建插件。这些插件可以修改、增强游戏的玩法或添加新的游戏元素。Bukkit 插件通常托管在各种在线代码托管平台如 GitHub 上,供玩家和服务器运营者下载和安装。 说到 hiddenite-shops 插件,顾名思义,这是一个专注于在 Minecraft 中创建商店系统的插件。通过这个插件,玩家可以创建自己的商店,并在其中摆放出售的商品。同时,玩家也可以在别人的商店中购物。这样的插件极大地丰富了游戏内的交易模式,增加了角色扮演的元素,使游戏体验更加多元化。 在功能方面,hiddenite-shops 插件可能具备以下特点: 1. 商品买卖:玩家可以把自己不需要的物品放置到商店中出售,并且可以设定价格。其他玩家可以购买这些商品,从而促进游戏内的经济流通。 2. 商店管理:每个玩家可以创建属于自己的商店,对其商店进行管理,例如更新商品、调整价格、装饰商店界面等。 3. 货币系统:插件可能包含一个内置的货币系统,允许玩家通过虚拟货币来购买和出售商品。这种货币可能需要玩家通过游戏中的某些行为来获取,比如采矿、钓鱼或完成任务。 4. 权限控制:管理员可以对商店进行监管,设定哪些玩家可以创建商店,或者限制商店的某些功能,以维护游戏服务器的秩序。 5. 交易记录:为了防止诈骗和纠纷,hiddenite-shops 插件可能会记录所有交易的详细信息,包括买卖双方、交易时间和商品详情等。 在技术实现上,hiddenite-shops 插件需要遵循 Bukkit API 的规范,编写相应的 Java 代码来实现上述功能。这涉及到对事件监听器的编程,用于响应游戏内的各种动作和事件。插件的开发人员需要熟悉 Bukkit API、Minecraft 游戏机制以及 Java 编程语言。 在文件名称列表中,提到的 "hiddenite-shops-master" 很可能是插件代码的仓库名称,表示这是一个包含所有相关源代码、文档和资源文件的主版本。"master" 通常指代主分支,是代码的最新且稳定版本。在 GitHub 等代码托管服务上,开发者通常会在 master 分支上维护代码,并将开发中的新特性放在其他分支上,直到足够稳定后再合并到 master。 总的来说,hiddenite-shops 插件是对 Minecraft Bukkit 服务器功能的一个有力补充,它为游戏世界中的经济和角色扮演提供了新的元素,使得玩家之间的交易和互动更加丰富和真实。通过理解和掌握该插件的使用,Minecraft 服务器运营者可以为他们的社区带来更加有趣和复杂的游戏体验。
recommend-type

【SSM框架快速入门】

# 摘要 本文旨在详细介绍SSM(Spring + SpringMVC + MyBatis)框架的基础与高级应用,并通过实战案例分析深入解析其在项目开发中的实际运用。首先,文章对SSM框架进行了概述,随后逐章深入解析了核心组件和高级特性,包括Spring的依赖注入、AOP编程、SpringMVC的工作流程以及MyBatis的数据持久化。接着,文章详细阐述了SSM框架的整合开发基础,项目结构配置,以及开发环境的搭建和调试。在高级应用
recommend-type

项目环境搭建及系统使用说明用例

### Postman 示例 API 项目本地部署教程 对于希望了解如何搭建和使用示例项目的用户来说,可以从以下几个方面入手: #### 环境准备 为了成功完成项目的本地部署,需要按照以下步骤操作。首先,将目标项目 fork 至自己的 GitHub 账户下[^1]。此过程允许开发者拥有独立的代码仓库副本以便于后续修改。 接着,在本地创建一个新的虚拟环境来隔离项目所需的依赖项,并通过 `requirements.txt` 文件安装必要的库文件。具体命令如下所示: ```bash python -m venv my_env source my_env/bin/activate # Linu
recommend-type

Windows Media Encoder 64位双语言版发布

Windows Media Encoder 64位(英文和日文)的知识点涵盖了软件功能、操作界面、编码特性、支持的设备以及API和SDK等方面,以下将对这些内容进行详细解读。 1. 软件功能和应用领域: Windows Media Encoder 64位是一款面向Windows操作系统的媒体编码软件,支持64位系统架构,是Windows Media 9系列中的一部分。该软件的主要功能包括录制和转换视频文件。它能够让用户通过视频捕捉设备或直接从电脑桌面上录制视频,同时提供了丰富的文件格式转换选项。Windows Media Encoder广泛应用于网络现场直播、点播内容的提供以及视频文件的制作。 2. 用户界面和操作向导: 软件提供了一个新的用户界面和向导,旨在使初学者和专业用户都容易上手。通过简化的设置流程和直观的制作指导,用户能够快速设定和制作影片。向导会引导用户选择适当的分辨率、比特率和输出格式等关键参数。 3. 编码特性和技术: Windows Media Encoder 64位引入了新的编码技术,如去隔行(de-interlacing)、逆向电影转换(inverse telecine)和屏幕捕捉,这些技术能够显著提高视频输出的品质。软件支持从最低320x240分辨率60帧每秒(fps)到最高640x480分辨率30fps的视频捕捉。此外,它还能处理最大到30GB大小的文件,这对于长时间视频录制尤其有用。 4. 支持的捕捉设备: Windows Media Encoder 64位支持多种视频捕捉设备,包括但不限于Winnov、ATI、Hauppauge等专业视频捕捉卡,以及USB接口的视频摄像头。这为用户提供了灵活性,可以根据需要选择合适的硬件设备。 5. 高级控制选项和网络集成: Windows Media Encoder SDK是一个重要的组件,它为网站开发者提供了全面的编码控制功能。开发者可以利用它实现从网络(局域网)进行远程控制,或通过API编程接口和ASP(Active Server Pages)进行程序化的控制和管理。这使得Windows Media Encoder能够更好地融入网站和应用程序中,提供了更广阔的使用场景,例如自动化的视频处理流水线。 6. 兼容性和语言版本: 本文件提供的版本是Windows Media Encoder 64位的英文和日文版本。对于需要支持多语言用户界面的场合,这两个版本的软件能够满足不同语言用户的需求。经过测试,这些版本均能正常使用,表明了软件的兼容性和稳定性。 总结来说,Windows Media Encoder 64位(英文和日文)是一款功能强大、易于操作的媒体编码软件。它在操作便捷性、视频编码品质、设备兼容性和程序化控制等方面表现突出,适合用于视频内容的创建、管理和分发。对于需要高质量视频输出和网络集成的用户而言,无论是个人创作者还是专业视频制作团队,该软件都是一种理想的选择。
recommend-type

【IEEE 14总线系统Simulink模型:从零到专家的终极指南】:构建、仿真及故障诊断

# 摘要 本文详细介绍了IEEE 14总线系统的Simulink模型构建、仿真分析以及故障诊断技术。第一章提供了系统概述,为后续章节打下基础。第二章深入探讨了Simulink模型的构建,涵盖了用户界面、工具模块、电路元件、负荷及发电机组建模方法,以及模型的参数化和优化。第三章讲述了如何进行IEEE 14总线系统的仿真以及如
recommend-type

树莓派改中文

### 树莓派修改系统语言为中文教程 要将树莓派的操作系统界面或设置更改为中文,可以按照以下方法操作: #### 方法一:通过图形化界面更改语言 如果已经启用了树莓派的桌面环境并能够正常访问其图形化界面,则可以通过以下方式更改系统语言: 1. 打开 **Preferences(首选项)** 菜单。 2. 进入 **Raspberry Pi Configuration(树莓派配置)** -> **Localisation(本地化)**。 3. 设置 **Change Locale(更改区域设置)** 并选择 `zh_CN.UTF-8` 或其他适合的语言编码[^1]。 完成上述步骤后,重启设
recommend-type

SenseLock精锐IV C# API使用与代码示例教程

根据给定文件信息,我们可以推断出以下知识点: 标题中提到了"SenseLock 精锐IV C# 使用说明及例子",说明此文档是关于SenseLock公司出品的精锐IV产品,使用C#语言开发的API调用方法及相关示例的说明。SenseLock可能是一家专注于安全产品或服务的公司,而精锐IV是其旗下的一款产品,可能是与安全、加密或者硬件锁定相关的技术解决方案。文档可能包含了如何将该技术集成到C#开发的项目中,以及如何使用该技术的详细步骤和代码示例。 描述中提到"SenseLock API调用 测试通过 还有代码 及相关文档",说明文档中不仅有SenseLock产品的C# API调用方法,而且这些方法经过了测试验证,并且提供了相应的代码样例以及相关的技术文档。这表明用户可以通过阅读这份资料来了解如何在C#环境中使用SenseLock提供的API进行软件开发,以及如何在开发过程中解决潜在的问题。 标签为"SenseLock C# API",进一步确认了该文件的内容是关于SenseLock公司提供的C#编程语言接口。标签的作用是作为标识和分类,方便用户根据关键词快速检索到相关的文件。这里的信息提示我们,此文件对于那些希望在C#程序中集成SenseLock技术的开发者来说非常有价值。 压缩包的文件名称列表显示有两个文件:一个是"精锐IV C# 使用.docx",这个文件很可能是一个Word文档,用于提供详细的使用说明和例子,这可能包括精锐IV产品的功能介绍、API接口的详细说明、使用场景、示例代码等;另一个是"32bitdll",这可能是一个32位的动态链接库文件,该文件是C#程序中可以被调用的二进制文件,用于执行特定的API函数。 总结一下,该压缩包文件可能包含以下几个方面的知识点: 1. SenseLock精锐IV产品的概述:介绍产品的功能、特性以及可能的应用场景。 2. C# API接口使用说明:详细解释API的使用方法,包括如何调用特定的API函数,以及每个函数的参数和返回值。 3. API调用示例代码:提供在C#环境中调用SenseLock API的具体代码样例,帮助开发者快速学习和应用。 4. 测试验证信息:说明API调用方法已经通过了哪些测试,保证其可靠性和有效性。 5. 32位动态链接库文件:为C#项目提供必要的可执行代码,用于实现API调用的功能。 该文档对于希望在C#项目中集成SenseLock精锐IV产品的开发者来说,是一份非常有价值的参考资料,能够帮助他们理解如何在软件开发中利用SenseLock提供的技术,并快速实现解决方案。
recommend-type

深入理解PgSQL绿色版:揭秘其优势与五大应用案例

# 摘要 PgSQL绿色版是一种轻量级、易于部署的数据库系统,旨在提供高性能、高稳定性的数据库服务,同时保持环境兼容性和可移植性。本文首先概述了PgSQL绿色版的基本概念,随后详细阐述了其核心优势,包括高效的数据存储结构和并发处理能力、简单的安装与部署流程,以及对多种操作系统的支持。通过分析不同应用场景如Web应用、数据分析、开源项目、嵌入式设备和大数据处理的案例,本文展示了PgS
手机看
程序员都在用的中文IT技术交流社区

程序员都在用的中文IT技术交流社区

专业的中文 IT 技术社区,与千万技术人共成长

专业的中文 IT 技术社区,与千万技术人共成长

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

客服 返回
顶部