Python与雪花代码的完美结合:解锁数据分析新境界

发布时间: 2024-06-19 18:16:30 阅读量: 78 订阅数: 29
![Python与雪花代码的完美结合:解锁数据分析新境界](https://img-blog.csdnimg.cn/direct/d641761321a54472a36da6abc1d852cb.png) # 1. Python与雪花代码简介 Python是一种流行的高级编程语言,以其易用性、灵活性以及广泛的库而闻名。雪花代码是一个云数据仓库,提供快速、可扩展和安全的存储和处理数据的能力。 Python与雪花代码的结合为数据科学家、分析师和开发人员提供了强大的工具,用于从数据中获取见解。通过使用Python的强大数据处理和分析功能以及雪花代码的云计算能力,用户可以高效地执行复杂的数据任务。 # 2. Python与雪花代码的数据连接 ### 2.1 Python连接雪花代码 #### 2.1.1 使用Snowflake Connector for Python **安装:** ``` pip install snowflake-connector-python ``` **连接:** ```python import snowflake.connector # 创建连接对象 conn = snowflake.connector.connect( user='<your_username>', password='<your_password>', account='<your_account_name>', database='<your_database_name>', schema='<your_schema_name>', warehouse='<your_warehouse_name>' ) ``` **参数说明:** * `user`: 雪花代码用户名 * `password`: 雪花代码密码 * `account`: 雪花代码账户名称 * `database`: 要连接的数据库名称 * `schema`: 要连接的模式名称 * `warehouse`: 要使用的仓库名称 #### 2.1.2 使用SQLAlchemy连接雪花代码 **安装:** ``` pip install sqlalchemy-snowflake ``` **连接:** ```python from sqlalchemy import create_engine # 创建引擎对象 engine = create_engine( "snowflake://<your_username>:<your_password>@<your_account_name>/<your_database_name>", connect_args={ "warehouse": "<your_warehouse_name>", "schema": "<your_schema_name>" } ) ``` **参数说明:** * `user`: 雪花代码用户名 * `password`: 雪花代码密码 * `account`: 雪花代码账户名称 * `database`: 要连接的数据库名称 * `warehouse`: 要使用的仓库名称 * `schema`: 要连接的模式名称 ### 2.2 雪花代码数据类型与Python数据类型的映射 #### 2.2.1 基本数据类型 | 雪花代码数据类型 | Python数据类型 | |---|---| | TEXT | str | | INTEGER | int | | FLOAT | float | | DATE | datetime.date | | TIME | datetime.time | | TIMESTAMP | datetime.datetime | #### 2.2.2 复杂数据类型 | 雪花代码数据类型 | Python数据类型 | |---|---| | ARRAY | list | | OBJECT | dict | # 3. Python与雪花代码的数据操作 ### 3.1 数据查询和检索 #### 3.1.1 使用Python执行SQL查询 使用Python连接到雪花代码后,可以使用`cursor.execute()`方法执行SQL查询。查询结果将存储在游标对象中,可以逐行迭代或使用`fetchall()`方法一次性获取所有结果。 ```python import snowflake.connector # 创建一个连接 conn = snowflake.connector.connect( user='<username>', password='<password>', account='<account_name>', database='<database_name>', schema='<schema_name>' ) # 创建一个游标 cur = conn.cursor() # 执行一个查询 cur.execute("SELECT * FROM my_table") # 获取查询结果 results = cur.fetchall() # 遍历结果 for row in results: print(row) ``` #### 3.1.2 处理查询结果 查询结果是一个元组列表,其中每个元组代表一行。可以使用索引或属性访问元组中的列值。 ```python # 获取第一行 first_row = results[0] # 使用索引访问列值 print(first_row[0]) # 输出第一列的值 # 使用属性访问列值 print(first_row.column_name) # 输出名为"column_name"的列的值 ``` ### 3.2 数据插入、更新和删除 #### 3.2.1 使用Python插入数据 可以使用`cursor.execute()`方法执行`INSERT`语句来插入数据。`VALUES`子句可以是元组、列表或字典。 ```python # 插入一行数据 cur.execute("INSERT INTO my_table (name, age) VALUES ('John', 30)") # 插入多行数据 data = [('Jane', 25), ('Tom', 35)] cur.executemany("INSERT INTO my_table (name, age) VALUES (?, ?)", data) ``` #### 3.2.2 使用Python更新数据 可以使用`cursor.execute()`方法执行`UPDATE`语句来更新数据。`SET`子句可以是元组、列表或字典。 ```python # 更新一行数据 cur.execute("UPDATE my_table SET age = 31 WHERE name = 'John'") # 更新多行数据 data = [('Jane', 26), ('Tom', 36)] cur.executemany("UPDATE my_table SET age = ? WHERE name = ?", data) ``` #### 3.2.3 使用Python删除数据 可以使用`cursor.execute()`方法执行`DELETE`语句来删除数据。`WHERE`子句可以是元组、列表或字典。 ```python # 删除一行数据 cur.execute("DELETE FROM my_table WHERE name = 'John'") # 删除多行数据 data = [('Jane', 25), ('Tom', 35)] cur.executemany("DELETE FROM my_table WHERE name = ?", data) ``` # 4. Python与雪花代码的数据分析 ### 4.1 使用Python进行数据分析 #### 4.1.1 使用Pandas进行数据分析 Pandas是一个功能强大的Python库,用于数据操作和分析。它提供了各种工具来处理数据框和时间序列,包括数据过滤、聚合、排序和可视化。 要使用Pandas连接到雪花代码,可以使用`snowflake.connector`包中的`connect`函数。该函数接受以下参数: ```python def connect(user, password, account, database, schema, warehouse, role=None, session_parameters=None): ``` * **user:**雪花代码用户名 * **password:**雪花代码密码 * **account:**雪花代码账户名 * **database:**雪花代码数据库名 * **schema:**雪花代码模式名 * **warehouse:**雪花代码仓库名 * **role:**雪花代码角色名(可选) * **session_parameters:**雪花代码会话参数(可选) 连接成功后,可以使用Pandas的`read_sql`函数从雪花代码中读取数据: ```python import pandas as pd # 连接到雪花代码 conn = snowflake.connector.connect( user="username", password="password", account="account_name", database="database_name", schema="schema_name", warehouse="warehouse_name", ) # 从雪花代码读取数据 df = pd.read_sql("SELECT * FROM table_name", conn) ``` Pandas提供了各种方法来处理数据框,包括: * **数据过滤:**使用`query`或`filter`方法 * **数据聚合:**使用`groupby`和`agg`方法 * **数据排序:**使用`sort_values`方法 * **数据可视化:**使用`plot`方法 #### 4.1.2 使用NumPy进行数值计算 NumPy是一个Python库,用于科学计算。它提供了各种工具来处理多维数组,包括矩阵运算、线性代数和傅里叶变换。 要使用NumPy连接到雪花代码,可以使用`snowflake.connector`包中的`connect`函数。该函数接受以下参数: ```python def connect(user, password, account, database, schema, warehouse, role=None, session_parameters=None): ``` * **user:**雪花代码用户名 * **password:**雪花代码密码 * **account:**雪花代码账户名 * **database:**雪花代码数据库名 * **schema:**雪花代码模式名 * **warehouse:**雪花代码仓库名 * **role:**雪花代码角色名(可选) * **session_parameters:**雪花代码会话参数(可选) 连接成功后,可以使用NumPy的`loadtxt`函数从雪花代码中读取数据: ```python import numpy as np # 连接到雪花代码 conn = snowflake.connector.connect( user="username", password="password", account="account_name", database="database_name", schema="schema_name", warehouse="warehouse_name", ) # 从雪花代码读取数据 data = np.loadtxt("SELECT * FROM table_name", conn) ``` NumPy提供了各种方法来处理多维数组,包括: * **矩阵运算:**使用`dot`和`linalg`模块 * **线性代数:**使用`linalg`模块 * **傅里叶变换:**使用`fft`模块 ### 4.2 使用Snowflake代码的分析功能 #### 4.2.1 使用Snowflake代码的内置分析函数 雪花代码提供了一系列内置分析函数,用于执行各种数据分析任务,包括聚合、过滤和排序。这些函数可以在SQL查询中使用,也可以在Python脚本中使用。 以下是一些常用的雪花代码内置分析函数: | 函数 | 描述 | |---|---| | SUM | 计算一列中值的总和 | | AVG | 计算一列中值的平均值 | | MIN | 计算一列中值的最小值 | | MAX | 计算一列中值的最小值 | | COUNT | 计算一列中非空值的个数 | | GROUP BY | 根据一列或多列对数据进行分组 | | ORDER BY | 根据一列或多列对数据进行排序 | | FILTER | 根据条件过滤数据 | #### 4.2.2 使用Snowflake代码的自定义函数 除了内置分析函数之外,雪花代码还允许用户创建自己的自定义函数。这些函数可以用于执行更复杂的数据分析任务,例如机器学习算法或文本分析。 要创建自定义函数,可以使用以下语法: ```sql CREATE FUNCTION function_name ( argument1 data_type, argument2 data_type, ... ) RETURNS data_type AS -- 函数代码 ``` 自定义函数可以在SQL查询中或Python脚本中使用。 以下是一个使用Python脚本调用雪花代码自定义函数的示例: ```python import snowflake.connector # 连接到雪花代码 conn = snowflake.connector.connect( user="username", password="password", account="account_name", database="database_name", schema="schema_name", warehouse="warehouse_name", ) # 调用自定义函数 cursor = conn.cursor() cursor.execute("SELECT my_function(argument1, argument2) FROM table_name") results = cursor.fetchall() # 处理结果 for row in results: print(row) ``` # 5. Python与雪花代码的机器学习 ### 5.1 使用Python进行机器学习 **5.1.1 使用Scikit-learn进行机器学习** Scikit-learn是Python中一个流行的机器学习库,它提供了各种机器学习算法和工具。要使用Scikit-learn进行机器学习,可以使用以下步骤: 1. 导入Scikit-learn库: ```python import sklearn ``` 2. 加载数据: ```python data = pd.read_csv('data.csv') ``` 3. 准备数据: ```python # 处理缺失值 data = data.fillna(data.mean()) # 标准化数据 data = (data - data.mean()) / data.std() ``` 4. 划分训练集和测试集: ```python from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(data, labels, test_size=0.2) ``` 5. 选择和训练模型: ```python from sklearn.linear_model import LogisticRegression model = LogisticRegression() model.fit(X_train, y_train) ``` 6. 评估模型: ```python from sklearn.metrics import accuracy_score accuracy = accuracy_score(y_test, model.predict(X_test)) print(accuracy) ``` **5.1.2 使用TensorFlow进行机器学习** TensorFlow是Google开发的一个开源机器学习库,它提供了构建和训练复杂机器学习模型的工具。要使用TensorFlow进行机器学习,可以使用以下步骤: 1. 导入TensorFlow库: ```python import tensorflow as tf ``` 2. 加载数据: ```python data = tf.data.experimental.make_csv_dataset('data.csv') ``` 3. 准备数据: ```python data = data.batch(32) ``` 4. 构建模型: ```python model = tf.keras.models.Sequential([ tf.keras.layers.Dense(128, activation='relu'), tf.keras.layers.Dense(1, activation='sigmoid') ]) ``` 5. 训练模型: ```python model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) model.fit(data, epochs=10) ``` 6. 评估模型: ```python loss, accuracy = model.evaluate(data) print(loss, accuracy) ``` ### 5.2 使用Snowflake代码的机器学习功能 **5.2.1 使用Snowflake代码的ML服务** Snowflake代码提供了ML服务,它允许用户在Snowflake代码平台上训练和部署机器学习模型。要使用ML服务,可以使用以下步骤: 1. 创建一个ML服务: ```sql CREATE ML SERVICE my_ml_service ``` 2. 训练一个模型: ```sql TRAIN MODEL my_model ON my_data USING my_algorithm ``` 3. 部署模型: ```sql DEPLOY MODEL my_model ``` 4. 使用模型进行预测: ```sql SELECT my_model.predict(my_data) ``` **5.2.2 使用Snowflake代码的ML模型** Snowflake代码还提供了ML模型,它允许用户在Snowflake代码查询中使用预训练的机器学习模型。要使用ML模型,可以使用以下步骤: 1. 创建一个ML模型: ```sql CREATE ML MODEL my_ml_model ``` 2. 加载模型: ```sql LOAD MODEL my_ml_model FROM 'gs://my-bucket/my-model.pkl' ``` 3. 使用模型进行预测: ```sql SELECT my_ml_model.predict(my_data) ``` # 6. Python与雪花代码的应用场景 ### 6.1 数据分析和可视化 #### 6.1.1 使用Python和雪花代码构建数据仪表板 **步骤:** 1. 使用Snowflake Connector for Python连接到雪花代码。 2. 使用Pandas读取数据并创建DataFrame。 3. 使用Plotly或Dash等库创建交互式数据仪表板。 4. 将仪表板部署到Web服务器或云平台。 **示例代码:** ```python import snowflake.connector import pandas as pd import plotly.express as px # 连接到雪花代码 conn = snowflake.connector.connect( user="username", password="password", account="account", database="database", schema="schema" ) # 查询数据 query = "SELECT * FROM table_name" df = pd.read_sql(query, conn) # 创建仪表板 fig = px.bar(df, x="column_name", y="value_name") fig.show(renderer="iframe") ``` #### 6.1.2 使用Python和雪花代码进行数据可视化 **步骤:** 1. 使用Snowflake Connector for Python连接到雪花代码。 2. 使用Pandas读取数据并创建DataFrame。 3. 使用Matplotlib或Seaborn等库创建静态数据可视化。 4. 保存可视化结果为图像或PDF文件。 **示例代码:** ```python import snowflake.connector import pandas as pd import matplotlib.pyplot as plt # 连接到雪花代码 conn = snowflake.connector.connect( user="username", password="password", account="account", database="database", schema="schema" ) # 查询数据 query = "SELECT * FROM table_name" df = pd.read_sql(query, conn) # 创建可视化 plt.plot(df["column_name"], df["value_name"]) plt.xlabel("Column Name") plt.ylabel("Value Name") plt.title("Data Visualization") plt.show() ``` ### 6.2 机器学习和预测分析 #### 6.2.1 使用Python和雪花代码构建机器学习模型 **步骤:** 1. 使用Snowflake Connector for Python连接到雪花代码。 2. 使用Pandas读取数据并创建DataFrame。 3. 使用Scikit-learn或TensorFlow等库构建机器学习模型。 4. 使用雪花代码的ML服务部署模型。 **示例代码:** ```python import snowflake.connector import pandas as pd from sklearn.linear_model import LinearRegression # 连接到雪花代码 conn = snowflake.connector.connect( user="username", password="password", account="account", database="database", schema="schema" ) # 查询数据 query = "SELECT * FROM table_name" df = pd.read_sql(query, conn) # 创建模型 model = LinearRegression() model.fit(df[["feature_name"]], df["target_name"]) # 部署模型 model_name = "my_model" model_definition = model.to_json() conn.cursor().execute(f"CREATE OR REPLACE MODEL {model_name} AS {model_definition}") ``` #### 6.2.2 使用Python和雪花代码进行预测分析 **步骤:** 1. 使用Snowflake Connector for Python连接到雪花代码。 2. 使用Pandas读取数据并创建DataFrame。 3. 使用雪花代码的ML服务调用已部署的模型进行预测。 4. 分析预测结果并采取相应行动。 **示例代码:** ```python import snowflake.connector import pandas as pd # 连接到雪花代码 conn = snowflake.connector.connect( user="username", password="password", account="account", database="database", schema="schema" ) # 查询数据 query = "SELECT * FROM table_name" df = pd.read_sql(query, conn) # 调用模型 model_name = "my_model" predictions = conn.cursor().execute(f"SELECT PREDICT({model_name}, {df.to_json()})").fetchall() # 分析预测结果 for prediction in predictions: print(prediction) ```
corwn 最低0.47元/天 解锁专栏
买1年送3月
点击查看下一篇
profit 百万级 高质量VIP文章无限畅学
profit 千万级 优质资源任意下载
profit C知道 免费提问 ( 生成式Al产品 )

相关推荐

李_涛

知名公司架构师
拥有多年在大型科技公司的工作经验,曾在多个大厂担任技术主管和架构师一职。擅长设计和开发高效稳定的后端系统,熟练掌握多种后端开发语言和框架,包括Java、Python、Spring、Django等。精通关系型数据库和NoSQL数据库的设计和优化,能够有效地处理海量数据和复杂查询。
专栏简介
欢迎来到雪花代码 Python 专栏,一个专门探索雪花代码 Python 强大功能的宝库。从入门秘籍到高级技巧,我们的文章将指导您从零基础到实战应用。了解如何利用 Python API 提升数据操作,掌握最佳实践以提高代码效率,并避免常见的错误陷阱。深入了解 Python 在雪花代码数据仓库中的应用,探索数据处理和分析用例。掌握性能优化秘籍,提升查询速度和资源利用率。使用 Python 库创建交互式图表和仪表盘,实现数据可视化。扩展数据处理能力,了解 Python 与其他语言的集成。自动化数据处理和分析工作流,探索雪花代码 Python 数据管道。利用 Python 库进行预测建模和数据挖掘,深入了解机器学习。确保数据质量和合规性,了解数据治理。保护数据和应用程序免受威胁,掌握安全实践。探索高级功能和最佳实践,掌握雪花代码 Python 的精髓。了解真实世界中的应用场景,通过案例研究获得宝贵见解。评估优势和劣势,与其他云数据仓库进行比较。提升您的技能并获得行业认可,了解认证指南。解决常见问题并保持应用程序正常运行,掌握故障排除技巧。识别和解决瓶颈以提高效率,掌握性能调优秘诀。
最低0.47元/天 解锁专栏
买1年送3月
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
C知道 免费提问 ( 生成式Al产品 )

最新推荐

网络隔离与防火墙策略:防御网络威胁的终极指南

![网络隔离](https://www.cisco.com/c/dam/en/us/td/i/200001-300000/270001-280000/277001-278000/277760.tif/_jcr_content/renditions/277760.jpg) # 1. 网络隔离与防火墙策略概述 ## 网络隔离与防火墙的基本概念 网络隔离与防火墙是网络安全中的两个基本概念,它们都用于保护网络不受恶意攻击和非法入侵。网络隔离是通过物理或逻辑方式,将网络划分为几个互不干扰的部分,以防止攻击的蔓延和数据的泄露。防火墙则是设置在网络边界上的安全系统,它可以根据预定义的安全规则,对进出网络

强化学习在多智能体系统中的应用:合作与竞争的策略

![强化学习(Reinforcement Learning)](https://img-blog.csdnimg.cn/f4053b256a5b4eb4998de7ec76046a06.png) # 1. 强化学习与多智能体系统基础 在当今快速发展的信息技术行业中,强化学习与多智能体系统已经成为了研究前沿和应用热点。它们为各种复杂决策问题提供了创新的解决方案。特别是在人工智能、机器人学和游戏理论领域,这些技术被广泛应用于优化、预测和策略学习等任务。本章将为读者建立强化学习与多智能体系统的基础知识体系,为进一步探讨和实践这些技术奠定理论基础。 ## 1.1 强化学习简介 强化学习是一种通过

【云环境数据一致性】:数据标准化在云计算中的关键角色

![【云环境数据一致性】:数据标准化在云计算中的关键角色](https://www.collidu.com/media/catalog/product/img/e/9/e9250ecf3cf6015ef0961753166f1ea5240727ad87a93cd4214489f4c19f2a20/data-standardization-slide1.png) # 1. 数据一致性在云计算中的重要性 在云计算环境下,数据一致性是保障业务连续性和数据准确性的重要前提。随着企业对云服务依赖程度的加深,数据分布在不同云平台和数据中心,其一致性问题变得更加复杂。数据一致性不仅影响单个云服务的性能,更

【直流调速系统可靠性提升】:仿真评估与优化指南

![【直流调速系统可靠性提升】:仿真评估与优化指南](https://img-blog.csdnimg.cn/direct/abf8eb88733143c98137ab8363866461.png) # 1. 直流调速系统的基本概念和原理 ## 1.1 直流调速系统的组成与功能 直流调速系统是指用于控制直流电机转速的一系列装置和控制方法的总称。它主要包括直流电机、电源、控制器以及传感器等部件。系统的基本功能是根据控制需求,实现对电机运行状态的精确控制,包括启动、加速、减速以及制动。 ## 1.2 直流电机的工作原理 直流电机的工作原理依赖于电磁感应。当电流通过转子绕组时,电磁力矩驱动电机转

【迁移学习的跨学科应用】:不同领域结合的十大探索点

![【迁移学习的跨学科应用】:不同领域结合的十大探索点](https://ask.qcloudimg.com/http-save/yehe-7656687/b8dlym4aug.jpeg) # 1. 迁移学习基础与跨学科潜力 ## 1.1 迁移学习的定义和核心概念 迁移学习是一种机器学习范式,旨在将已有的知识从一个领域(源领域)迁移到另一个领域(目标任务领域)。核心在于借助源任务上获得的丰富数据和知识来促进目标任务的学习,尤其在目标任务数据稀缺时显得尤为重要。其核心概念包括源任务、目标任务、迁移策略和迁移效果评估。 ## 1.2 迁移学习与传统机器学习方法的对比 与传统机器学习方法不同,迁

深度学习在半监督学习中的集成应用:技术深度剖析

![深度学习在半监督学习中的集成应用:技术深度剖析](https://www.zkxjob.com/wp-content/uploads/2022/07/wxsync-2022-07-cc5ff394306e5e5fd696e78572ed0e2a.jpeg) # 1. 深度学习与半监督学习简介 在当代数据科学领域,深度学习和半监督学习是两个非常热门的研究方向。深度学习作为机器学习的一个子领域,通过模拟人脑神经网络对数据进行高级抽象和学习,已经成为处理复杂数据类型,如图像、文本和语音的关键技术。而半监督学习,作为一种特殊的机器学习方法,旨在通过少量标注数据与大量未标注数据的结合来提高学习模型

数据归一化的紧迫性:快速解决不平衡数据集的处理难题

![数据归一化的紧迫性:快速解决不平衡数据集的处理难题](https://knowledge.dataiku.com/latest/_images/real-time-scoring.png) # 1. 不平衡数据集的挑战与影响 在机器学习中,数据集不平衡是一个常见但复杂的问题,它对模型的性能和泛化能力构成了显著的挑战。当数据集中某一类别的样本数量远多于其他类别时,模型容易偏向于多数类,导致对少数类的识别效果不佳。这种偏差会降低模型在实际应用中的效能,尤其是在那些对准确性和公平性要求很高的领域,如医疗诊断、欺诈检测和安全监控等。 不平衡数据集不仅影响了模型的分类阈值和准确性评估,还会导致机

数据标准化:统一数据格式的重要性与实践方法

![数据清洗(Data Cleaning)](http://www.hzhkinstrument.com/ueditor/asp/upload/image/20211208/16389533067156156.jpg) # 1. 数据标准化的概念与意义 在当前信息技术快速发展的背景下,数据标准化成为了数据管理和分析的重要基石。数据标准化是指采用统一的规则和方法,将分散的数据转换成一致的格式,确保数据的一致性和准确性,从而提高数据的可比较性和可用性。数据标准化不仅是企业内部信息集成的基础,也是推动行业数据共享、实现大数据价值的关键。 数据标准化的意义在于,它能够减少数据冗余,提升数据处理效率

【高级技能】:Robust Scaler与Quantile Transformer的实战应用

![【高级技能】:Robust Scaler与Quantile Transformer的实战应用](https://scikit-learn.org/0.18/_images/sphx_glr_plot_robust_scaling_001.png) # 1. 数据预处理的重要性与挑战 数据预处理是数据科学和机器学习中不可或缺的一环,它的重要性不言而喻。原始数据往往包含许多噪声和不一致性,而预处理工作能够帮助我们清洗和转换数据,以满足后续分析和模型训练的需求。然而,在实际操作中,数据预处理也面临着诸多挑战。数据量的庞大、数据类型和质量的差异性、以及异常值和缺失值的处理等问题,都是数据科学家们

无监督学习在自然语言处理中的突破:词嵌入与语义分析的7大创新应用

![无监督学习](https://img-blog.csdnimg.cn/04ca968c14db4b61979df522ad77738f.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAWkhXX0FJ6K--6aKY57uE,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) # 1. 无监督学习与自然语言处理概论 ## 1.1 无监督学习在自然语言处理中的作用 无监督学习作为机器学习的一个分支,其核心在于从无标签数据中挖掘潜在的结构和模式
最低0.47元/天 解锁专栏
买1年送3月
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
C知道 免费提问 ( 生成式Al产品 )