用scipy.stats.pearsonr() 计算相关data_array = df_indexes.values[:]的相关系数矩阵

时间: 2024-09-30 14:14:04 浏览: 26
如果你想使用`scipy.stats.pearsonr()`函数来计算DataFrame `df_indexes`中的所有索引值(存储在`values`属性中)构成的一组数据的相关系数矩阵,你需要先将数据转换为二维数组,然后对每一对列应用`pearsonr()`。由于`df_indexes.values[:]`通常是单维度的,所以需要先将其转置为二维数组。 这里是一个简单的步骤说明: 1. 获取`df_indexes`的值并转置(如果你的数据确实是索引值,而不是实际的数据列): ```python data_array = df_indexes.values.T ``` 2. 创建一个空的二维相关系数矩阵来保存结果: ```python correlation_matrix = np.zeros((len(df_indexes), len(df_indexes))) ``` 3. 使用`pearsonr()`循环计算每个元素对之间的相关系数,并更新矩阵: ```python for i in range(len(data_array)): for j in range(i, len(data_array)): corr, _ = scipy.stats.pearsonr(data_array[i], data_array[j]) correlation_matrix[i, j] = corr # 上三角矩阵,因为是对称的 correlation_matrix[j, i] = corr # 对角线及上方填入相同的值 ``` 4. 注意,上述代码只计算了上三角部分,因为相关系数是对称的,即r(i, j) = r(j, i),不需要重复计算。 完成以上步骤后,`correlation_matrix`就是一个表示df_indexes所有列之间相关性的二维数组。
阅读全文

相关推荐

import pandas as pd import numpy as np # 计算用户对歌曲的播放比例 triplet_dataset_sub_song_merged_sum_df = triplet_dataset_sub_song_mergedpd[['user', 'listen_count']].groupby('user').sum().reset_index() triplet_dataset_sub_song_merged_sum_df.rename(columns={'listen_count': 'total_listen_count'}, inplace=True) triplet_dataset_sub_song_merged = pd.merge(triplet_dataset_sub_song_mergedpd, triplet_dataset_sub_song_merged_sum_df) triplet_dataset_sub_song_mergedpd['fractional_play_count'] = triplet_dataset_sub_song_mergedpd['listen_count'] / triplet_dataset_sub_song_merged['total_listen_count'] # 将用户和歌曲编码为数字 small_set = triplet_dataset_sub_song_mergedpd user_codes = small_set.user.drop_duplicates().reset_index() song_codes = small_set.song.drop_duplicates().reset_index() user_codes.rename(columns={'index': 'user_index'}, inplace=True) song_codes.rename(columns={'index': 'song_index'}, inplace=True) song_codes['so_index_value'] = list(song_codes.index) user_codes['us_index_value'] = list(user_codes.index) small_set = pd.merge(small_set, song_codes, how='left') small_set = pd.merge(small_set, user_codes, how='left') # 将数据转换为稀疏矩阵形式 from scipy.sparse import coo_matrix mat_candidate = small_set[['us_index_value', 'so_index_value', 'fractional_play_count']] data_array = mat_candidate.fractional_play_count.values row_array = mat_candidate.us_index_value.values col_array = mat_candidate.so_index_value.values data_sparse = coo_matrix((data_array, (row_array, col_array)), dtype=float) # 使用SVD方法进行矩阵分解并进行推荐 from scipy.sparse import csc_matrix from scipy.sparse.linalg import svds import math as mt def compute_svd(urm, K): U, s, Vt = svds(urm, K) dim = (len(s), len(s)) S = np.zeros(dim, dtype=np.float32) for i in range(0, len(s)): S[i, i] = mt.sqrt(s[i]) U = csc_matrix(U, dtype=np.float32) S = csc_matrix(S, dtype=np.float32) Vt = csc_matrix(Vt, dtype=np.float32) return U, S, Vt def compute_estimated_matrix(urm, U, S, Vt, uTest, K, test): rightTerm = S * Vt max_recommendation = 250 estimatedRatings = np.zeros(shape=(MAX_UID, MAX_PID), dtype=np.float16) recomendRatings = np.zeros(shape=(MAX_UID, max_recommendation), dtype=np.float16) for userTest in uTest: prod = U[userTest, :] * rightTerm estimatedRatings[userTest, :] = prod.todense() recomendRatings[userTest, :] = (-estimatedRatings[userTest, :]).argsort()[:max_recommendation] return recomendRatings K = 50 urm = data_sparse MAX_PID = urm.shape[1] MAX_UID = urm.shape[0] U, S, Vt = compute_svd(urm, K) uTest = [4, 5, 6, 7, 8, 73, 23] # uTest=[1b5bb32767963cbc215d27a24fef1aa01e933025] uTest_recommended_items = compute_estimated_matrix(urm, U, S, Vt 继续将这段代码输出完整

将上述代码放入了Recommenders.py文件中,作为一个自定义工具包。将下列代码中调用scipy包中svd的部分。转为使用Recommenders.py工具包中封装的svd方法。给出修改后的完整代码。import pandas as pd import math as mt import numpy as np from sklearn.model_selection import train_test_split from Recommenders import * from scipy.sparse.linalg import svds from scipy.sparse import coo_matrix from scipy.sparse import csc_matrix # Load and preprocess data triplet_dataset_sub_song_merged = triplet_dataset_sub_song_mergedpd # load dataset triplet_dataset_sub_song_merged_sum_df = triplet_dataset_sub_song_merged[['user','listen_count']].groupby('user').sum().reset_index() triplet_dataset_sub_song_merged_sum_df.rename(columns={'listen_count':'total_listen_count'},inplace=True) triplet_dataset_sub_song_merged = pd.merge(triplet_dataset_sub_song_merged,triplet_dataset_sub_song_merged_sum_df) triplet_dataset_sub_song_merged['fractional_play_count'] = triplet_dataset_sub_song_merged['listen_count']/triplet_dataset_sub_song_merged['total_listen_count'] # Convert data to sparse matrix format small_set = triplet_dataset_sub_song_merged user_codes = small_set.user.drop_duplicates().reset_index() song_codes = small_set.song.drop_duplicates().reset_index() user_codes.rename(columns={'index':'user_index'}, inplace=True) song_codes.rename(columns={'index':'song_index'}, inplace=True) song_codes['so_index_value'] = list(song_codes.index) user_codes['us_index_value'] = list(user_codes.index) small_set = pd.merge(small_set,song_codes,how='left') small_set = pd.merge(small_set,user_codes,how='left') mat_candidate = small_set[['us_index_value','so_index_value','fractional_play_count']] data_array = mat_candidate.fractional_play_count.values row_array = mat_candidate.us_index_value.values col_array = mat_candidate.so_index_value.values data_sparse = coo_matrix((data_array, (row_array, col_array)),dtype=float) # Compute SVD def compute_svd(urm, K): U, s, Vt = svds(urm, K) dim = (len(s), len(s)) S = np.zeros(dim, dtype=np.float32) for i in range(0, len(s)): S[i,i] = mt.sqrt(s[i]) U = csc_matrix(U, dtype=np.float32) S = csc_matrix(S, dtype=np.float32) Vt = csc_matrix(Vt, dtype=np.float32) return U, S, Vt def compute_estimated_matrix(urm, U, S, Vt, uTest, K, test): rightTerm = S*Vt max_recommendation = 10 estimatedRatings = np.zeros(shape=(MAX_UID, MAX_PID), dtype=np.float16) recomendRatings = np.zeros(shape=(MAX_UID,max_recommendation ), dtype=np.float16) for userTest in uTest: prod = U[userTest, :]*rightTerm estimatedRatings[userTest, :] = prod.todense() recomendRatings[userTest, :] = (-estimatedRatings[userTest, :]).argsort()[:max_recommendation] return recomendRatings K=50 # number of factors urm = data_sparse MAX_PID = urm.shape[1] MAX_UID = urm.shape[0] U, S, Vt = compute_svd(urm, K) # Compute recommendations for test users # Compute recommendations for test users uTest = [1,6,7,8,23] uTest_recommended_items = compute_estimated_matrix(urm, U, S, Vt, uTest, K, True) # Output recommended songs in a dataframe recommendations = pd.DataFrame(columns=['user','song', 'score','rank']) for user in uTest: rank = 1 for song_index in uTest_recommended_items[user, 0:10]: song = small_set.loc[small_set['so_index_value'] == song_index].iloc[0] # Get song details recommendations = recommendations.append({'user': user, 'song': song['title'], 'score': song['fractional_play_count'], 'rank': rank}, ignore_index=True) rank += 1 display(recommendations)

使用代码import numpy as np import pandas as pd from scipy.stats import pearsonr data = pd.read_csv('os2.csv') gene_pairs = pd.read_csv('os1.csv') gene_pair_names = gene_pairs['基因对名称'].values pearson_coeffs = [] for gene_pair in gene_pair_names: gene1, gene2 = gene_pair.split('_') expression1 = data[gene1].values expression2 = data[gene2].values coeff, _ = pearsonr(expression1, expression2) pearson_coeffs.append(coeff)出现了Traceback (most recent call last): File "/home/jialinlu/miniconda3[闪电]b/python3.9/site-packages/pandas/core/indexes/base.py", line 3621, in get_loc return self._engine.get_loc(casted_key) File "pandas/_libs/index.pyx", line 136, in pandas._libs.index.IndexEngine.get_loc File "pandas/_libs/index.pyx", line 163, in pandas._libs.index.IndexEngine.get_loc File "pandas/_libs/hashtable_class_helper.pxi", line 5198, in pandas._libs.hashtable.PyObjectHashTable.get_item File "pandas/_libs/hashtable_class_helper.pxi", line 5206, in pandas._libs.hashtable.PyObjectHashTable.get_item KeyError: 'Os01t0113150' The above exception was the direct cause of the following exception: Traceback (most recent call last): File "<stdin>", line 4, in <module> File "/home/jialinlu/miniconda3[闪电]b/python3.9/site-packages/pandas/core/frame.py", line 3505, in __getitem__ indexer = self.columns.get_loc(key) File "/home/jialinlu/miniconda3[闪电]b/python3.9/site-packages/pandas/core/indexes/base.py", line 3623, in get_loc raise KeyError(key) from err KeyError: 'Os01t0113150'的报错是什么原因

from scipy.sparse.linalg import eigsh, LinearOperator from scipy.sparse import isspmatrix, is_pydata_spmatrix class SVDRecommender: def init(self, k=50, ncv=None, tol=0, which='LM', v0=None, maxiter=None, return_singular_vectors=True, solver='arpack'): self.k = k self.ncv = ncv self.tol = tol self.which = which self.v0 = v0 self.maxiter = maxiter self.return_singular_vectors = return_singular_vectors self.solver = solver def svds(self, A): largest = self.which == 'LM' if not largest and self.which != 'SM': raise ValueError("which must be either 'LM' or 'SM'.") if not (isinstance(A, LinearOperator) or isspmatrix(A) or is_pydata_spmatrix(A)): A = np.asarray(A) n, m = A.shape if self.k <= 0 or self.k >= min(n, m): raise ValueError("k must be between 1 and min(A.shape), k=%d" % self.k) if isinstance(A, LinearOperator): if n > m: X_dot = A.matvec X_matmat = A.matmat XH_dot = A.rmatvec XH_mat = A.rmatmat else: X_dot = A.rmatvec X_matmat = A.rmatmat XH_dot = A.matvec XH_mat = A.matmat dtype = getattr(A, 'dtype', None) if dtype is None: dtype = A.dot(np.zeros([m, 1])).dtype else: if n > m: X_dot = X_matmat = A.dot XH_dot = XH_mat = _herm(A).dot else: XH_dot = XH_mat = A.dot X_dot = X_matmat = _herm(A).dot def matvec_XH_X(x): return XH_dot(X_dot(x)) def matmat_XH_X(x): return XH_mat(X_matmat(x)) XH_X = LinearOperator(matvec=matvec_XH_X, dtype=A.dtype, matmat=matmat_XH_X, shape=(min(A.shape), min(A.shape))) eigvals, eigvec = eigsh(XH_X, k=self.k, tol=self.tol ** 2, maxiter=self.maxiter, ncv=self.ncv, which=self.which, v0=self.v0) eigvals = np.maximum(eigvals.real, 0) t = eigvec.dtype.char.lower() factor = {'f': 1E3, 'd': 1E6} cond = factor[t] * np.finfo(t).eps cutoff = cond * np.max(eigvals) above_cutoff = (eigvals > cutoff) nlarge = above_cutoff.sum() nsmall = self.k - nlarge slarge = np.sqrt(eigvals[above_cutoff]) s = np.zeros_like(eigvals) s[:nlarge] = slarge if not self.return_singular_vectors: return np.sort(s) if n > m: vlarge = eigvec[:, above_cutoff] ularge = X_matmat(vlarge) / slarge if self.return_singular_vectors != 'vh' else None vhlarge = _herm(vlarge) else: ularge = eigvec[:, above_cutoff] vhlarge = _herm(X_matmat(ularge) / slarge) if self.return_singular_vectors != 'u' else None u = _augmented_orthonormal_cols(ularge, nsmall) if ularge is not None else None vh = _augmented_orthonormal_rows(vhlarge, nsmall) if vhlarge is not None else None indexes_sorted = np.argsort(s) s = s[indexes_sorted] if u is not None: u = u[:, indexes_sorted] if vh is not None: vh = vh[indexes_sorted] return u, s, vh def _augmented_orthonormal_cols(U, n): if U.shape[0] <= n: return U Q, R = np.linalg.qr(U) return Q[:, :n] def _augmented_orthonormal_rows(V, n): if V.shape[1] <= n: return V Q, R = np.linalg.qr(V.T) return Q[:, :n].T def _herm(x): return np.conjugate(x.T)这段代码中使用的scipy包太旧了,导致会出现报错信息为:cannot import name 'is_pydata_spmatrix' from 'scipy.sparse' (D:\Anaconda\lib\site-packages\scipy\sparse_init.py),将这段代码修改为使用最新版的scipy包

修改代码使其能够正确运行。import pandas as pd import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn.preprocessing import MinMaxScaler import cv2 import open3d as o3d from skimage import color import colour from scipy.spatial import ConvexHull def convert_data(data): res=[] data=data.tolist() for d in data: res.append(tuple(d)) # print(res) return res def load_data_and_plot_scatter(path1="1号屏srgb+rgb16预热10分钟切换0.5s.csv"): df1 = pd.read_csv(path1)[["X", "Y", "Z", "R", "G", "B"]] X1 = df1["X"].values Y1 = df1["Y"].values Z1 = df1["Z"].values df1_c = df1[["R", "G", "B"]].values / 255.0 XYZT = np.array([X1,Y1,Z1]) XYZ = np.transpose(XYZT) ABL = colour.XYZ_to_Lab(XYZ) LABT = np.array([ABL[:,1], ABL[:,2], ABL[:,0]]) LAB = np.transpose(LABT) # 将 numpy 数组转换为 open3d 中的 PointCloud 类型 pcd = o3d.geometry.PointCloud() pcd.points = o3d.utility.Vector3dVector(LAB) # 估计点云法向量 pcd.estimate_normals() # 计算点云的凸包表面 mesh = o3d.geometry.TriangleMesh.create_from_point_cloud_alpha_shape(pcd, alpha=0.1) mesh.compute_vertex_normals() # 获取凸包表面上的点的坐标 surface_points = np.asarray(mesh.vertices) # 显示点云的凸包表面 o3d.visualization.draw_geometries([mesh]) # 创建一个 3D 坐标 fig = plt.figure() # ax = Axes3D(fig) ax = plt.axes(projection='3d') ax.scatter(LAB[:,0], LAB[:,1], LAB[:,2], c=df1_c) # # 设置坐标轴标签 ax.set_xlabel('a* Label') ax.set_ylabel('b* Label') ax.set_zlabel('L Label') # 显示图形 plt.show() if __name__ == "__main__": load_data_and_plot_scatter()

最新推荐

recommend-type

python统计函数库scipy.stats的用法解析

本篇文章将详细讲解如何利用`scipy.stats`库进行正态分布的操作,包括生成随机数、计算概率密度函数、获取累计分布函数值以及使用累积分布函数的逆。 1. **生成服从指定分布的随机数** 使用`scipy.stats.norm.rvs`...
recommend-type

Matlab界面面板版车牌识别系统设计实现[Matlab界面面板版].zip

zip
recommend-type

SLAM-基于深度特征的实时SLAM算法实现-效果好于ORB-优质项目实战.zip

SLAM_基于深度特征的实时SLAM算法实现_效果好于ORB_优质项目实战
recommend-type

明日知道社区问答系统设计与实现-SSM框架java源码分享

资源摘要信息:"基于java SSM框架实现明日知道社区问答系统项目设计源码和文档分享" 知识点详细说明: 1. Java SSM框架 SSM指的是Spring、SpringMVC和MyBatis三个框架的集合,它们都是Java社区中流行的开源框架。SSM框架组合常用于Web项目的开发,每个框架都有其特定的作用: - Spring是一个全面的企业级Java应用开发框架,提供了解决企业应用开发的复杂性所需的基础设施支持。 - SpringMVC是Spring的一个模块,它是一个基于Java实现的请求驱动类型的轻量级Web框架,将Web层进行职责解耦。 - MyBatis是一个优秀的持久层框架,它支持定制化SQL、存储过程以及高级映射。 2. 社区问答系统设计 社区问答系统是一种常见的Web应用程序,主要功能包括用户注册、登录、发帖、回复、查询等。明日知道社区问答系统的设计特点包括: - 界面友好:提供易于使用的用户界面,方便用户进行操作。 - 人机对话方式:系统通过友好的交互界面引导用户进行操作,使用户能够轻松地完成各种任务。 - 操作简单:系统流程清晰,用户操作步骤简单明了。 - 信息查询灵活快捷:提供高效的搜索功能,帮助用户快速找到所需信息。 - 数据存储安全:系统采取措施保证用户数据的安全性和隐私性。 - 用户管理功能:包括用户登录与注册,用户身份验证和权限控制等。 - 数据检查:系统对用户提交的数据进行严格检查,减少人为错误。 - 模糊查询功能:允许用户通过模糊条件搜索相关文章或问题。 - 系统运行稳定安全:确保系统具备高性能和安全机制,避免数据丢失或泄漏。 3. Web开发概念 Web开发是指在Internet或Intranet上创建、维护和部署网页的过程。它涉及的技术范围广泛,包括客户端脚本编写(如JavaScript)、服务器端编程(如Java、PHP等)、数据库管理(如MySQL、Oracle等)、网络编程等。 - Internet和Intranet:Internet是全球广域网,Intranet是企业内部网络。 - 静态Web资源:指那些内容不变的网页,用户只能浏览而不能交互。 - 动态Web资源:可以与用户进行交互的网页,能够根据用户请求动态生成内容。 4. 操作注意事项 本系统提供了后台管理功能,其中的管理细节对于保障系统的安全性和正常运行至关重要。关于操作注意事项,应重点关注以下几点: - 后台用户名和密码:提供默认的后台登录凭证,用户需要使用这些凭证登录后台管理系统。 - 操作流程:系统为用户提供了一个基本的操作流程,帮助用户理解如何使用社区问答系统。 - 发表文章与评论功能:用户需要通过注册并登录系统后才能在社区中发表文章或为文章添加评论。 5. 文件名称列表 文件名称“明日知道”可能意味着整个项目的名字或者主文件夹的名字。一个完整的项目通常包括多个子模块和文件,例如源代码文件、配置文件、数据库文件、文档说明等。在本项目中,应该包含如下内容: - java源码文件:实现系统功能的Java代码。 - 前端页面文件:如HTML、CSS和JavaScript文件,负责展现用户界面。 - 配置文件:如Spring和MyBatis的配置文件,用于系统配置。 - 数据库文件:如数据库脚本或数据表,存储用户数据和内容数据。 - 文档说明:如项目需求文档、设计文档、用户手册等,提供项目信息和操作指南。 通过以上内容,可以看出明日知道社区问答系统是一个典型的Web应用项目,它依托于Java SSM框架开发,涵盖了Web开发的方方面面,并通过提供源码和文档帮助其他开发者更好地理解和使用这个系统。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

C#单元测试实战:在Visual Studio中打造强大测试框架

![技术专有名词:Visual Studio](https://learn.microsoft.com/ja-jp/visualstudio/debugger/media/dbg_temporary-breakpoint.png?view=vs-2022) # 1. C#单元测试概念与重要性 单元测试是软件开发过程中不可或缺的一环,它保证了代码的质量与稳定性。在C#开发中,单元测试通过验证最小的代码单元—通常是方法或类—来确保它们按照预期工作。编写良好的单元测试可以及早发现并修复缺陷,从而提高整体代码质量,减少后期维护成本。此外,单元测试也是敏捷开发和持续集成(CI)实践中的基石,能够确保新
recommend-type

现需完成模拟超市收银操作,输入购买的某件商品的单价和数量,输出应付的款项和相关信息。(需要有清晰的输入提示和具体的输出信息提示。)用c语言写代码

为了帮助您完成这个超市收银程序,首先我们需要定义一个结构体来存储商品的信息,包括单价和数量。然后编写函数接收用户输入并计算总金额。以下是使用 C 语言实现的基本框架: ```c #include <stdio.h> // 商品结构体 typedef struct { double price; // 单价 int quantity; // 数量 } Product; // 计算商品总价的函数 double calculateTotalCost(Product product) { return product.price * product.quantity;
recommend-type

Unity3D粒子特效包:闪电效果体验报告

资源摘要信息:"Unity3D特效粒子系统是Unity游戏引擎中用于创建视觉特效的工具,该工具允许开发者模拟自然界或虚构的视觉效果,如火、水、爆炸、烟雾、光线等。闪电特效包是其中的一种资源,专用于创建逼真的闪电效果。'Electro Particles Set'闪电特效包因其高效和易于使用而被亲测验证为好用。该特效包文件名称为'Electro Particles Set 1.0插件电流',通过这个名称可以了解到它是一个专门用于模拟电流效果的粒子系统扩展包。" 知识点详细说明: Unity3D特效粒子系统知识点: 1. Unity3D特效粒子系统是由Unity引擎内置的Shuriken粒子系统提供的,它能够生成复杂的视觉效果。 2. 该系统使用粒子发射器(Emitter)、粒子(Particle)、粒子动作(Particle Actions)和粒子行为(Particle Behaviors)等组件来创建效果。 3. 粒子系统支持多种属性的调整,包括粒子的大小、形状、颜色、纹理、生命周期、发射速率、重力、碰撞反应等。 4. 通过脚本控制可以实现动态的特效生成,包括随游戏进程变化的特效表现。 5. Unity3D特效粒子系统支持预览编辑器中的实时效果调整,简化了特效的开发和调试过程。 Unity3D闪电特效包知识点: 1. 闪电特效包是专门为模拟闪电效果而设计的特效资源,它通常包含预设的粒子效果和相关的配置文件。 2. 使用闪电特效包可以省去开发者从头开始制作闪电效果的复杂过程,通过调整参数即可快速获得所需的视觉效果。 3. 闪电效果通常需要模拟光亮的线条在特定路径上运动,并伴有随机性以达到更自然的效果。 4. 闪电特效包可能包括多种预设的闪电样式和颜色,以适应不同的游戏环境和氛围。 'Electro Particles Set 1.0插件电流'知识点: 1. 'Electro Particles Set 1.0'指的是特定版本的特效包,标识了资源的版本号,有利于用户了解资源的更新和兼容性。 2. '插件电流'表明该特效包专注于创建与电流相关的视觉效果,如电弧、放电等。 3. 通过这类特效包,开发者可以在Unity中快速实现具有动态变化和视觉冲击力的电流效果,增强游戏的视觉吸引力。 4. 插件可能包含控制电流特效参数的界面,如电流强度、持续时间、颜色变化等,以供设计师或程序员调整。 5. '亲测好用'表示该特效包在实际使用中被用户验证为易于集成到Unity项目中,并且能够提供稳定可靠的表现。 总结: Unity3D特效粒子系统的高效性和易用性使其成为游戏和虚拟现实开发中不可或缺的工具。闪电特效包是基于Unity3D特效粒子系统开发的特定资源,专门用于创建逼真的闪电效果。'Electro Particles Set 1.0插件电流'作为其中的一个实例,它的特点是专注于电流特效,具有良好的用户反馈,适合需要在项目中快速实现闪电效果的开发者使用。通过调整参数和配置,开发者可以灵活地将其应用在各种游戏场景中,为玩家提供更加沉浸和震撼的体验。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

Visual Studio代码重构:简化代码,增强可维护性的秘密

![Visual Studio代码重构:简化代码,增强可维护性的秘密](https://devblogs.microsoft.com/visualstudio/wp-content/uploads/sites/4/2019/09/refactorings-illustrated.png) # 1. 代码重构的基础概念 在软件工程领域,随着项目发展和需求变更,代码基不断膨胀,代码库可能会变得杂乱无章,难以理解或修改。为了解决这些问题,工程师们采取了一种实践策略,即“代码重构”。代码重构,简而言之,是一种对内部代码结构进行改进,而不改变外部行为的过程。 ## 1.1 重构的定义与目的 代码重构