self.sim_svd = [] print("Calculating the sim_svd...") tbar = tqdm(total=len(self.word_vector)) for word in self.word_vector: if word[0] in self.vocab and word[1] in self.vocab: idx0 = self.vocab.index(word[0]) idx1 = self.vocab.index(word[1]) vector0 = self.result[idx0] vector1 = self.result[idx1] norm0 = np.linalg.norm(vector0) norm1 = np.linalg.norm(vector1) frac0 = np.dot(vector0, vector1) frac1 = norm0 * norm1 if frac1 != 0: sim = np.around(frac0 / frac1, 1) else: sim = 0 self.sim_svd.append(sim) else: self.sim_svd.append(0) tbar.update(1) tbar.close() # print(self.sim_svd) f = open('sim_svd', 'wb') pickle.dump(self.sim_svd, f) f.close()

时间: 2024-02-10 17:35:10 浏览: 37
这段代码的作用是计算一个词汇表中每对词语的余弦相似度,并将结果保存到一个名为sim_svd的二进制文件中。具体来说,代码首先创建一个名为sim_svd的空列表,然后使用一个循环遍历词向量中的每个词语。对于每个词语,代码检查它是否存在于词汇表中。如果两个词语都在词汇表中,代码会计算它们的余弦相似度,然后将结果添加到sim_svd列表中。如果两个词语中有任意一个不在词汇表中,代码会将0添加到sim_svd列表中。最后,代码将sim_svd列表保存到一个名为sim_svd的二进制文件中,以备将来使用。
相关问题

def SVG_process(self): # SVG方法 self.get_subword_vector() M = np.zeros((len(self.vocab), len(self.vocab))) df = pd.DataFrame(M, index=self.vocab, columns=self.vocab) print("Calculating the subword vector...") # 利用dataframe的字符串索引功能,使用子词向量进行计数,记录子词向量在词表中的出现频率 tbar = tqdm(total=len(self.subword_vector)) for i in self.subword_vector: try: df.at[i[0], i[1]] += 1 except: pass tbar.update(1) tbar.close() M = np.array(df) print(np.max(M)) svd = TruncatedSVD(n_components=3) self.result = svd.fit_transform(M) print(self.result.shape) def SGNS_process(self): print("Calculating the sim_sgns...") logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s') self.sim_sgns = [] vec_sgns = Word2Vec(LineSentence('dataset.txt'), vector_size=100, window=2, sg=1, hs=0, min_count=1, workers=multiprocessing.cpu_count()) tbar = tqdm(total=len(self.word_vector)) for word in self.word_vector: try: self.sim_sgns.append(vec_sgns.wv.similarity(word[0], word[1])) except: self.sim_sgns.append(0) tbar.update(1) tbar.close() # print(self.sim_sgns) f = open('sim_sgns', 'wb') pickle.dump(self.sim_sgns, f) f.close()

这段代码中包含了两个方法,一个是SVG_process,另一个是SGNS_process。 SVG_process方法中,首先调用了get_subword_vector方法获取词表中的子词向量,然后使用一个二维数组M初始化一个DataFrame对象df,用于记录子词向量在词表中的出现频率。接着遍历子词向量列表,利用DataFrame的字符串索引功能将子词向量的出现次数记录在df中。最后使用TruncatedSVD对M进行奇异值分解,得到降维后的结果self.result。 SGNS_process方法中,首先使用Word2Vec读取文本数据集,构建词向量模型vec_sgns。然后遍历词向量列表,使用wv.similarity计算每个词向量之间的相似度,并将结果保存在self.sim_sgns列表中。最后将self.sim_sgns保存到文件中。

def output(self): f = open('2020522085.txt', 'w' ,encoding='utf-8') with open('sim_svd', 'rb') as f1: self.sim_svd = pickle.load(f1) f1.close() with open('sim_sgns', 'rb', encoding='utf-8') as f1: self.sim_sgns = pickle.load(f1) f1.close() for i in range(500): f.write(str(' '.join(self.word_vector[i])) + ' ' + str(self.sim_svd[i]) + ' ' + str(self.sim_sgns[i]) + '\n') f.close()

这段代码看起来是在将之前计算得到的两种相似度(self.sim_svd 和 self.sim_sgns)以及对应的词语对(self.word_vector)输出到一个名为 '2020522085.txt' 的文本文件中。 具体来说,代码首先创建了一个文件对象 f,指定其文件名为 '2020522085.txt',打开方式为写入('w'),并指定文件编码为 'utf-8'。接着,代码使用 pickle.load() 函数从之前保存的二进制文件 'sim_svd' 和 'sim_sgns' 中分别读取相似度列表 self.sim_svd 和 self.sim_sgns,注意需要使用二进制模式打开文件。然后,代码使用 for 循环遍历前 500 个词语对,将它们的词语和相似度信息以一定的格式写入文件 f 中。具体来说,对于每个词语对,代码将其两个词语使用空格连接起来,然后接上两个相似度值,中间使用若干个空格分隔,最后加上一个换行符。文件写入完成后,代码使用 f.close() 关闭文件对象。

相关推荐

import pandas as pd import numpy as np # 计算用户对歌曲的播放比例 triplet_dataset_sub_song_merged_sum_df = triplet_dataset_sub_song_mergedpd[['user', 'listen_count']].groupby('user').sum().reset_index() triplet_dataset_sub_song_merged_sum_df.rename(columns={'listen_count': 'total_listen_count'}, inplace=True) triplet_dataset_sub_song_merged = pd.merge(triplet_dataset_sub_song_mergedpd, triplet_dataset_sub_song_merged_sum_df) triplet_dataset_sub_song_mergedpd['fractional_play_count'] = triplet_dataset_sub_song_mergedpd['listen_count'] / triplet_dataset_sub_song_merged['total_listen_count'] # 将用户和歌曲编码为数字 small_set = triplet_dataset_sub_song_mergedpd user_codes = small_set.user.drop_duplicates().reset_index() song_codes = small_set.song.drop_duplicates().reset_index() user_codes.rename(columns={'index': 'user_index'}, inplace=True) song_codes.rename(columns={'index': 'song_index'}, inplace=True) song_codes['so_index_value'] = list(song_codes.index) user_codes['us_index_value'] = list(user_codes.index) small_set = pd.merge(small_set, song_codes, how='left') small_set = pd.merge(small_set, user_codes, how='left') # 将数据转换为稀疏矩阵形式 from scipy.sparse import coo_matrix mat_candidate = small_set[['us_index_value', 'so_index_value', 'fractional_play_count']] data_array = mat_candidate.fractional_play_count.values row_array = mat_candidate.us_index_value.values col_array = mat_candidate.so_index_value.values data_sparse = coo_matrix((data_array, (row_array, col_array)), dtype=float) # 使用SVD方法进行矩阵分解并进行推荐 from scipy.sparse import csc_matrix from scipy.sparse.linalg import svds import math as mt def compute_svd(urm, K): U, s, Vt = svds(urm, K) dim = (len(s), len(s)) S = np.zeros(dim, dtype=np.float32) for i in range(0, len(s)): S[i, i] = mt.sqrt(s[i]) U = csc_matrix(U, dtype=np.float32) S = csc_matrix(S, dtype=np.float32) Vt = csc_matrix(Vt, dtype=np.float32) return U, S, Vt def compute_estimated_matrix(urm, U, S, Vt, uTest, K, test): rightTerm = S * Vt max_recommendation = 250 estimatedRatings = np.zeros(shape=(MAX_UID, MAX_PID), dtype=np.float16) recomendRatings = np.zeros(shape=(MAX_UID, max_recommendation), dtype=np.float16) for userTest in uTest: prod = U[userTest, :] * rightTerm estimatedRatings[userTest, :] = prod.todense() recomendRatings[userTest, :] = (-estimatedRatings[userTest, :]).argsort()[:max_recommendation] return recomendRatings K = 50 urm = data_sparse MAX_PID = urm.shape[1] MAX_UID = urm.shape[0] U, S, Vt = compute_svd(urm, K) uTest = [4, 5, 6, 7, 8, 73, 23] # uTest=[1b5bb32767963cbc215d27a24fef1aa01e933025] uTest_recommended_items = compute_estimated_matrix(urm, U, S, Vt 继续将这段代码输出完整

将上述代码放入了Recommenders.py文件中,作为一个自定义工具包。将下列代码中调用scipy包中svd的部分。转为使用Recommenders.py工具包中封装的svd方法。给出修改后的完整代码。import pandas as pd import math as mt import numpy as np from sklearn.model_selection import train_test_split from Recommenders import * from scipy.sparse.linalg import svds from scipy.sparse import coo_matrix from scipy.sparse import csc_matrix # Load and preprocess data triplet_dataset_sub_song_merged = triplet_dataset_sub_song_mergedpd # load dataset triplet_dataset_sub_song_merged_sum_df = triplet_dataset_sub_song_merged[['user','listen_count']].groupby('user').sum().reset_index() triplet_dataset_sub_song_merged_sum_df.rename(columns={'listen_count':'total_listen_count'},inplace=True) triplet_dataset_sub_song_merged = pd.merge(triplet_dataset_sub_song_merged,triplet_dataset_sub_song_merged_sum_df) triplet_dataset_sub_song_merged['fractional_play_count'] = triplet_dataset_sub_song_merged['listen_count']/triplet_dataset_sub_song_merged['total_listen_count'] # Convert data to sparse matrix format small_set = triplet_dataset_sub_song_merged user_codes = small_set.user.drop_duplicates().reset_index() song_codes = small_set.song.drop_duplicates().reset_index() user_codes.rename(columns={'index':'user_index'}, inplace=True) song_codes.rename(columns={'index':'song_index'}, inplace=True) song_codes['so_index_value'] = list(song_codes.index) user_codes['us_index_value'] = list(user_codes.index) small_set = pd.merge(small_set,song_codes,how='left') small_set = pd.merge(small_set,user_codes,how='left') mat_candidate = small_set[['us_index_value','so_index_value','fractional_play_count']] data_array = mat_candidate.fractional_play_count.values row_array = mat_candidate.us_index_value.values col_array = mat_candidate.so_index_value.values data_sparse = coo_matrix((data_array, (row_array, col_array)),dtype=float) # Compute SVD def compute_svd(urm, K): U, s, Vt = svds(urm, K) dim = (len(s), len(s)) S = np.zeros(dim, dtype=np.float32) for i in range(0, len(s)): S[i,i] = mt.sqrt(s[i]) U = csc_matrix(U, dtype=np.float32) S = csc_matrix(S, dtype=np.float32) Vt = csc_matrix(Vt, dtype=np.float32) return U, S, Vt def compute_estimated_matrix(urm, U, S, Vt, uTest, K, test): rightTerm = S*Vt max_recommendation = 10 estimatedRatings = np.zeros(shape=(MAX_UID, MAX_PID), dtype=np.float16) recomendRatings = np.zeros(shape=(MAX_UID,max_recommendation ), dtype=np.float16) for userTest in uTest: prod = U[userTest, :]*rightTerm estimatedRatings[userTest, :] = prod.todense() recomendRatings[userTest, :] = (-estimatedRatings[userTest, :]).argsort()[:max_recommendation] return recomendRatings K=50 # number of factors urm = data_sparse MAX_PID = urm.shape[1] MAX_UID = urm.shape[0] U, S, Vt = compute_svd(urm, K) # Compute recommendations for test users # Compute recommendations for test users uTest = [1,6,7,8,23] uTest_recommended_items = compute_estimated_matrix(urm, U, S, Vt, uTest, K, True) # Output recommended songs in a dataframe recommendations = pd.DataFrame(columns=['user','song', 'score','rank']) for user in uTest: rank = 1 for song_index in uTest_recommended_items[user, 0:10]: song = small_set.loc[small_set['so_index_value'] == song_index].iloc[0] # Get song details recommendations = recommendations.append({'user': user, 'song': song['title'], 'score': song['fractional_play_count'], 'rank': rank}, ignore_index=True) rank += 1 display(recommendations)

import pandas as pd import math as mt import numpy as np from sklearn.model_selection import train_test_split from Recommenders import SVDRecommender triplet_dataset_sub_song_merged = triplet_dataset_sub_song_mergedpd triplet_dataset_sub_song_merged_sum_df = triplet_dataset_sub_song_merged[['user','listen_count']].groupby('user').sum().reset_index() triplet_dataset_sub_song_merged_sum_df.rename(columns={'listen_count':'total_listen_count'},inplace=True) triplet_dataset_sub_song_merged = pd.merge(triplet_dataset_sub_song_merged,triplet_dataset_sub_song_merged_sum_df) triplet_dataset_sub_song_merged['fractional_play_count'] = triplet_dataset_sub_song_merged['listen_count']/triplet_dataset_sub_song_merged small_set = triplet_dataset_sub_song_merged user_codes = small_set.user.drop_duplicates().reset_index() song_codes = small_set.song.drop_duplicates().reset_index() user_codes.rename(columns={'index':'user_index'}, inplace=True) song_codes.rename(columns={'index':'song_index'}, inplace=True) song_codes['so_index_value'] = list(song_codes.index) user_codes['us_index_value'] = list(user_codes.index) small_set = pd.merge(small_set,song_codes,how='left') small_set = pd.merge(small_set,user_codes,how='left') mat_candidate = small_set[['us_index_value','so_index_value','fractional_play_count']] data_array = mat_candidate.fractional_play_count.values row_array = mat_candidate.us_index_value.values col_array = mat_candidate.so_index_value.values data_sparse = coo_matrix((data_array, (row_array, col_array)),dtype=float) K=50 urm = data_sparse MAX_PID = urm.shape[1] MAX_UID = urm.shape[0] recommender = SVDRecommender(K) U, S, Vt = recommender.fit(urm) Compute recommendations for test users uTest = [1,6,7,8,23] uTest_recommended_items = recommender.recommend(uTest, urm, 10) Output recommended songs in a dataframe recommendations = pd.DataFrame(columns=['user','song', 'score','rank']) for user in uTest: rank = 1 for song_index in uTest_recommended_items[user, 0:10]: song = small_set.loc[small_set['so_index_value'] == song_index].iloc[0] # Get song details recommendations = recommendations.append({'user': user, 'song': song['title'], 'score': song['fractional_play_count'], 'rank': rank}, ignore_index=True) rank += 1 display(recommendations)这段代码报错了,为什么?给出修改后的 代码

class svd_recommender_py(): #svd矩阵推荐 def svds(A, ncv=None, tol=0, which='LM', v0=None, maxiter=None, return_singular_vectors=True, solver='arpack'): if which == 'LM': largest = True elif which == 'SM': largest = False else: raise ValueError("which must be either 'LM' or 'SM'.") if not (isinstance(A, LinearOperator) or isspmatrix(A) or is_pydata_spmatrix(A)): A = np.asarray(A) n, m = A.shape if k <= 0 or k >= min(n, m): raise ValueError("k must be between 1 and min(A.shape), k=%d" % k) if isinstance(A, LinearOperator): if n > m: X_dot = A.matvec X_matmat = A.matmat XH_dot = A.rmatvec XH_mat = A.rmatmat else: X_dot = A.rmatvec X_matmat = A.rmatmat XH_dot = A.matvec XH_mat = A.matmat dtype = getattr(A, 'dtype', None) if dtype is None: dtype = A.dot(np.zeros([m, 1])).dtype else: if n > m: X_dot = X_matmat = A.dot XH_dot = XH_mat = _herm(A).dot else: XH_dot = XH_mat = A.dot X_dot = X_matmat = _herm(A).dot def matvec_XH_X(x): return XH_dot(X_dot(x)) def matmat_XH_X(x): return XH_mat(X_matmat(x)) XH_X = LinearOperator(matvec=matvec_XH_X, dtype=A.dtype, matmat=matmat_XH_X, shape=(min(A.shape), min(A.shape))) # Get a low rank approximation of the implicitly defined gramian matrix. #获得隐式定义的格拉米矩阵的低秩近似。 #这不是解决问题的稳定方法。 solver == 'arpack' eigvals, eigvec = eigsh(XH_X, k=k, tol=tol ** 2, maxiter=maxiter, ncv=ncv, which=which, v0=v0) #格拉米矩阵具有实非负特征值。 eigvals = np.maximum(eigvals.real, 0) #使用来自pinvh的小特征值的复杂检测。 t = eigvec.dtype.char.lower() factor = {'f': 1E3, 'd': 1E6} cond = factor[t] * np.finfo(t).eps cutoff = cond * np.max(eigvals) #得到一个指示哪些本征对不是退化微小的掩码, #并创建阈值奇异值的重新排序数组。 above_cutoff = (eigvals > cutoff) nlarge = above_cutoff.sum() nsmall = k - nlarge slarge = np.sqrt(eigvals[above_cutoff]) s = np.zeros_like(eigvals) s[:nlarge] = slarge if not return_singular_vectors: return np.sort(s) if n > m: vlarge = eigvec[:, above_cutoff] ularge = X_matmat(vlarge) / slarge if return_singular_vectors != 'vh' else None vhlarge = _herm(vlarge) else: ularge = eigvec[:, above_cutoff] vhlarge = _herm(X_matmat(ularge) / slarge) if return_singular_vectors != 'u' else None u = _augmented_orthonormal_cols(ularge, nsmall) if ularge is not None else None vh = _augmented_orthonormal_rows(vhlarge, nsmall) if vhlarge is not None else None indexes_sorted = np.argsort(s) s = s[indexes_sorted] if u is not None: u = u[:, indexes_sorted] if vh is not None: vh = vh[indexes_sorted] return u, s, vh这段代码主要是为了将scipy包中的SVD计算方法封装成一个自定义类,是否封装合适?如果不合适,给出修改后的完整代码

最新推荐

recommend-type

7.22 软件版本说明(SVD).docx

软件版本说明(Software Version Description,简称SVD)是软件开发过程中的一个重要文档,它详细记录了软件产品在不同版本之间的变化、特性以及安装和使用指南。根据GB/T 8567-2006《计算机软件文档编制规范》,SVD...
recommend-type

5116-微信小程序电影院订票选座系统设计及实现+ssm(源码+数据库+lun文).zip

本系统主要针对计算机相关专业的正在做毕业设计的学生和需要项目实战练习的学习者,可作为毕业设计、课程设计、期末大作业。本系统主要针对计算机相关专业的正在做毕业设计的学生和需要项目实战练习的学习者,可作为毕业设计、课程设计、期末大作业。本系统主要针对计算机相关专业的正在做毕业设计的学生和需要项目实战练习的学习者,可作为毕业设计、课程设计、期末大作业。本系统主要针对计算机相关专业的正在做毕业设计的学生和需要项目实战练习的学习者,可作为毕业设计、课程设计、期末大作业。
recommend-type

C++标准程序库:权威指南

"《C++标准程式库》是一本关于C++标准程式库的经典书籍,由Nicolai M. Josuttis撰写,并由侯捷和孟岩翻译。这本书是C++程序员的自学教材和参考工具,详细介绍了C++ Standard Library的各种组件和功能。" 在C++编程中,标准程式库(C++ Standard Library)是一个至关重要的部分,它提供了一系列预先定义的类和函数,使开发者能够高效地编写代码。C++标准程式库包含了大量模板类和函数,如容器(containers)、迭代器(iterators)、算法(algorithms)和函数对象(function objects),以及I/O流(I/O streams)和异常处理等。 1. 容器(Containers): - 标准模板库中的容器包括向量(vector)、列表(list)、映射(map)、集合(set)、无序映射(unordered_map)和无序集合(unordered_set)等。这些容器提供了动态存储数据的能力,并且提供了多种操作,如插入、删除、查找和遍历元素。 2. 迭代器(Iterators): - 迭代器是访问容器内元素的一种抽象接口,类似于指针,但具有更丰富的操作。它们可以用来遍历容器的元素,进行读写操作,或者调用算法。 3. 算法(Algorithms): - C++标准程式库提供了一组强大的算法,如排序(sort)、查找(find)、复制(copy)、合并(merge)等,可以应用于各种容器,极大地提高了代码的可重用性和效率。 4. 函数对象(Function Objects): - 又称为仿函数(functors),它们是具有operator()方法的对象,可以用作函数调用。函数对象常用于算法中,例如比较操作或转换操作。 5. I/O流(I/O Streams): - 标准程式库提供了输入/输出流的类,如iostream,允许程序与标准输入/输出设备(如键盘和显示器)以及其他文件进行交互。例如,cin和cout分别用于从标准输入读取和向标准输出写入。 6. 异常处理(Exception Handling): - C++支持异常处理机制,通过throw和catch关键字,可以在遇到错误时抛出异常,然后在适当的地方捕获并处理异常,保证了程序的健壮性。 7. 其他组件: - 还包括智能指针(smart pointers)、内存管理(memory management)、数值计算(numerical computations)和本地化(localization)等功能。 《C++标准程式库》这本书详细讲解了这些内容,并提供了丰富的实例和注解,帮助读者深入理解并熟练使用C++标准程式库。无论是初学者还是经验丰富的开发者,都能从中受益匪浅,提升对C++编程的掌握程度。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

Parallelization Techniques for Matlab Autocorrelation Function: Enhancing Efficiency in Big Data Analysis

# 1. Introduction to Matlab Autocorrelation Function The autocorrelation function is a vital analytical tool in time-domain signal processing, capable of measuring the similarity of a signal with itself at varying time lags. In Matlab, the autocorrelation function can be calculated using the `xcorr
recommend-type

怎样使scanf函数和printf在同一行表示

在C语言中,`scanf` 和 `printf` 通常是分开使用的,因为它们的功能不同,一个负责从标准输入读取数据,另一个负责向标准输出显示信息。然而,如果你想要在一行代码中完成读取和打印,可以创建一个临时变量存储 `scanf` 的结果,并立即传递给 `printf`。但这种做法并不常见,因为它违反了代码的清晰性和可读性原则。 下面是一个简单的示例,展示了如何在一个表达式中使用 `scanf` 和 `printf`,但这并不是推荐的做法: ```c #include <stdio.h> int main() { int num; printf("请输入一个整数: ");
recommend-type

Java解惑:奇数判断误区与改进方法

Java是一种广泛使用的高级编程语言,以其面向对象的设计理念和平台无关性著称。在本文档中,主要关注的是Java中的基础知识和解惑,特别是关于Java编程语言的一些核心概念和陷阱。 首先,文档提到的“表达式谜题”涉及到Java中的取余运算符(%)。在Java中,取余运算符用于计算两个数相除的余数。例如,`i % 2` 表达式用于检查一个整数`i`是否为奇数。然而,这里的误导在于,Java对`%`操作符的处理方式并不像常规数学那样,对于负数的奇偶性判断存在问题。由于Java的`%`操作符返回的是与左操作数符号相同的余数,当`i`为负奇数时,`i % 2`会得到-1而非1,导致`isOdd`方法错误地返回`false`。 为解决这个问题,文档建议修改`isOdd`方法,使其正确处理负数情况,如这样: ```java public static boolean isOdd(int i) { return i % 2 != 0; // 将1替换为0,改变比较条件 } ``` 或者使用位操作符AND(&)来实现,因为`i & 1`在二进制表示中,如果`i`的最后一位是1,则结果为非零,表明`i`是奇数: ```java public static boolean isOdd(int i) { return (i & 1) != 0; // 使用位操作符更简洁 } ``` 这些例子强调了在编写Java代码时,尤其是在处理数学运算和边界条件时,理解运算符的底层行为至关重要,尤其是在性能关键场景下,选择正确的算法和操作符能避免潜在的问题。 此外,文档还提到了另一个谜题,暗示了开发者在遇到类似问题时需要进行细致的测试,确保代码在各种输入情况下都能正确工作,包括负数、零和正数。这不仅有助于发现潜在的bug,也能提高代码的健壮性和可靠性。 这个文档旨在帮助Java学习者和开发者理解Java语言的一些基本特性,特别是关于取余运算符的行为和如何处理边缘情况,以及在性能敏感的场景下优化算法选择。通过解决这些问题,读者可以更好地掌握Java编程,并避免常见误区。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

The Application of Autocorrelation Function in Economics: Economic Cycle Analysis and Forecasting Modeling

# Application of Autocorrelation Function in Economics: Analysis and Forecasting Models for Economic Cycles ## 1. Theoretical Foundations of Autocorrelation Function The Autocorrelation Function (ACF) is a statistical tool used to measure the correlation between data points in time series data tha
recommend-type

ethernet functionality not enabled socket error#10065 No route to host.

When you encounter an Ethernet functionality not enabled error with a socket error code 10065 "No route to host" while attempting to send or receive data over a network, it typically indicates two issues: 1. **Ethernet Functionality Not Enabled**: This error might be related to your system's networ