new_array=np.zeros((4,12,100,9)) for i in range(len(df_array)): new_array[df_array[i][5]-2013][df_array[i][6]-1][df_array[i][1]][df_array[i][2]]+=df_array[i][3] df_new = pd.DataFrame(columns=['创建年', '创建月', '物料编号', '应发库', '销售订单数量']) i=0 for year_ in range(4): for month_ in range(12): for index_ in range(100): for warehouse_ in range(9): if new_array[year_][month_][index_][warehouse_]>0: df_new=df_new.append(pd.DataFrame({'创建年':year_+2013,'创建月':month_+1,'物料编号':index_,'应发库':warehouse_,'销售订单数量':new_array[year_][month_][index_][warehouse_]},index=[i])) i+=1 print(df_new)是否正确?

时间: 2024-04-02 07:32:39 浏览: 11
这段代码是在对`new_array`进行处理之后,将得到的结果存入`df_new`数据框中。代码中,首先定义了一个`df_new`的空数据框,用于存储处理后的结果。然后使用四重for循环遍历`new_array`,将大于0的元素添加到`df_new`中。最后打印出`df_new`的内容。 根据代码的逻辑,这段代码应该是正确的。但是需要根据具体的数据集进行验证。
相关问题

new_array=np.zeros((4,12,100,9)) 2 for i in range(len(df_array)): ----> 3 new_array[df_array[i][5]-2013][df_array[i][6]-1][df_array[i][1]][df_array[i][2]]+=df_array[i][3] 4 df_new = pd.DataFrame(columns=['创建年', '创建月', '物料编号', '应发库', '销售订单数量']) IndexError: only integers, slices (`:`), ellipsis (`...`), numpy.newaxis (`None`) and integer or boolean arrays are valid indices需要如何更改

这个错误是因为在使用索引时,使用了非整数类型的值。可能是因为df_array中的某些值不是整数类型导致的。你可以使用astype()方法将其转换为整数类型。另外,代码中的第3行需要将df_array的长度存储在变量中,以避免在循环中多次计算。下面是修改后的代码: ``` df_array = df_array.astype(int) array_len = len(df_array) new_array = np.zeros((4, 12, 100, 9)) for i in range(array_len): new_array[df_array[i][5]-2013][df_array[i][6]-1][df_array[i][1]][df_array[i][2]] += df_array[i][3] df_new = pd.DataFrame(columns=['创建年', '创建月', '物料编号', '应发库', '销售订单数量']) ``` 希望能对你有所帮助。

new_array=np.zeros((4,12,100,9)) for i in range(len(df_array)): new_array[df_array[i][5]-2013][df_array[i][6]-1][df_array[i][1]][df_array[i][2]]+=df_array[i][3] df_new = pd.DataFrame(columns=['创建年', '创建月', '物料编号', '应发库', '销售订单数量']) i=0 for year_ in range(4): for month_ in range(12): for index_ in range(100): for warehouse_ in range(9): if new_array[year_][month_][index_][warehouse_]>0: df_new=df_new.append(pd.DataFrame({'创建年':year_+2013,'创建月':month_+1,'物料编号':index_,'应发库':warehouse_,'销售订单数量':new_array[year_][month_][index_][warehouse_]},index=[i])) i+=1 print(df_new)请修改正确

根据你提供的代码,可能需要进行以下更正: ``` import pandas as pd import numpy as np # 假设 df_array 是一个二维数组,包含一些数据 df_array = np.array([[1, 2, 3, 4, 5, 2015, 7], [6, 7, 8, 9, 10, 2014, 11], [12, 13, 14, 15, 16, 2013, 17]]) # 初始化 new_array new_array = np.zeros((4, 12, 100, 9)) # 遍历 df_array 中的每一行 for i in range(len(df_array)): # 将 df_array 中的年份和月份转换为整数值 year = int(df_array[i][5]) month = int(df_array[i][6]) # 在 new_array 中增加对应的值 new_array[year-2013][month-1][df_array[i][1]][df_array[i][2]] += df_array[i][3] # 将 new_array 转换为 DataFrame df_new = pd.DataFrame(columns=['创建年', '创建月', '物料编号', '应发库', '销售订单数量']) for year_ in range(4): for month_ in range(12): for index_ in range(100): for warehouse_ in range(9): if new_array[year_][month_][index_][warehouse_] > 0: df_new = df_new.append(pd.DataFrame({'创建年': year_+2013, '创建月': month_+1, '物料编号': index_, '应发库': warehouse_, '销售订单数量': new_array[year_][month_][index_][warehouse_]}, index=[0]), ignore_index=True) print(df_new) ``` 这段代码的目的是将一个二维数组 df_array 中的数据按照年份、月份、物料编号和应发库进行汇总,并将结果保存在一个 DataFrame 中。新的代码使用了四个年份(2013-2016)、12个月份、100个物料编号和9个应发库。其中,new_array 用于存储每个组合中的值,df_new 用于存储最终的结果。 在计算 new_array 的值时,将 df_array 中的年份和月份转换为整数值,以避免出现索引错误。在计算 df_new 的值时,使用 append() 方法将每个组合的结果添加到 df_new 中。在添加新行时,使用参数 ignore_index=True 确保索引正确。

相关推荐

import pandas as pd import numpy as np # 计算用户对歌曲的播放比例 triplet_dataset_sub_song_merged_sum_df = triplet_dataset_sub_song_mergedpd[['user', 'listen_count']].groupby('user').sum().reset_index() triplet_dataset_sub_song_merged_sum_df.rename(columns={'listen_count': 'total_listen_count'}, inplace=True) triplet_dataset_sub_song_merged = pd.merge(triplet_dataset_sub_song_mergedpd, triplet_dataset_sub_song_merged_sum_df) triplet_dataset_sub_song_mergedpd['fractional_play_count'] = triplet_dataset_sub_song_mergedpd['listen_count'] / triplet_dataset_sub_song_merged['total_listen_count'] # 将用户和歌曲编码为数字 small_set = triplet_dataset_sub_song_mergedpd user_codes = small_set.user.drop_duplicates().reset_index() song_codes = small_set.song.drop_duplicates().reset_index() user_codes.rename(columns={'index': 'user_index'}, inplace=True) song_codes.rename(columns={'index': 'song_index'}, inplace=True) song_codes['so_index_value'] = list(song_codes.index) user_codes['us_index_value'] = list(user_codes.index) small_set = pd.merge(small_set, song_codes, how='left') small_set = pd.merge(small_set, user_codes, how='left') # 将数据转换为稀疏矩阵形式 from scipy.sparse import coo_matrix mat_candidate = small_set[['us_index_value', 'so_index_value', 'fractional_play_count']] data_array = mat_candidate.fractional_play_count.values row_array = mat_candidate.us_index_value.values col_array = mat_candidate.so_index_value.values data_sparse = coo_matrix((data_array, (row_array, col_array)), dtype=float) # 使用SVD方法进行矩阵分解并进行推荐 from scipy.sparse import csc_matrix from scipy.sparse.linalg import svds import math as mt def compute_svd(urm, K): U, s, Vt = svds(urm, K) dim = (len(s), len(s)) S = np.zeros(dim, dtype=np.float32) for i in range(0, len(s)): S[i, i] = mt.sqrt(s[i]) U = csc_matrix(U, dtype=np.float32) S = csc_matrix(S, dtype=np.float32) Vt = csc_matrix(Vt, dtype=np.float32) return U, S, Vt def compute_estimated_matrix(urm, U, S, Vt, uTest, K, test): rightTerm = S * Vt max_recommendation = 250 estimatedRatings = np.zeros(shape=(MAX_UID, MAX_PID), dtype=np.float16) recomendRatings = np.zeros(shape=(MAX_UID, max_recommendation), dtype=np.float16) for userTest in uTest: prod = U[userTest, :] * rightTerm estimatedRatings[userTest, :] = prod.todense() recomendRatings[userTest, :] = (-estimatedRatings[userTest, :]).argsort()[:max_recommendation] return recomendRatings K = 50 urm = data_sparse MAX_PID = urm.shape[1] MAX_UID = urm.shape[0] U, S, Vt = compute_svd(urm, K) uTest = [4, 5, 6, 7, 8, 73, 23] # uTest=[1b5bb32767963cbc215d27a24fef1aa01e933025] uTest_recommended_items = compute_estimated_matrix(urm, U, S, Vt 继续将这段代码输出完整

将上述代码放入了Recommenders.py文件中,作为一个自定义工具包。将下列代码中调用scipy包中svd的部分。转为使用Recommenders.py工具包中封装的svd方法。给出修改后的完整代码。import pandas as pd import math as mt import numpy as np from sklearn.model_selection import train_test_split from Recommenders import * from scipy.sparse.linalg import svds from scipy.sparse import coo_matrix from scipy.sparse import csc_matrix # Load and preprocess data triplet_dataset_sub_song_merged = triplet_dataset_sub_song_mergedpd # load dataset triplet_dataset_sub_song_merged_sum_df = triplet_dataset_sub_song_merged[['user','listen_count']].groupby('user').sum().reset_index() triplet_dataset_sub_song_merged_sum_df.rename(columns={'listen_count':'total_listen_count'},inplace=True) triplet_dataset_sub_song_merged = pd.merge(triplet_dataset_sub_song_merged,triplet_dataset_sub_song_merged_sum_df) triplet_dataset_sub_song_merged['fractional_play_count'] = triplet_dataset_sub_song_merged['listen_count']/triplet_dataset_sub_song_merged['total_listen_count'] # Convert data to sparse matrix format small_set = triplet_dataset_sub_song_merged user_codes = small_set.user.drop_duplicates().reset_index() song_codes = small_set.song.drop_duplicates().reset_index() user_codes.rename(columns={'index':'user_index'}, inplace=True) song_codes.rename(columns={'index':'song_index'}, inplace=True) song_codes['so_index_value'] = list(song_codes.index) user_codes['us_index_value'] = list(user_codes.index) small_set = pd.merge(small_set,song_codes,how='left') small_set = pd.merge(small_set,user_codes,how='left') mat_candidate = small_set[['us_index_value','so_index_value','fractional_play_count']] data_array = mat_candidate.fractional_play_count.values row_array = mat_candidate.us_index_value.values col_array = mat_candidate.so_index_value.values data_sparse = coo_matrix((data_array, (row_array, col_array)),dtype=float) # Compute SVD def compute_svd(urm, K): U, s, Vt = svds(urm, K) dim = (len(s), len(s)) S = np.zeros(dim, dtype=np.float32) for i in range(0, len(s)): S[i,i] = mt.sqrt(s[i]) U = csc_matrix(U, dtype=np.float32) S = csc_matrix(S, dtype=np.float32) Vt = csc_matrix(Vt, dtype=np.float32) return U, S, Vt def compute_estimated_matrix(urm, U, S, Vt, uTest, K, test): rightTerm = S*Vt max_recommendation = 10 estimatedRatings = np.zeros(shape=(MAX_UID, MAX_PID), dtype=np.float16) recomendRatings = np.zeros(shape=(MAX_UID,max_recommendation ), dtype=np.float16) for userTest in uTest: prod = U[userTest, :]*rightTerm estimatedRatings[userTest, :] = prod.todense() recomendRatings[userTest, :] = (-estimatedRatings[userTest, :]).argsort()[:max_recommendation] return recomendRatings K=50 # number of factors urm = data_sparse MAX_PID = urm.shape[1] MAX_UID = urm.shape[0] U, S, Vt = compute_svd(urm, K) # Compute recommendations for test users # Compute recommendations for test users uTest = [1,6,7,8,23] uTest_recommended_items = compute_estimated_matrix(urm, U, S, Vt, uTest, K, True) # Output recommended songs in a dataframe recommendations = pd.DataFrame(columns=['user','song', 'score','rank']) for user in uTest: rank = 1 for song_index in uTest_recommended_items[user, 0:10]: song = small_set.loc[small_set['so_index_value'] == song_index].iloc[0] # Get song details recommendations = recommendations.append({'user': user, 'song': song['title'], 'score': song['fractional_play_count'], 'rank': rank}, ignore_index=True) rank += 1 display(recommendations)

解释代码:data=pd.read_excel('评论内容.xlsx') a=list(data['评论内容']) # 将所有文本连接成一个字符串 su='' for i in a: su+=str(i) # for l in range(30,300,30) # 进行分词处理 seg = jieba.lcut(su,cut_all=False) # 构建word2vec模型,该模型用于转换词向量 model = word2vec.Word2Vec(seg, min_count=1,vector_size=100) index2word_set = set(model.wv.index_to_key) # 词向量转换函数 def avg_feature_vector(sentence, model, num_features, index2word_set): # 定义词向量数量 feature_vec = np.zeros((num_features, ), dtype='float32') n_words = 0 # 分析句子中每一个词在词库中的情况 for word in str(sentence): word=str(word) if word in index2word_set: n_words += 1 feature_vec = np.add(feature_vec, model.wv[word]) # 进行向量转换 if (n_words > 0): feature_vec = np.divide(feature_vec, n_words) return feature_vec # 将训练集的数据转换为词向量 df=[] for i in range(len(a)): s1_afv = avg_feature_vector(a[i], model=model, num_features=100, index2word_set=index2word_set) df.append(s1_afv) X=pd.DataFrame(df) # 使用nlp为评论设置初始标签 y=[] for i in range(len(a)): # print(i) s = SnowNLP(str(a[i])) if s.sentiments > 0.7: y.append(1) else: y.append(0) y=pd.DataFrame(y) # 将文本转换为onehot向量 def gbdt_lr(X, y): # 构建梯度提升决策树 gbc = GradientBoostingClassifier(n_estimators=20,random_state=2019, subsample=0.8, max_depth=5,min_samples_leaf=1,min_samples_split=6) gbc.fit(X, y) # 连续变量离散化 gbc_leaf = gbc.apply(X) gbc_feats = gbc_leaf.reshape(-1, 20) # 转换为onehot enc = OneHotEncoder() enc.fit(gbc_feats) gbc_new_feature = np.array(enc.transform(gbc_feats).toarray()) # 输出转换结果 print(gbc_new_feature) return gbc_new_feature

import pandas as pd import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.basemap import Basemap from scipy.spatial.distance import cdist from ant_colony import solve_tsp # 读取城市数据 df = pd.read_excel('world_coordinate.xlsx', index_col=0, dtype=str) # 提取城市和经纬度数据 countrys = df.index.values countrys_coords = np.array(df['[longitude, latitude]'].apply(eval).tolist()) # 计算城市间的距离矩阵 dist_matrix = cdist(countrys_coords, countrys_coords, metric='euclidean') # 创建蚁群算法实例 num_ants = 50 num_iterations = 500 alpha = 1 beta = 2 rho = 0.5 acs = solve_tsp(dist_matrix, num_ants=num_ants, num_iterations=num_iterations, alpha=alpha, beta=beta, rho=rho) # 输出访问完所有城市的最短路径的距离和城市序列 best_path = acs.get_best_path() best_distance = acs.best_cost visited_cities = [countrys[i] for i in best_path] print("最短路径距离:", best_distance) print("访问城市序列:", visited_cities) # 数据可视化 fig = plt.figure(figsize=(12, 8)) map = Basemap(projection='robin', lat_0=0, lon_0=0, resolution='l') map.drawcoastlines(color='gray') map.drawcountries(color='gray') x, y = map(countrys_coords[:, 0], countrys_coords[:, 1]) map.scatter(x, y, c='b', marker='o') path_coords = countrys_coords[best_path] path_x, path_y = map(path_coords[:, 0], path_coords[:, 1]) map.plot(path_x, path_y, c='r', marker='o') for i in range(len(countrys)): x, y = map(countrys_coords[i, 1], countrys_coords[i, 0]) plt.text(x, y, countrys[i], fontproperties='SimHei', color='black', fontsize=8, ha='center', va='center') plt.title("全球首都最短路径规划") plt.show()改成现在都有调用蚁群算法库的代码

将冒号后面的代码改写成一个nn.module类:import pandas as pd import numpy as np from sklearn.preprocessing import MinMaxScaler import matplotlib.pyplot as plt from keras.models import Sequential from keras.layers import Dense, LSTM data1 = pd.read_csv("终极1.csv", usecols=[17], encoding='gb18030') df = data1.fillna(method='ffill') data = df.values.reshape(-1, 1) scaler = MinMaxScaler(feature_range=(0, 1)) data = scaler.fit_transform(data) train_size = int(len(data) * 0.8) test_size = len(data) - train_size train, test = data[0:train_size, :], data[train_size:len(data), :] def create_dataset(dataset, look_back=1): dataX, dataY = [], [] for i in range(len(dataset)-look_back-1): a = dataset[i:(i+look_back), 0] dataX.append(a) dataY.append(dataset[i + look_back, 0]) return np.array(dataX), np.array(dataY) look_back = 30 trainX, trainY = create_dataset(train, look_back) testX, testY = create_dataset(test, look_back) trainX = np.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1])) testX = np.reshape(testX, (testX.shape[0], 1, testX.shape[1])) model = Sequential() model.add(LSTM(50, input_shape=(1, look_back), return_sequences=True)) model.add(LSTM(50)) model.add(Dense(1)) model.compile(loss='mean_squared_error', optimizer='adam') model.fit(trainX, trainY, epochs=6, batch_size=1, verbose=2) trainPredict = model.predict(trainX) testPredict = model.predict(testX) trainPredict = scaler.inverse_transform(trainPredict) trainY = scaler.inverse_transform([trainY]) testPredict = scaler.inverse_transform(testPredict) testY = scaler.inverse_transform([testY])

最新推荐

recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【实战演练】增量式PID的simulink仿真实现

# 2.1 Simulink仿真环境简介 Simulink是MATLAB中用于建模、仿真和分析动态系统的图形化环境。它提供了一个直观的用户界面,允许用户使用块和连接线来创建系统模型。Simulink模型由以下元素组成: - **子系统:**将复杂系统分解成更小的、可管理的模块。 - **块:**代表系统中的组件,如传感器、执行器和控制器。 - **连接线:**表示信号在块之间的流动。 Simulink仿真环境提供了广泛的块库,涵盖了各种工程学科,包括控制系统、电子和机械工程。它还支持用户自定义块的创建,以满足特定仿真需求。 # 2. Simulink仿真环境的搭建和建模 ### 2.
recommend-type

训练集和测试集的准确率都99%,但是预测效果不好

即使训练集和测试集的准确率都很高,但是在实际的预测中表现不佳,可能会有以下几个原因: 1. 数据质量问题:模型训练和测试的数据可能存在问题,比如数据标签错误、数据集采样不均衡、数据集中存在异常值等问题,这些问题可能会导致模型在实际预测中表现不佳。 2. 特征工程问题:模型的特征工程可能存在问题,导致模型无法很好地捕捉数据的特征,从而影响预测效果。 3. 模型选择问题:模型的选择可能不合适,比如选择的模型太简单,无法很好地拟合数据,或者选择的模型太复杂,导致过拟合等问题。 4. 超参数调整问题:模型的超参数可能没有调整到最佳状态,需要进行调整。 针对以上可能的原因,可以采取相应的措施进
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【实战演练】MATLAB simulink船舶动力定位模拟器

# 1. MATLAB Simulink 简介** MATLAB Simulink 是 MathWorks 公司开发的一款图形化建模和仿真软件,广泛应用于工程、科学和教育领域。它提供了丰富的模块库和仿真环境,使工程师能够快速构建和仿真复杂系统。 Simulink 的核心概念是基于块状图建模,其中每个模块代表一个特定的功能或组件。用户可以通过拖放模块并连接它们来创建系统模型。Simulink 提供了广泛的模块库,涵盖了信号处理、控制系统、动力学和通信等领域。 此外,Simulink 还支持自定义模块开发,允许用户创建自己的模块来扩展其功能。这使得 Simulink 成为一个高度灵活的仿真平
recommend-type

linux下RS485怎么实现

在Linux下实现RS485通信,需要做以下几个步骤: 1. 确认硬件支持:首先需要确认通信设备硬件是否支持RS485通信,如果不支持需要更换支持RS485通信的硬件设备。 2. 配置串口参数:在Linux下使用RS485通信,需要对串口进行一些特殊的配置。例如,需要将串口设置为半双工模式、开启硬件流控等。可以使用Linux提供的stty命令或者相关API接口进行配置。 3. 编写应用程序:通过Linux提供的串口API接口,编写应用程序实现RS485通信。在应用程序中需要设置对应的串口参数,以及发送和接收数据的逻辑。 4. 配置硬件电平转换器:在使用RS485通信时,需要将串口的逻辑
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。
recommend-type

关系数据表示学习

关系数据卢多维奇·多斯桑托斯引用此版本:卢多维奇·多斯桑托斯。关系数据的表示学习机器学习[cs.LG]。皮埃尔和玛丽·居里大学-巴黎第六大学,2017年。英语。NNT:2017PA066480。电话:01803188HAL ID:电话:01803188https://theses.hal.science/tel-01803188提交日期:2018年HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaireUNIVERSITY PIERRE和 MARIE CURIE计算机科学、电信和电子学博士学院(巴黎)巴黎6号计算机科学实验室D八角形T HESIS关系数据表示学习作者:Ludovic DOS SAntos主管:Patrick GALLINARI联合主管:本杰明·P·伊沃瓦斯基为满足计算机科学博士学位的要求而提交的论文评审团成员:先生蒂埃里·A·退休记者先生尤尼斯·B·恩