datasets import list_metrics的时候报错,说没有

时间: 2024-09-15 07:13:54 浏览: 9
看起来你在导入`datasets`库中的`list_metrics`函数时遇到了错误,可能是由于以下几个原因: 1. **模块未安装**:首先确认你是否已经安装了Hugging Face的`datasets`库。如果没有,你可以通过pip来安装: ``` pip install datasets ``` 2. **版本兼容性**:如果你的`datasets`版本过旧,可能没有包含这个功能。检查库的最新版本并更新。 3. **导入路径问题**:确保你是在正确的文件夹或环境中导入`list_metrics`。如果不是在`datasets`相关的项目目录下,你需要指定正确的路径。 4. **API改变**:有时候,API可能会有变动,导致某些函数名不再存在。查看最新的文档确认是否有替代函数。 5. **命名冲突**:检查你的代码中是否有其他同名的函数或变量导致了这个名字被覆盖。 如果上述都没有解决,提供具体的错误信息会更有帮助。遇到此类问题时,尝试运行`import datasets; help(datasets)`看看有没有关于`list_metrics`的可用信息。
相关问题

请利用lightGBM算法对sklearn.datasets.fetch_20newsgroups的数据进行预测,python代码展示及结果展示

好的,首先需要安装依赖库scikit-learn、lightGBM和pandas: ``` !pip install scikit-learn !pip install lightgbm !pip install pandas ``` 接下来是使用lightGBM算法对20newsgroups数据集进行分类的Python代码: ```python from sklearn.datasets import fetch_20newsgroups from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score import lightgbm as lgb import pandas as pd # 加载数据集并分割训练集和测试集 newsgroups = fetch_20newsgroups(subset='all') X_train, X_test, y_train, y_test = train_test_split(newsgroups.data, newsgroups.target, test_size=0.2, random_state=42) # 把文本数据转换为数值特征 vectorizer = CountVectorizer(stop_words='english') tfidf_transformer = TfidfTransformer() X_train_counts = vectorizer.fit_transform(X_train) X_train_tfidf = tfidf_transformer.fit_transform(X_train_counts) X_test_counts = vectorizer.transform(X_test) X_test_tfidf = tfidf_transformer.transform(X_test_counts) # 训练模型 params = {'boosting_type': 'gbdt', 'objective': 'multiclass', 'num_class': len(newsgroups.target_names), 'metric': 'multi_logloss'} train_data = lgb.Dataset(X_train_tfidf, label=y_train) model = lgb.train(params, train_data) # 在测试集上进行预测 y_pred = model.predict(X_test_tfidf) y_pred = [list(x).index(max(x)) for x in y_pred] # 计算准确率 accuracy = accuracy_score(y_test, y_pred) print('Accuracy:', accuracy) # 把预测结果保存到csv文件中 test_df = pd.DataFrame({'text': X_test, 'true_label': y_test, 'pred_label': y_pred}) test_df.to_csv('newsgroups_pred.csv', index=False) ``` 运行上述代码后,会输出测试集上的准确率,结果大约为0.67-0.68左右。同时,训练完成后会将预测结果保存到一个csv文件中。

使用TensorFlow对https://raw.githubusercontent.com/SophonPlus/ChineseNlpCorpus/master/datasets/waimai_10k/waimai_10k.csv该文本进行文本分类

好的,首先需要做的是加载数据集,可以使用Pandas库读取CSV文件。代码如下: ```python import pandas as pd data = pd.read_csv("https://raw.githubusercontent.com/SophonPlus/ChineseNlpCorpus/master/datasets/waimai_10k/waimai_10k.csv") ``` 接下来,我们需要对文本进行预处理,包括去除停用词、分词、将文本转换为数字等。这里我们使用jieba和sklearn库来实现。代码如下: ```python import jieba from sklearn.feature_extraction.text import CountVectorizer from sklearn.model_selection import train_test_split stopwords = [line.strip() for line in open('stopwords.txt', 'r', encoding='utf-8').readlines()] def preprocess_text(text): text = ''.join([word for word in text if word not in stopwords]) seg_list = jieba.cut(text) return " ".join(seg_list) data['text'] = data['review'].apply(preprocess_text) vectorizer = CountVectorizer() X = vectorizer.fit_transform(data['text']) y = data['label'] X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) ``` 最后,我们使用TensorFlow来搭建文本分类模型。这里我们使用全连接神经网络(Dense)作为模型结构,使用交叉熵损失函数和Adam优化器进行训练。代码如下: ```python import tensorflow as tf from tensorflow.keras import layers model = tf.keras.Sequential([ layers.Dense(64, activation='relu', input_shape=(X_train.shape[1],)), layers.Dense(32, activation='relu'), layers.Dense(1, activation='sigmoid') ]) model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) model.fit(X_train, y_train, epochs=10, batch_size=32) ``` 以上代码只是一个简单的例子,实际的文本分类任务可能需要更复杂的模型和更多的预处理步骤。

相关推荐

import pandas as pd from sklearn.datasets import load_wine from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.feature_selection import SelectKBest, f_classif from sklearn.decomposition import PCA from sklearn.metrics import accuracy_score, classification_report from sklearn.tree import DecisionTreeClassifier from sklearn.metrics import accuracy_score from sklearn.ensemble import RandomForestClassifier from sklearn.neighbors import KNeighborsClassifier from sklearn.naive_bayes import GaussianNB from sklearn.linear_model import LogisticRegression from sklearn.svm import SVC data = load_wine() # 导入数据集 X = pd.DataFrame(data.data, columns=data.feature_names) y = pd.Series(data.target) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 构建分类模型 model = LogisticRegression() model.fit(X_train, y_train) # 预测测试集结果 y_pred = model.predict(X_test) #评估模型性能 accuracy = accuracy_score(y_test, y_pred) report = classification_report(y_test, y_pred) print('准确率:', accuracy) # 特征选择 selector = SelectKBest(f_classif, k=6) X_new = selector.fit_transform(X, y) print('所选特征:', selector.get_support()) # 模型降维 pca = PCA(n_components=2) X_new = pca.fit_transform(X_new) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X_new, y, test_size=0.2, random_state=0) def Sf(model,X_train, X_test, y_train, y_test,modelname): mode = model() mode.fit(X_train, y_train) y_pred = mode.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print(modelname, accuracy) importance = mode.feature_importances_ print(importance) def Sf1(model,X_train, X_test, y_train, y_test,modelname): mode = model() mode.fit(X_train, y_train) y_pred = mode.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print(modelname, accuracy) modelname='支持向量机' Sf1(SVC,X_train, X_test, y_train, y_test,modelname) modelname='逻辑回归' Sf1(LogisticRegression,X_train, X_test, y_train, y_test,modelname) modelname='高斯朴素贝叶斯算法训练分类器' Sf1(GaussianNB,X_train, X_test, y_train, y_test,modelname) modelname='K近邻分类' Sf1(KNeighborsClassifier,X_train, X_test, y_train, y_test,modelname) modelname='决策树分类' Sf(DecisionTreeClassifier,X_train, X_test, y_train, y_test,modelname) modelname='随机森林分类' Sf(RandomForestClassifier,X_train, X_test, y_train, y_test,modelname)加一个画图展示

import numpy as np import matplotlib.pyplot as plt from sklearn import svm from sklearn.datasets import make_blobs from sklearn import model_selection from sklearn.metrics import f1_score def show_svm(a, b, bt): plt.figure(bt) plt.title('SVM with ' + bt) # 建立图像坐标 axis = plt.gca() plt.scatter(a[:, 0], a[:, 1], c=b, s=30) xlim = [a[:, 0].min(), a[:, 0].max()] ylim = [a[:, 1].min(), a[:, 1].max()] # 生成两个等差数列 xx = np.linspace(xlim[0], xlim[1], 50) yy = np.linspace(ylim[0], ylim[1], 50) X, Y = np.meshgrid(xx, yy) xy = np.vstack([X.ravel(), Y.ravel()]).T Z = clf.decision_function(xy).reshape(X.shape) # 画出分界线 axis.contour(X, Y, Z, colors='k', levels=[-1, 0, 1], alpha=0.5, linestyles=['--', '-', '--']) axis.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1], s=200, linewidths=1, facecolors='none') if __name__ == '__main__': # data = np.loadtxt('separable_data.txt', delimiter=',') # data = np.loadtxt('non_separable_data.txt', delimiter=',') # data = np.loadtxt('banknote.txt', delimiter=',') data = np.loadtxt('ionosphere.txt', delimiter=',') # data = np.loadtxt('wdbc.txt', delimiter=',') X = data[:, 0:-1] y = data[:, -1] """标签中有一类标签为1""" y = y + 1 ymin = min(y) if not (1 in set(y)): ll = max(list(set(y))) + 1 for i in range(len(y)): if y[i] == ymin: y[i] = 1 # 建立一个线性核(多项式核)的SVM clf = svm.SVC(kernel='linear') clf.fit(X, y) """显示所有数据用于训练后的可视化结果""" show_svm(X, y, 'all dataset') """divide the data into two sections: training and test datasets""" X_train, X_test, y_train, y_test = model_selection.train_test_split(X, y, test_size=0.1, random_state=42) """training""" clf = svm.SVC(kernel='linear')#线性内核 # clf = svm.SVC(kernel='poly')# 多项式内核 # clf = svm.SVC(kernel='sigmoid')# Sigmoid内核 clf.fit(X_train, y_train) # show_svm(X_train, y_train, 'training dataset') """predict""" pred = clf.predict(X_test) pred = np.array(pred) y_test = np.array(y_test) print(f'SVM 的预测结果 f1-score:{f1_score(y_test, pred)}') # plt.show()结果与分析

import streamlit as st import numpy as np import pandas as pd import pickle import matplotlib.pyplot as plt from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.decomposition import PCA from sklearn.svm import SVC from sklearn.neighbors import KNeighborsClassifier from sklearn.ensemble import RandomForestClassifier import streamlit_echarts as st_echarts from sklearn.metrics import accuracy_score,confusion_matrix,f1_score def pivot_bar(data): option = { "xAxis":{ "type":"category", "data":data.index.tolist() }, "legend":{}, "yAxis":{ "type":"value" }, "series":[ ] }; for i in data.columns: option["series"].append({"data":data[i].tolist(),"name":i,"type":"bar"}) return option st.markdown("mode pracitce") st.sidebar.markdown("mode pracitce") df=pd.read_csv(r"D:\课程数据\old.csv") st.table(df.head()) with st.form("form"): index_val = st.multiselect("choose index",df.columns,["Response"]) agg_fuc = st.selectbox("choose a way",[np.mean,len,np.sum]) submitted1 = st.form_submit_button("Submit") if submitted1: z=df.pivot_table(index=index_val,aggfunc = agg_fuc) st.table(z) st_echarts(pivot_bar(z)) df_copy = df.copy() df_copy.drop(axis=1,columns="Name",inplace=True) df_copy["Response"]=df_copy["Response"].map({"no":0,"yes":1}) df_copy=pd.get_dummies(df_copy,columns=["Gender","Area","Email","Mobile"]) st.table(df_copy.head()) y=df_copy["Response"].values x=df_copy.drop(axis=1,columns="Response").values X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=0.2) with st.form("my_form"): estimators0 = st.slider("estimators",0,100,10) max_depth0 = st.slider("max_depth",1,10,2) submitted = st.form_submit_button("Submit") if "model" not in st.session_state: st.session_state.model = RandomForestClassifier(n_estimators=estimators0,max_depth=max_depth0, random_state=1234) st.session_state.model.fit(X_train, y_train) y_pred = st.session_state.model.predict(X_test) st.table(confusion_matrix(y_test, y_pred)) st.write(f1_score(y_test, y_pred)) if st.button("save model"): pkl_filename = "D:\\pickle_model.pkl" with open(pkl_filename, 'wb') as file: pickle.dump(st.session_state.model, file) 会出什么错误

最新推荐

recommend-type

WebLogic集群配置与管理实战指南

"Weblogic 集群管理涵盖了WebLogic服务器的配置、管理和监控,包括Adminserver、proxyserver、server1和server2等组件的启动与停止,以及Web发布、JDBC数据源配置等内容。" 在WebLogic服务器管理中,一个核心概念是“域”,它是一个逻辑单元,包含了所有需要一起管理的WebLogic实例和服务。域内有两类服务器:管理服务器(Adminserver)和受管服务器。管理服务器负责整个域的配置和监控,而受管服务器则执行实际的应用服务。要访问和管理这些服务器,可以使用WebLogic管理控制台,这是一个基于Web的界面,用于查看和修改运行时对象和配置对象。 启动WebLogic服务器时,可能遇到错误消息,需要根据提示进行解决。管理服务器可以通过Start菜单、Windows服务或者命令行启动。受管服务器的加入、启动和停止也有相应的步骤,包括从命令行通过脚本操作或在管理控制台中进行。对于跨机器的管理操作,需要考虑网络配置和权限设置。 在配置WebLogic服务器和集群时,首先要理解管理服务器的角色,它可以是配置服务器或监视服务器。动态配置允许在运行时添加和移除服务器,集群配置则涉及到服务器的负载均衡和故障转移策略。新建域的过程涉及多个配置任务,如服务器和集群的设置。 监控WebLogic域是确保服务稳定的关键。可以监控服务器状态、性能指标、集群数据、安全性、JMS、JTA等。此外,还能对JDBC连接池进行性能监控,确保数据库连接的高效使用。 日志管理是排查问题的重要工具。WebLogic提供日志子系统,包括不同级别的日志文件、启动日志、客户端日志等。消息的严重级别和调试功能有助于定位问题,而日志过滤器则能定制查看特定信息。 应用分发是WebLogic集群中的重要环节,支持动态分发以适应变化的需求。可以启用或禁用自动分发,动态卸载或重新分发应用,以满足灵活性和可用性的要求。 最后,配置WebLogic的Web组件涉及HTTP参数、监听端口以及Web应用的部署。这些设置直接影响到Web服务的性能和可用性。 WebLogic集群管理是一门涉及广泛的技术学科,涵盖服务器管理、集群配置、监控、日志管理和应用分发等多个方面,对于构建和维护高性能的企业级应用环境至关重要。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

Python列表操作大全:你不能错过的10大关键技巧

![Python列表操作大全:你不能错过的10大关键技巧](https://blog.finxter.com/wp-content/uploads/2020/06/graphic-1024x576.jpg) # 1. Python列表基础介绍 Python列表是Python中最基本的数据结构之一,它是一个可变的序列类型,可以容纳各种数据类型,如整数、浮点数、字符串、甚至其他列表等。列表用方括号`[]`定义,元素之间用逗号分隔。例如: ```python fruits = ["apple", "banana", "cherry"] ``` 列表提供了丰富的操作方法,通过索引可以访问列表中的
recommend-type

编写完整java程序计算"龟兔赛跑"的结果,龟兔赛跑的起点到终点的距离为800米,乌龟的速度为1米/1000毫秒,兔子的速度为1.2米/1000毫秒,等兔子跑到第600米时选择休息120000毫秒,请编写多线程程序计算龟兔赛跑的结果。

```java public class TortoiseAndHareRace { private static final int TOTAL_DISTANCE = 800; private static final int TORTOISE_SPEED = 1 * 1000; // 1米/1000毫秒 private static final int RABBIT_SPEED = 1.2 * 1000; // 1.2米/1000毫秒 private static final int REST_TIME = 120000; // 兔子休息时间(毫秒)
recommend-type

AIX5.3上安装Weblogic 9.2详细步骤

“Weblogic+AIX5.3安装教程” 在AIX 5.3操作系统上安装WebLogic Server是一项关键的任务,因为WebLogic是Oracle提供的一个强大且广泛使用的Java应用服务器,用于部署和管理企业级服务。这个过程对于初学者尤其有帮助,因为它详细介绍了每个步骤。以下是安装WebLogic Server 9.2中文版与AIX 5.3系统配合使用的详细步骤: 1. **硬件要求**: 硬件配置应满足WebLogic Server的基本需求,例如至少44p170aix5.3的处理器和足够的内存。 2. **软件下载**: - **JRE**:首先需要安装Java运行环境,可以从IBM开发者网站下载适用于AIX 5.3的JRE,链接为http://www.ibm.com/developerworks/java/jdk/aix/service.html。 - **WebLogic Server**:下载WebLogic Server 9.2中文版,可从Bea(现已被Oracle收购)的官方网站获取,如http://commerce.bea.com/showallversions.jsp?family=WLSCH。 3. **安装JDK**: - 首先,解压并安装JDK。在AIX上,通常将JRE安装在`/usr/`目录下,例如 `/usr/java14`, `/usr/java5`, 或 `/usr/java5_64`。 - 安装完成后,更新`/etc/environment`文件中的`PATH`变量,确保JRE可被系统识别,并执行`source /etc/environment`使更改生效。 - 在安装过程中,确保接受许可协议(设置为“yes”)。 4. **安装WebLogic Server**: - 由于中文环境下可能出现问题,建议在英文环境中安装。设置环境变量`LANG=US`,然后运行安装命令,如:`export LANG=US; java -jar -Xmx500m server921_ccjk_generic.jar`。 - 安装路径选择`/opt`,确保在安装前有足够空间,如遇到磁盘空间不足,可以使用`chfs`命令扩展`/opt`, `/usr/`, 和 `/tmp`分区。 5. **检查和扩容磁盘空间**: - 在开始安装前,使用`chfs -a size=XXXXM /partition_name`命令检查并扩展所需分区的大小,例如:`chfs -a size=4000M /usr`, `chfs -a size=5000M /opt`, 和 `chfs -a size=1000M /tmp`。 6. **启动设置**: - 安装完成后,为了方便日后自动启动WebLogic Server,需要设置其开机启动。这通常涉及到修改系统服务配置文件或者使用特定工具来管理启动脚本。 7. **确认JDK版本**: 在安装JDK前,通过`java -version`命令检查已安装的JDK版本。例如,可能看到的版本信息是“Java 1.5.0”。 注意,以上步骤是基于描述中给出的版本和环境,实际操作时请根据当前的WebLogic Server和AIX版本进行适应性调整。在安装过程中,务必遵循Oracle或IBM提供的官方文档,以获取最新的安装指南和技术支持。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

Python列表的终极指南:从基础到高级的20个必备技巧

![Python列表的终极指南:从基础到高级的20个必备技巧](https://blog.finxter.com/wp-content/uploads/2023/08/enumerate-1-scaled-1-1.jpg) # 1. Python列表概述 Python列表是一种灵活且功能强大的数据结构,它能够存储一系列有序的元素。列表中的元素可以是任何类型,包括数字、字符串甚至是其他列表。列表在Python编程中应用广泛,可用于执行多种任务,如数据处理、算法实现和系统建模等。理解列表的基本概念和用途对于任何希望深入Python语言的开发者都是基础且重要的一步。通过本章的学习,你将获得关于Py
recommend-type

jeesite sqlMap.getWhere()用法

Jeecsite是一个基于SSH(Spring、Struts2、Hibernate)的企业级快速开发框架,它利用了Ibatis作为持久层技术。`sqlMap.getWhere()`方法主要是为了动态查询数据库,其基本用法如下: 1. 首先,你需要在SqlMapConfig.xml配置文件中定义一个命名空间(namespace),并在其中声明一个SQL映射(select tag),通常会包含一个动态参数的占位符,如`#{condition}`。 ```xml <sqlMap namespace="yourNamespace"> <select id="getWhere" paramet
recommend-type

面向对象编程模拟试题详解与解析

本篇面向对象程序设计模拟试题涵盖了多种关键知识点,旨在帮助考生理解和掌握该领域的核心概念。以下是详细的解析: 1. **布尔逻辑运算** - 题目涉及逻辑运算符&&,在C语言中,当x为bool类型且值为真(非零),&&运算符会保持x的值,如果x为假,则结果与x值相同。因此,选项C正确。 2. **循环结构** - 一个for循环会在条件`i < n`成立时执行,当`i > n/2`时跳出循环。因此,总共执行的次数为`n/2`次,但因为初始条件不包含`i==0`,所以实际执行次数是`n/2 - 1`,选项C是答案。 3. **控制结构转换** - switch语句可以根据不同的case分支执行不同代码块,可以用if-else结构进行等价实现,所以选项B正确。 4. **数组语法错误** - 选项B的数组定义没有初始化所有元素,而数组定义时需要至少分配一个初始值给每个元素,所以错误。 5. **二维数组元素访问** - 定义`inta[3][4]`,元素a[2][1]位于数组的第二个行,第三个元素,由于数组下标从0开始,所以它的值是4,选项B正确。 6. **C++程序执行规则** - C++程序确实总是从`main`函数开始执行,B是正确选项。其他选项A和C有误,C++函数可以无返回值,D错误是因为函数可以放在不同源文件中通过头文件互相调用。 7. **函数相关概念** - 函数可以有多条return语句,A正确;函数可以嵌套调用,但不能嵌套定义,B正确;函数可以无返回值,C错误;不同函数中可以使用同名变量,D正确。 8. **函数原型** - 选项B的`voidFunction(int)`是正确的函数原型声明,它指定了函数名为`voidFunction`,参数类型为整型。 9. **函数返回值计算** - 函数`f`返回字符串`s`结束位置的索引,`"good"`有5个字符,加上结束符'\0',返回值为5,选项C正确。 10. **函数调用和return** - 被调用的函数可以不返回任何值,A正确;可以有多个return语句,但通常只有一个return用于返回值,BC描述正确;D错误,return只能返回一个值。 11. **指针的使用** - 提及了指针`p`的定义和操作,但具体题目内容缺失,可能涉及指针指向字符串或数组元素的操作。 通过这些题目,考生可以检验和提升自己的面向对象程序设计基础,包括逻辑运算、循环控制、数据结构、函数调用、指针使用等方面的知识。复习时务必理解并掌握这些要点。
recommend-type

关系数据表示学习

关系数据卢多维奇·多斯桑托斯引用此版本:卢多维奇·多斯桑托斯。关系数据的表示学习机器学习[cs.LG]。皮埃尔和玛丽·居里大学-巴黎第六大学,2017年。英语。NNT:2017PA066480。电话:01803188HAL ID:电话:01803188https://theses.hal.science/tel-01803188提交日期:2018年HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaireUNIVERSITY PIERRE和 MARIE CURIE计算机科学、电信和电子学博士学院(巴黎)巴黎6号计算机科学实验室D八角形T HESIS关系数据表示学习作者:Ludovic DOS SAntos主管:Patrick GALLINARI联合主管:本杰明·P·伊沃瓦斯基为满足计算机科学博士学位的要求而提交的论文评审团成员:先生蒂埃里·A·退休记者先生尤尼斯·B·恩