翻译代码 public static String formattedOutput(ArrayList<ECCEG.CipherPair> data) { StringBuilder sb = new StringBuilder(); for(ECCEG.CipherPair pairpoint:data){ EllipticalCurve.Point p1=pairpoint.getP1(); EllipticalCurve.Point p2=pairpoint.getP2(); sb.append("[("); sb.append(p1.getX().toString(16)); sb.append(","); sb.append(p1.getY().toString(16)); sb.append("), ("); sb.append(p2.getX().toString(16)); sb.append(","); sb.append(p2.getY().toString(16)); sb.append(")]"); sb.append("\n"); } return sb.toString(); }

时间: 2024-04-27 18:21:15 浏览: 17
这段代码的作用是将一个 ArrayList 中的数据按照一定格式进行输出。具体来说,它会遍历 ArrayList 中的每个 ECCEG.CipherPair 对象,获取其中存储的两个椭圆曲线上的点,并将它们按照 "(x1,y1), (x2,y2)" 的格式输出到 StringBuilder 中。每个输出之间会用 "[]" 包裹,并在输出的最后加上一个换行符。最终,这个方法会返回 StringBuilder 中存储的字符串。
相关问题

java8实现:将List<ADto>出力成csv文件。参数为List<ADto>、ADto.class、filePath

可以使用Java 8提供的Stream API来实现将List<ADto>输出成csv文件的功能。具体实现步骤如下: 1. 定义csv文件的列头信息。 2. 使用Stream API将List<ADto>转换为List<String[]>,其中每个String数组表示一行csv数据。 3. 使用Java 8提供的Files.write()方法将List<String[]>写入到csv文件中。 以下是完整的代码实现: ```java import java.io.IOException; import java.lang.reflect.Field; import java.nio.file.Files; import java.nio.file.Paths; import java.util.ArrayList; import java.util.List; import java.util.stream.Collectors; import java.util.stream.Stream; public class CsvUtil { /** * 将List<ADto>输出成csv文件 * * @param dataList 数据列表 * @param clazz 数据类 * @param filePath 文件路径 */ public static <T> void writeCsv(List<T> dataList, Class<T> clazz, String filePath) throws IOException { // 定义csv文件的列头信息 String[] headers = getFieldNames(clazz); // 将List<ADto>转换为List<String[]>,其中每个String数组表示一行csv数据 List<String[]> rows = dataList.stream() .map(data -> { String[] row = new String[headers.length]; for (int i = 0; i < headers.length; i++) { try { Field field = clazz.getDeclaredField(headers[i]); field.setAccessible(true); Object value = field.get(data); row[i] = value == null ? "" : value.toString(); } catch (ReflectiveOperationException e) { e.printStackTrace(); } } return row; }) .collect(Collectors.toList()); // 将List<String[]>写入到csv文件中 Files.write(Paths.get(filePath), encodeCsv(rows).getBytes()); } /** * 获取类的所有字段名 */ private static <T> String[] getFieldNames(Class<T> clazz) { return Stream.of(clazz.getDeclaredFields()) .map(Field::getName) .toArray(String[]::new); } /** * 编码csv数据 */ private static String encodeCsv(List<String[]> rows) { StringBuilder sb = new StringBuilder(); for (String[] row : rows) { for (int i = 0; i < row.length; i++) { sb.append(row[i]); if (i < row.length - 1) { sb.append(","); } } sb.append("\n"); } return sb.toString(); } } ``` 使用示例: ```java public static void main(String[] args) throws IOException { // 构造数据列表 List<ADto> dataList = new ArrayList<>(); dataList.add(new ADto("001", "foo", 20)); dataList.add(new ADto("002", "bar", 30)); // 输出csv文件 CsvUtil.writeCsv(dataList, ADto.class, "output.csv"); } ``` 其中ADto为数据类,定义如下: ```java public class ADto { private String id; private String name; private int age; public ADto(String id, String name, int age) { this.id = id; this.name = name; this.age = age; } public String getId() { return id; } public void setId(String id) { this.id = id; } public String getName() { return name; } public void setName(String name) { this.name = name; } public int getAge() { return age; } public void setAge(int age) { this.age = age; } } ```

cart分类算法 java代码

以下是一个简单的使用 CART 决策树算法的 Java 代码示例: ```java import java.util.ArrayList; import java.util.HashMap; public class CART { public static void main(String[] args) { // 构造训练集数据 ArrayList<HashMap<String, String>> trainData = new ArrayList<>(); HashMap<String, String> data1 = new HashMap<>(); data1.put("age", "青年"); data1.put("income", "高"); data1.put("student", "否"); data1.put("credit_rating", "一般"); data1.put("class", "不放贷"); trainData.add(data1); HashMap<String, String> data2 = new HashMap<>(); data2.put("age", "青年"); data2.put("income", "高"); data2.put("student", "否"); data2.put("credit_rating", "好"); data2.put("class", "不放贷"); trainData.add(data2); HashMap<String, String> data3 = new HashMap<>(); data3.put("age", "中年"); data3.put("income", "高"); data3.put("student", "否"); data3.put("credit_rating", "好"); data3.put("class", "放贷"); trainData.add(data3); HashMap<String, String> data4 = new HashMap<>(); data4.put("age", "中年"); data4.put("income", "中等"); data4.put("student", "否"); data4.put("credit_rating", "好"); data4.put("class", "放贷"); trainData.add(data4); HashMap<String, String> data5 = new HashMap<>(); data5.put("age", "中年"); data5.put("income", "中等"); data5.put("student", "是"); data5.put("credit_rating", "一般"); data5.put("class", "放贷"); trainData.add(data5); HashMap<String, String> data6 = new HashMap<>(); data6.put("age", "老年"); data6.put("income", "中等"); data6.put("student", "是"); data6.put("credit_rating", "好"); data6.put("class", "放贷"); trainData.add(data6); HashMap<String, String> data7 = new HashMap<>(); data7.put("age", "老年"); data7.put("income", "低"); data7.put("student", "是"); data7.put("credit_rating", "好"); data7.put("class", "不放贷"); trainData.add(data7); HashMap<String, String> data8 = new HashMap<>(); data8.put("age", "老年"); data8.put("income", "低"); data8.put("student", "否"); data8.put("credit_rating", "一般"); data8.put("class", "不放贷"); trainData.add(data8); // 训练决策树模型 DecisionTreeModel model = train(trainData); System.out.println("决策树模型:" + model); // 预测新数据 HashMap<String, String> newData = new HashMap<>(); newData.put("age", "青年"); newData.put("income", "中等"); newData.put("student", "否"); newData.put("credit_rating", "一般"); String result = predict(newData, model); System.out.println("新数据预测结果:" + result); } /** * 训练决策树模型 * @param trainData 训练集数据 * @return 决策树模型 */ public static DecisionTreeModel train(ArrayList<HashMap<String, String>> trainData) { // 获取训练集属性列表 ArrayList<String> attributeList = new ArrayList<>(); for (String key : trainData.get(0).keySet()) { attributeList.add(key); } // 构建决策树模型 DecisionTreeModel model = new DecisionTreeModel(); buildDecisionTree(trainData, attributeList, model); return model; } /** * 构建决策树 * @param trainData 训练集数据 * @param attributeList 属性列表 * @param model 决策树模型 */ public static void buildDecisionTree(ArrayList<HashMap<String, String>> trainData, ArrayList<String> attributeList, DecisionTreeModel model) { // 如果训练集中所有数据属于同一类别,则将当前节点设置为叶子节点,并返回 boolean isSameClass = true; String firstClass = trainData.get(0).get("class"); for (HashMap<String, String> data : trainData) { if (!data.get("class").equals(firstClass)) { isSameClass = false; break; } } if (isSameClass) { model.isLeaf = true; model.className = firstClass; return; } // 如果属性列表为空,则将当前节点设置为叶子节点,并将其类别设置为训练集中最常见的类别 if (attributeList.isEmpty()) { model.isLeaf = true; model.className = getMostCommonClass(trainData); return; } // 选择最佳属性(即使得信息增益最大的属性) String bestAttribute = getBestAttribute(trainData, attributeList); model.attributeName = bestAttribute; // 根据最佳属性分裂训练集 ArrayList<ArrayList<HashMap<String, String>>> splitDataList = splitData(trainData, bestAttribute); // 递归构建子树 ArrayList<String> newAttributeList = new ArrayList<>(attributeList); newAttributeList.remove(bestAttribute); // 在属性列表中删除已经使用的属性 for (ArrayList<HashMap<String, String>> splitData : splitDataList) { DecisionTreeModel subModel = new DecisionTreeModel(); model.subModelList.add(subModel); buildDecisionTree(splitData, newAttributeList, subModel); } } /** * 预测新数据 * @param newData 新数据 * @param model 决策树模型 * @return 预测结果 */ public static String predict(HashMap<String, String> newData, DecisionTreeModel model) { // 如果当前节点是叶子节点,则返回其类别 if (model.isLeaf) { return model.className; } // 根据当前节点的属性进行分裂 String attributeValue = newData.get(model.attributeName); for (DecisionTreeModel subModel : model.subModelList) { if (subModel.attributeValue.equals(attributeValue)) { return predict(newData, subModel); } } // 如果当前节点没有与新数据匹配的子节点,则将其类别设置为训练集中最常见的类别 return getMostCommonClass(model.trainData); } /** * 获取训练集中最常见的类别 * @param trainData 训练集数据 * @return 最常见的类别 */ public static String getMostCommonClass(ArrayList<HashMap<String, String>> trainData) { HashMap<String, Integer> classCountMap = new HashMap<>(); for (HashMap<String, String> data : trainData) { String className = data.get("class"); if (classCountMap.containsKey(className)) { classCountMap.put(className, classCountMap.get(className) + 1); } else { classCountMap.put(className, 1); } } String mostCommonClass = ""; int maxCount = -1; for (String className : classCountMap.keySet()) { int count = classCountMap.get(className); if (count > maxCount) { mostCommonClass = className; maxCount = count; } } return mostCommonClass; } /** * 获取训练集中最佳属性 * @param trainData 训练集数据 * @param attributeList 属性列表 * @return 最佳属性 */ public static String getBestAttribute(ArrayList<HashMap<String, String>> trainData, ArrayList<String> attributeList) { String bestAttribute = ""; double maxInformationGain = -1; for (String attribute : attributeList) { double informationGain = calculateInformationGain(trainData, attribute); if (informationGain > maxInformationGain) { bestAttribute = attribute; maxInformationGain = informationGain; } } return bestAttribute; } /** * 根据指定属性值分裂训练集 * @param trainData 训练集数据 * @param attributeName 属性名称 * @return 分裂后的数据集列表 */ public static ArrayList<ArrayList<HashMap<String, String>>> splitData(ArrayList<HashMap<String, String>> trainData, String attributeName) { ArrayList<ArrayList<HashMap<String, String>>> splitDataList = new ArrayList<>(); for (HashMap<String, String> data : trainData) { String attributeValue = data.get(attributeName); boolean isSplitDataExist = false; for (ArrayList<HashMap<String, String>> splitData : splitDataList) { if (splitData.get(0).get(attributeName).equals(attributeValue)) { splitData.add(data); isSplitDataExist = true; break; } } if (!isSplitDataExist) { ArrayList<HashMap<String, String>> newSplitData = new ArrayList<>(); newSplitData.add(data); splitDataList.add(newSplitData); } } for (ArrayList<HashMap<String, String>> splitData : splitDataList) { if (splitData.size() > 0) { String attributeValue = splitData.get(0).get(attributeName); DecisionTreeModel subModel = new DecisionTreeModel(); subModel.attributeName = attributeName; subModel.attributeValue = attributeValue; subModel.trainData = splitData; } } return splitDataList; } /** * 计算指定属性的信息增益 * @param trainData 训练集数据 * @param attributeName 属性名称 * @return 信息增益 */ public static double calculateInformationGain(ArrayList<HashMap<String, String>> trainData, String attributeName) { // 计算训练集的熵 double entropy = calculateEntropy(trainData); // 计算分裂后的熵 double splitEntropy = 0; ArrayList<ArrayList<HashMap<String, String>>> splitDataList = splitData(trainData, attributeName); for (ArrayList<HashMap<String, String>> splitData : splitDataList) { double splitDataEntropy = calculateEntropy(splitData); double splitDataProbability = (double) splitData.size() / trainData.size(); splitEntropy += splitDataEntropy * splitDataProbability; } // 计算信息增益 double informationGain = entropy - splitEntropy; return informationGain; } /** * 计算数据集的熵 * @param dataList 数据集 * @return 熵 */ public static double calculateEntropy(ArrayList<HashMap<String, String>> dataList) { HashMap<String, Integer> classCountMap = new HashMap<>(); for (HashMap<String, String> data : dataList) { String className = data.get("class"); if (classCountMap.containsKey(className)) { classCountMap.put(className, classCountMap.get(className) + 1); } else { classCountMap.put(className, 1); } } double entropy = 0; for (String className : classCountMap.keySet()) { double probability = (double) classCountMap.get(className) / dataList.size(); entropy -= probability * Math.log(probability) / Math.log(2); } return entropy; } } /** * 决策树模型 */ class DecisionTreeModel { public boolean isLeaf; // 是否是叶子节点 public String attributeName; // 分裂属性名称 public String attributeValue; // 分裂属性值 public ArrayList<DecisionTreeModel> subModelList; // 子模型列表 public String className; // 类别名称 public ArrayList<HashMap<String, String>> trainData; // 训练集数据 public DecisionTreeModel() { this.isLeaf = false; this.attributeName = ""; this.attributeValue = ""; this.subModelList = new ArrayList<>(); this.className = ""; this.trainData = new ArrayList<>(); } public String toString() { StringBuilder sb = new StringBuilder(); if (isLeaf) { sb.append(className); } else { sb.append(attributeName + " -> "); for (DecisionTreeModel subModel : subModelList) { sb.append(subModel.attributeValue + ": " + subModel.toString() + "; "); } } return sb.toString(); } } ``` 这个示例代码实现了一个简化的 CART 决策树算法,并提供了训练和预测的方法。由于数据集比较小,所以没有进行剪枝等优化操作。在实际应用中,可以根据具体情况进行改进。

相关推荐

最新推荐

recommend-type

保险服务门店新年工作计划PPT.pptx

在保险服务门店新年工作计划PPT中,包含了五个核心模块:市场调研与目标设定、服务策略制定、营销与推广策略、门店形象与环境优化以及服务质量监控与提升。以下是每个模块的关键知识点: 1. **市场调研与目标设定** - **了解市场**:通过收集和分析当地保险市场的数据,包括产品种类、价格、市场需求趋势等,以便准确把握市场动态。 - **竞争对手分析**:研究竞争对手的产品特性、优势和劣势,以及市场份额,以进行精准定位和制定有针对性的竞争策略。 - **目标客户群体定义**:根据市场需求和竞争情况,明确服务对象,设定明确的服务目标,如销售额和客户满意度指标。 2. **服务策略制定** - **服务计划制定**:基于市场需求定制服务内容,如咨询、报价、理赔协助等,并规划服务时间表,保证服务流程的有序执行。 - **员工素质提升**:通过专业培训提升员工业务能力和服务意识,优化服务流程,提高服务效率。 - **服务环节管理**:细化服务流程,明确责任,确保服务质量和效率,强化各环节之间的衔接。 3. **营销与推广策略** - **节日营销活动**:根据节庆制定吸引人的活动方案,如新春送福、夏日促销,增加销售机会。 - **会员营销**:针对会员客户实施积分兑换、优惠券等策略,增强客户忠诚度。 4. **门店形象与环境优化** - **环境设计**:优化门店外观和内部布局,营造舒适、专业的服务氛围。 - **客户服务便利性**:简化服务手续和所需材料,提升客户的体验感。 5. **服务质量监控与提升** - **定期评估**:持续监控服务质量,发现问题后及时调整和改进,确保服务质量的持续提升。 - **流程改进**:根据评估结果不断优化服务流程,减少等待时间,提高客户满意度。 这份PPT旨在帮助保险服务门店在新的一年里制定出有针对性的工作计划,通过科学的策略和细致的执行,实现业绩增长和客户满意度的双重提升。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB图像去噪最佳实践总结:经验分享与实用建议,提升去噪效果

![MATLAB图像去噪最佳实践总结:经验分享与实用建议,提升去噪效果](https://img-blog.csdnimg.cn/d3bd9b393741416db31ac80314e6292a.png) # 1. 图像去噪基础 图像去噪旨在从图像中去除噪声,提升图像质量。图像噪声通常由传感器、传输或处理过程中的干扰引起。了解图像噪声的类型和特性对于选择合适的去噪算法至关重要。 **1.1 噪声类型** * **高斯噪声:**具有正态分布的加性噪声,通常由传感器热噪声引起。 * **椒盐噪声:**随机分布的孤立像素,值要么为最大值(白色噪声),要么为最小值(黑色噪声)。 * **脉冲噪声
recommend-type

InputStream in = Resources.getResourceAsStream

`Resources.getResourceAsStream`是MyBatis框架中的一个方法,用于获取资源文件的输入流。它通常用于加载MyBatis配置文件或映射文件。 以下是一个示例代码,演示如何使用`Resources.getResourceAsStream`方法获取资源文件的输入流: ```java import org.apache.ibatis.io.Resources; import java.io.InputStream; public class Example { public static void main(String[] args) {
recommend-type

车辆安全工作计划PPT.pptx

"车辆安全工作计划PPT.pptx" 这篇文档主要围绕车辆安全工作计划展开,涵盖了多个关键领域,旨在提升车辆安全性能,降低交通事故发生率,以及加强驾驶员的安全教育和交通设施的完善。 首先,工作目标是确保车辆结构安全。这涉及到车辆设计和材料选择,以增强车辆的结构强度和耐久性,从而减少因结构问题导致的损坏和事故。同时,通过采用先进的电子控制和安全技术,提升车辆的主动和被动安全性能,例如防抱死刹车系统(ABS)、电子稳定程序(ESP)等,可以显著提高行驶安全性。 其次,工作内容强调了建立和完善车辆安全管理体系。这包括制定车辆安全管理制度,明确各级安全管理责任,以及确立安全管理的指导思想和基本原则。同时,需要建立安全管理体系,涵盖安全组织、安全制度、安全培训和安全检查等,确保安全管理工作的系统性和规范性。 再者,加强驾驶员安全培训是另一项重要任务。通过培训提高驾驶员的安全意识和技能水平,使他们更加重视安全行车,了解并遵守交通规则。培训内容不仅包括交通法规,还涉及安全驾驶技能和应急处置能力,以应对可能发生的突发情况。 此外,文档还提到了严格遵守交通规则的重要性。这需要通过宣传和执法来强化,以降低由于违反交通规则造成的交通事故。同时,优化道路交通设施,如改善交通标志、标线和信号灯,可以提高道路通行效率,进一步增强道路安全性。 在实际操作层面,工作计划中提到了车辆定期检查的必要性,包括对刹车、转向、悬挂、灯光、燃油和电器系统的检查,以及根据车辆使用情况制定检查计划。每次检查后应记录问题并及时处理,以确保车辆始终处于良好状态。 最后,建立车辆安全信息管理系统也是关键。通过对车辆事故和故障情况进行记录和分析,可以为安全管理提供数据支持,以便及时发现问题,预防潜在风险,并对事故进行有效处理和责任追究。 这份车辆安全工作计划全面覆盖了从车辆本身到驾驶员行为,再到道路环境的诸多方面,旨在构建一个全方位、多层次的车辆安全管理体系,以降低交通事故风险,保障道路交通安全。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

MATLAB图像去噪行业应用:从医疗到遥感,解锁图像去噪的无限潜力

![MATLAB图像去噪行业应用:从医疗到遥感,解锁图像去噪的无限潜力](https://img-blog.csdnimg.cn/img_convert/3aa5d0402a313c17c3c9ffa85b40f683.png) # 1. MATLAB图像去噪概述 **1.1 图像去噪的重要性** 图像去噪是图像处理中一项至关重要的任务,它旨在从图像中去除不需要的噪声,从而提高图像的质量和可理解性。图像噪声可能来自各种来源,如传感器缺陷、环境干扰和数据传输错误。 **1.2 MATLAB图像去噪的优势** MATLAB是一个强大的技术计算环境,提供了一系列图像去噪算法和工具。MATLA
recommend-type

使用pyrhon编写mapreduce

MapReduce是一种用于处理大规模数据集的编程模型和算法。它通常用于分布式计算环境中,可以高效地处理大量数据并实现并行计算。在Python中,我们可以使用Hadoop Streaming来编写MapReduce程序。 下面是使用Python编写MapReduce的基本步骤: 1. Map阶段: - 编写一个mapper函数,该函数接收输入数据并将其转换为键值对的形式。 - 使用标准输入(sys.stdin)读取输入数据,并使用标准输出(sys.stdout)输出键值对。 2. Reduce阶段: - 编写一个reducer函数,该函数接收来自mapper函数输出的键
recommend-type

ipqc工作总结PPT.pptx

"这是一份关于IPQC(在制品质量控制)的工作总结PPT,涵盖了IPQC的角色定义、工作总结、质量月报、质量提升计划、团队发展计划以及未来展望。" IPQC,全称为InProcess Quality Control,在制品质量控制,是制造过程中至关重要的一个环节。IPQC的主要职责在于通过抽检和检验在制品,确保生产出的产品符合预设的质量标准和客户期望。他们的工作包括但不限于: 1. **质量检验与控制**:对在制品进行定期抽样检验,以确认产品质量是否达标。 2. **环境与设备监控**:检查生产现场的环境条件和设备运行状态,确保符合生产要求。 3. **关键控制点检查**:在生产的关键阶段进行严格检查,及时发现问题。 4. **不合格品管理**:对不合格品进行标识、隔离,并追踪问题的解决过程。 5. **制定检验计划**:根据生产计划和产品标准,制定相应的检验程序和标准。 6. **数据收集与分析**:记录检验数据,通过分析找出潜在问题,提出改善建议。 在工作总结部分,IPQC强调了实时监控生产过程,确保每个环节都符合质量标准。他们定期抽检产品,快速反馈问题,并进行异常分析与改进,防止问题重复出现。此外,IPQC还负责对新员工进行培训,提高团队协作和管理,以提升整体工作效率和质量水平。 在IPQC质量月报中,提到了质量目标的达成情况。虽然目标完成率达到了98%,但仍有2%的差距,主要是由于员工操作失误和质量监控不足造成的。为了改进,IPQC计划加强员工培训,提高操作技能,增强质量意识,并增加检查频率,以更严格地控制产品质量。 对于未来的展望,IPQC可能会进一步强化团队建设,优化工作流程,持续提升产品质量,以达到更高的客户满意度。团队发展计划可能包括更系统的员工培训、更高效的沟通机制以及更有激励性的管理策略。 这份PPT详细呈现了IPQC在确保产品质量、处理异常情况、提高团队绩效等方面的工作内容和挑战,同时也展现了IPQC团队对质量提升和团队发展的持续关注和努力。
recommend-type

关系数据表示学习

关系数据卢多维奇·多斯桑托斯引用此版本:卢多维奇·多斯桑托斯。关系数据的表示学习机器学习[cs.LG]。皮埃尔和玛丽·居里大学-巴黎第六大学,2017年。英语。NNT:2017PA066480。电话:01803188HAL ID:电话:01803188https://theses.hal.science/tel-01803188提交日期:2018年HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaireUNIVERSITY PIERRE和 MARIE CURIE计算机科学、电信和电子学博士学院(巴黎)巴黎6号计算机科学实验室D八角形T HESIS关系数据表示学习作者:Ludovic DOS SAntos主管:Patrick GALLINARI联合主管:本杰明·P·伊沃瓦斯基为满足计算机科学博士学位的要求而提交的论文评审团成员:先生蒂埃里·A·退休记者先生尤尼斯·B·恩