def comment_p(x): x = x.replace(r'+','') if '万' in x: x = x.replace(r'万','') x = float(x) * 10000 return int(x) else: return int(x) df['new_comment'] = df['comment'].apply(lambda x: comment_p(x)).astype('int')报错 2 def comment_p(x): ----> 3 x = x.replace(r'+','') 4 if '万' in x: 5 x = x.replace(r'万','') AttributeError: 'float' object has no attribute 'replace'

时间: 2024-01-06 10:05:09 浏览: 65
这个错误提示显示在 `comment_p` 函数中的 `x` 是一个浮点数,而浮点数类型没有 `replace` 方法,所以会出现 `AttributeError`。这可能是因为 `comment` 列中包含了一些浮点数或者其他不支持 `replace` 方法的类型。为了解决这个问题,您可以在 `comment_p` 函数中增加一些数据类型的判断和异常处理,来避免出现这样的错误。例如: ``` def comment_p(x): if isinstance(x, str): x = x.replace(r'+','') if '万' in x: x = x.replace(r'万','') x = float(x) * 10000 return int(x) else: return int(x) else: return x df['new_comment'] = df['comment'].apply(lambda x: comment_p(x)).astype('int') ``` 这样可以确保 `comment_p` 函数中的 `x` 参数是一个字符串类型,避免了 `AttributeError` 的出现。
相关问题

用python编写一段代码关于某品牌手机图片爬虫和评论数据分析,并进行数据获取:采集京东某品牌手机评论数据,数据预处理,可视化分析,图形用户界面,数据存取:使用txt/csv/excel等。网址为https://item.jd.com/100011172363.html,

好的,以下是用 Python 实现该任务的代码示例: ```python import requests from bs4 import BeautifulSoup import json import pandas as pd import jieba import matplotlib.pyplot as plt from wordcloud import WordCloud from tkinter import * from tkinter import ttk from tkinter import filedialog # 爬取京东某品牌手机的图片 def crawl_images(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, headers=headers) html = response.text soup = BeautifulSoup(html, 'html.parser') img_tags = soup.select('.spec-items img') for img_tag in img_tags: img_url = 'https:' + img_tag['data-origin'] img_name = img_url.split('/')[-1] with open(img_name, 'wb') as f: img = requests.get(img_url, headers=headers).content f.write(img) # 爬取京东某品牌手机的评论数据 def crawl_comments(url): comments_url = url.replace('item', 'comment') + '?pageSize=10&callback=fetchJSON_comment98vv18658' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(comments_url, headers=headers) json_str = response.text[len('fetchJSON_comment98vv18658('):-2] comments = json.loads(json_str)['comments'] df = pd.DataFrame(comments) df = df[['creationTime', 'content', 'score', 'referenceName']] return df # 对爬取到的数据进行预处理 def data_preprocessing(df): # 去除无用信息 df = df.dropna(subset=['content']) df = df[df['content'].str.strip() != ''] # 去除重复数据 df = df.drop_duplicates() # 中文分词 df['content'] = df['content'].apply(lambda x: ' '.join(jieba.cut(x))) return df # 可视化分析 def data_visualization(df): # 绘制评分分布图 plt.hist(df['score'], bins=5, alpha=0.5) plt.xlabel('Score') plt.ylabel('Count') plt.title('Score Distribution') plt.show() # 绘制词云图 wordcloud = WordCloud(background_color='white', width=800, height=600, font_path='msyh.ttc').generate(' '.join(df['content'])) plt.imshow(wordcloud, interpolation='bilinear') plt.axis('off') plt.show() # 图形用户界面 def create_gui(): def open_file(): file_path = filedialog.askopenfilename(defaultextension='.csv', filetypes=[('CSV Files', '*.csv'), ('Excel Files', '*.xlsx')]) if file_path: df = pd.read_csv(file_path) text.delete('1.0', END) text.insert('1.0', df.head().to_string()) def save_file(): file_path = filedialog.asksaveasfilename(defaultextension='.csv', filetypes=[('CSV Files', '*.csv'), ('Excel Files', '*.xlsx')]) if file_path: df.to_csv(file_path, index=False) def crawl_and_analyze(): url = url_entry.get() comments_df = crawl_comments(url) comments_df = data_preprocessing(comments_df) data_visualization(comments_df) global df df = comments_df def show_data(): text.delete('1.0', END) text.insert('1.0', df.head().to_string()) root = Tk() root.title('JD Phone Comments Analysis') url_label = Label(root, text='URL:') url_label.grid(row=0, column=0) url_entry = Entry(root, width=50) url_entry.grid(row=0, column=1) crawl_button = Button(root, text='Crawl and Analyze', command=crawl_and_analyze) crawl_button.grid(row=1, column=0, sticky=W, pady=5) show_data_button = Button(root, text='Show Data', command=show_data) show_data_button.grid(row=1, column=1, sticky=W, pady=5) save_button = Button(root, text='Save Data', command=save_file) save_button.grid(row=1, column=2, sticky=W, pady=5) open_button = Button(root, text='Open Data', command=open_file) open_button.grid(row=1, column=3, sticky=W, pady=5) text = Text(root, width=80, height=30) text.grid(row=2, column=0, columnspan=4) root.mainloop() if __name__ == '__main__': url = 'https://item.jd.com/100011172363.html' crawl_images(url) create_gui() ``` 以上代码中,我们首先定义了 `crawl_images` 和 `crawl_comments` 函数,分别用于爬取京东某品牌手机的图片和评论数据,并返回 `pandas.DataFrame` 类型的数据。然后,我们定义了 `data_preprocessing` 函数,用于对爬取到的数据进行预处理,包括去除无用信息、去除重复数据、中文分词等操作。接着,我们定义了 `data_visualization` 函数,用于绘制评分分布图和评论词云图。最后,我们定义了 `create_gui` 函数,用于创建图形用户界面,方便用户进行数据的查看和操作。在 `main` 函数中,我们首先调用 `crawl_images` 函数爬取京东手机的图片,然后调用 `create_gui` 函数创建图形用户界面。

编写一个程序,爬取https://book.douban.com/top250中的250条信息,并按照书名,国籍,作者,出版社,出版时间,售价,评分,评价人数以及评论九个字段进行存储,存储的文件类型为csv文件,文件名为data.csv

好的,您的要求我已经收到了。关于您的问题,我可以为您提供一个Python程序,用于爬取https://book.douban.com/top250网站上的图书信息,并将这些信息存储到CSV文件data.csv中。以下是程序的代码: ``` import requests from bs4 import BeautifulSoup import csv url = 'https://book.douban.com/top250' def get_book_info(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'} res = requests.get(url, headers=headers) soup = BeautifulSoup(res.text, 'html.parser') book_list = soup.find('div', {'class': 'indent', 'style': 'margin-bottom:10px;'}) book_list = book_list.find_all('table') data = [] for book in book_list: book_name = book.find('a')['title'] book_info = book.find('p', {'class': 'pl'}).get_text().replace('\n', '').split('/') book_author = book_info[0] book_country = book_info[1] book_publisher = book_info[2] book_pubdate = book_info[3] book_price = book_info[4].replace('元', '') book_rating = book.find('span', {'class': 'rating_nums'}).get_text() book_comment = book.find('span', {'class': 'pl'}).get_text().replace('(', '').replace(')', '') data.append([book_name, book_country, book_author, book_publisher, book_pubdate, book_price, book_rating, book_comment]) return data data = [] for i in range(10): url = f'https://book.douban.com/top250?start={i*25}' data += get_book_info(url) filename = 'data.csv' with open(filename, mode='w', encoding='utf-8', newline='') as f: csv_writer = csv.writer(f) csv_writer.writerow(['书名', '国籍', '作者', '出版社', '出版时间', '售价', '评分', '评价人数', '评论']) csv_writer.writerows(data) print(f'Successfully scraped {len(data)} books info and saved to {filename}.') ``` 程序解释: 1、首先导入需要的库 requests 、BeautifulSoup 和 csv 。 2、定义起始网址。 3、定义一个函数 get_book_info(url) ,用来获取指定网址 url 上的图书信息,并返回一个列表 data ,列表中包含多个列表,每个小列表包含了一个图书的各种信息。 4、在 main 函数中,循环调用 0-9 页的 data,并使用 += 运算符将它们合并在一起。 5、定义要存储的文件名 data.csv 。 6、使用 csv 内置库,打开文件 data.csv ,设置编码方式为 utf-8 以及文件写入模式为 'w' ,并将其指针赋给 f 。 7、使用 csv_writer.writerow() 方法在第一行写入表头,然后使用 csv_writer.writerows() 方法写入每一行的数据。 8、最后打印一个提示信息。 该程序已经可以帮您完成爬取网页数据并储存为data.csv文件的操作,您可以直接运行程序获取文件。
阅读全文

相关推荐

import requests from lxml import etree import csv import os import pandas as pd import matplotlib.pyplot as plt class MovieDataCollector: def __init__(self): self.url = "https://movie.douban.com/top250?start=%s&filter=" self.headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36' } self.urls = ['https://movie.douban.com/top250?start={}&filter='.format(str(i * 25)) for i in range(10)] self.movies_data = [] def get_first_text(self, element_list): try: return element_list[0].strip() except IndexError: return "" def download_image(self, url, title): response = requests.get(url) image_name = f'{title.replace("/", "_")}.jpg' image_path = os.path.join('films_pic', image_name) with open(image_path, 'wb') as f: f.write(response.content) def scrape_movie_data(self): count = 1 for url in self.urls: res = requests.get(url=url, headers=self.headers) print(res.status_code) html = etree.HTML(res.text) lis = html.xpath('//*[@id="content"]/div/div[1]/ol/li') print('当前是第{}页'.format(count)) for li in lis: rank = self.get_first_text(li.xpath('./div/div[1]/em/text()')) title = self.get_first_text(li.xpath('./div/div[2]/div[1]/a/span[1]/text()')) director = self.get_first_text(li.xpath('./div/div[2]/div[2]/p[1]/text()')) score = self.get_first_text(li.xpath('./div/div[2]/div[2]/div/span[2]/text()')) comment = self.get_first_text(li.xpath('./div/div[2]/div[2]/div/span[4]/text()')) # #下载电影图片 # image_url = self.get_first_text(li.xpath('./div/div[1]/a/img/@src')) # self.download_image(image_url, title) self.movies_data.append({ '排名': rank,解释这段代码

优化代码 def align_annotations(formatted_sql): lines = formatted_sql.split('\n') fields = [] ass=[] comments = [] for line in lines: if line.strip(): line=line.replace('\t',' ') if line.lower().startswith(("where", "left", "on","from","and","group")): fields.append(line) ass.append('') comments.append('') elif ' as ' in line.lower() and '--' in line : parts=line.replace(' as ',' -- ').replace(' AS ',' -- ').split('--') fields.append(parts[0]) ass.append(parts[1]) comments.append(parts[2]) elif ' as ' in line.lower() and '--' not in line : parts=line.replace(' as ',' AS ').split(' AS ') fields.append(parts[0]) ass.append(parts[1]) comments.append('') elif ' as ' not in line.lower() and '--' in line : parts=line.split('--') fields.append(parts[0]) ass.append('') comments.append(parts[1]) else: fields.append(line) ass.append('') comments.append('') # 计算每列的最大长度 max_field_length = max(len(field.strip()) for field in fields if not field.lower().strip().startswith(("where", "left", "on","from","and","group","inner"))) max_as_s_length = max(len(as_s.strip()) for as_s in ass) # 格式化字段、字段类型和注释,并生成新的建表语句 formatted_lines = [] for field,as_s, comment in zip(fields,ass, comments): formatted_field = f"{field.strip()}".ljust(max_field_length) if as_s.strip(): formatted_as_s = f"AS {as_s.strip()}".ljust(max_as_s_length+3) else: formatted_as_s=''.ljust(max_as_s_length+3 ) if comment.strip(): formatted_comment = f"-- {comment}" else: formatted_comment='' formatted_line = f" {formatted_field} {formatted_as_s} {formatted_comment}" formatted_lines.append(formatted_line) formatted_select_statement = "\n".join(formatted_lines) return formatted_select_statement

最新推荐

recommend-type

PowerShell控制WVD录像机技术应用

资源摘要信息:"录像机" 标题: "录像机" 可能指代了两种含义,一种是传统的录像设备,另一种是指计算机上的录像软件或程序。在IT领域,通常我们指的是后者,即录像机软件。随着技术的发展,现代的录像机软件可以录制屏幕活动、视频会议、网络课程等。这类软件多数具备高效率的视频编码、画面捕捉、音视频同步等功能,以满足不同的应用场景需求。 描述: "录像机" 这一描述相对简单,没有提供具体的功能细节或使用场景。但是,根据这个描述我们可以推测文档涉及的是关于如何操作录像机,或者如何使用录像机软件的知识。这可能包括录像机软件的安装、配置、使用方法、常见问题排查等信息。 标签: "PowerShell" 通常指的是微软公司开发的一种任务自动化和配置管理框架,它包含了一个命令行壳层和脚本语言。由于标签为PowerShell,我们可以推断该文档可能会涉及到使用PowerShell脚本来操作或管理录像机软件的过程。PowerShell可以用来执行各种任务,包括但不限于启动或停止录像、自动化录像任务、从录像机获取系统状态、配置系统设置等。 压缩包子文件的文件名称列表: WVD-main 这部分信息暗示了文档可能与微软的Windows虚拟桌面(Windows Virtual Desktop,简称WVD)相关。Windows虚拟桌面是一个桌面虚拟化服务,它允许用户在云端访问一个虚拟化的Windows环境。文件名中的“main”可能表示这是一个主文件或主目录,它可能是用于配置、管理或与WVD相关的录像机软件。在这种情况下,文档可能包含如何使用PowerShell脚本与WVD进行交互,例如记录用户在WVD环境中的活动,监控和记录虚拟机状态等。 基于以上信息,我们可以进一步推断知识点可能包括: 1. 录像机软件的基本功能和使用场景。 2. 录像机软件的安装和配置过程。 3. 录像机软件的高级功能,如自定义录像设置、自动化任务、音视频编辑等。 4. PowerShell脚本的基础知识,包括如何编写简单和复杂的脚本。 5. 如何利用PowerShell管理录像机软件,实现自动化控制和监控录像过程。 6. Windows虚拟桌面(WVD)的基本概念和使用方法。 7. 如何在WVD环境中集成录像功能,以及如何使用PowerShell进行相关配置和管理。 8. 录像数据的处理和存储,包括录像文件的格式、转码、备份和恢复等。 9. 录像机软件在企业环境中应用的策略和最佳实践。 10. 常见问题诊断和解决方法,以及如何使用PowerShell脚本来应对录像机软件出现的问题。 这个知识点总结覆盖了从基础操作到高级管理的多个方面,旨在为读者提供一个全面的录像机软件使用和管理的框架。通过这些知识点,IT专业人员可以更有效地部署、操作和维护录像机系统,确保录像机软件能够满足各种业务需求。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

Honeywell打印机驱动提升秘诀:从基础到高级配置的全方位解析

![HoneywellPrint_DLL_UM_CN.pdf](https://media.geeksforgeeks.org/wp-content/cdn-uploads/20190425160011/Anonymous-Types-in-C-1024x540.png) # 摘要 本文针对Honeywell打印机驱动的安装、配置、高级功能配置、故障诊断与优化以及安全与合规性进行了全面的介绍。首先概述了Honeywell打印机驱动的基础知识,随后详细阐述了驱动安装流程、基础打印设置及高级功能的实现。接着,文中探讨了打印机驱动在日常使用中可能遇到的常见问题及其解决方法,并提出了一系列打印性能优
recommend-type

Python输入三个数 a,b,c。判断能否以它们为三个边长构成直角三角形。若能,输出 YES,否则 输出NO。

在Python中,我们可以利用勾股定理来判断三个数a、b和c是否可以作为直角三角形的边长。如果满足a² + b² = c²,则这是一组直角三角形的三边;反之则不是。以下是一个简单的函数实现: ```python def is_right_triangle(a, b, c): if a**2 + b**2 == c**2 or a**2 + c**2 == b**2 or b**2 + c**2 == a**2: # 三种情况考虑,因为两边之和等于第三边的情况不属于常规直角三角形 return "YES" else: return "NO"
recommend-type

探索杂货店后端技术与JavaScript应用

资源摘要信息:"杂货店后端开发项目使用了JavaScript技术。" 在当今的软件开发领域,使用JavaScript来构建杂货店后端系统是一个非常普遍的做法。JavaScript不仅在前端开发中占据主导地位,其在Node.js的推动下,后端开发中也扮演着至关重要的角色。Node.js是一个能够使用JavaScript语言运行在服务器端的平台,它使得开发者能够使用熟悉的一门语言来开发整个Web应用程序。 后端开发是构建杂货店应用系统的核心部分,它主要负责处理应用逻辑、与数据库交互以及确保网络请求的正确响应。后端系统通常包含服务器、应用以及数据库这三个主要组件。 在开发杂货店后端时,我们可能会涉及到以下几个关键的知识点: 1. Node.js的环境搭建:首先需要在开发机器上安装Node.js环境。这包括npm(Node包管理器)和Node.js的运行时。npm用于管理项目依赖,比如各种中间件、数据库驱动等。 2. 框架选择:开发后端时,一个常见的选择是使用Express框架。Express是一个灵活的Node.js Web应用框架,提供了一系列强大的特性来开发Web和移动应用。它简化了路由、HTTP请求处理、中间件等功能的使用。 3. 数据库操作:根据项目的具体需求,选择合适的数据库系统(例如MongoDB、MySQL、PostgreSQL等)来进行数据的存储和管理。在JavaScript环境中,数据库操作通常会依赖于相应的Node.js驱动或ORM(对象关系映射)工具,如Mongoose用于MongoDB。 4. RESTful API设计:构建一个符合REST原则的API接口,可以让前端开发者更加方便地与后端进行数据交互。RESTful API是一种开发Web服务的架构风格,它利用HTTP协议的特性,使得Web服务能够使用统一的接口来处理资源。 5. 身份验证和授权:在杂货店后端系统中,管理用户账户和控制访问权限是非常重要的。这通常需要实现一些身份验证机制,如JWT(JSON Web Tokens)或OAuth,并根据用户角色和权限管理访问控制。 6. 错误处理和日志记录:为了保证系统的稳定性和可靠性,需要实现完善的错误处理机制和日志记录系统。这能帮助开发者快速定位问题,以及分析系统运行状况。 7. 容器化与部署:随着Docker等容器化技术的普及,越来越多的开发团队选择将应用程序容器化部署。容器化可以确保应用在不同的环境和系统中具有一致的行为,极大地简化了部署过程。 8. 性能优化:当后端应用处理大量数据或高并发请求时,性能优化是一个不可忽视的问题。这可能包括数据库查询优化、缓存策略的引入、代码层面的优化等等。 通过以上知识点的综合运用,我们可以构建出一个功能丰富、性能优化良好并且可扩展性强的杂货店后端系统。当然,在实际开发过程中,还需要充分考虑安全性、可维护性和测试等因素。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【松下伺服故障预防与维护手册】:从报警代码中提炼出的维护要诀

![【松下伺服故障预防与维护手册】:从报警代码中提炼出的维护要诀](https://assets.content.na.industrial.panasonic.com/public/inline-images/panasonic-servos-%26-drives-grp-photo-rgb-1105-x-370-09-07-22.png?VersionId=f9eJ1OTTrsuzTPjWGmGokgWMpIMwEE0Q) # 摘要 伺服系统是确保工业自动化设备稳定运行的关键组成部分,故障预防、诊断分析、维护实践以及修复技术是提高系统稳定性和减少停机时间的重要手段。本文首先概述了伺服系统
recommend-type

编写一个类实现模拟汽车的功能

在Python中,我们可以编写一个简单的`Car`类来模拟汽车的基本功能,比如品牌、型号、颜色以及一些基本操作,如启动、行驶和停止。这里是一个基础示例: ```python class Car: def __init__(self, brand, model, color): self.brand = brand self.model = model self.color = color self.is_running = False # 模拟启动 def start(self): if
recommend-type

83个合同范本下载:确保招标权益的实用参考

资源摘要信息:"这份资源包含了83个招标文件合同范本,它为希望进行公平、透明招标过程的组织提供了一份宝贵的参考资料。在当今的商业环境中,招标文件合同是保证采购流程公正、合法的重要工具,它能够帮助企业在招标过程中界定参与者的权利与义务,明确项目的具体要求,以及规定合同执行过程中的相关流程和标准。这些合同范本覆盖了各种类型的采购和承建活动,包括但不限于土木工程、咨询服务、货物供应、信息系统项目等。通过使用这些范本,企业可以有效地规避法律风险,避免因合同条款不明确而引起的纠纷,同时也提升了合同管理的效率和规范性。" "这份合同范本集合了多种行业和场景下的招标文件合同,它们不仅适用于大型企业,对于中小企业而言,同样具有很高的实用价值。这些合同范本中通常包含了合同双方的基本信息、项目描述、投标条件、报价要求、合同价格及其支付方式、合同履行期限和地点、验收标准和程序、违约责任、争议解决机制、合同变更与终止条件等关键条款。这些内容的设计都旨在保障参与方的合法权益,确保合同的可执行性。" "合同范本的具体条款需要根据实际的项目情况和法律法规进行适当的调整。因此,用户在使用这些范本时,应该结合具体的招标项目特点和所在地区的法律要求,对模板内容进行必要的修改和完善。这些合同范本的提供可以帮助用户节省大量的时间和资源,避免了从零开始起草合同的繁琐过程,尤其是在面对复杂的招标项目时,这些范本能够提供一个清晰的框架和起点。" "此外,这份资源不仅仅是一套合同模板,它还反映了招标文件合同的最新发展趋势和最佳实践。通过对这些合同范本的学习和应用,企业能够更好地把握行业标准,提高自身在招标过程中的竞争力和专业性。通过规范的合同管理,企业还能有效提升自身的合同执行能力,降低因合同执行不当而导致的经济损失和信誉损失。" "综上所述,这些招标文件合同范本是企业参与市场竞争、规范管理、优化流程的有力工具。通过下载并使用这些合同范本,企业可以在确保法律合规的同时,提高工作效率,减少不必要的法律纠纷,最终实现企业利益的最大化。"
recommend-type

关系数据表示学习

关系数据卢多维奇·多斯桑托斯引用此版本:卢多维奇·多斯桑托斯。关系数据的表示学习机器学习[cs.LG]。皮埃尔和玛丽·居里大学-巴黎第六大学,2017年。英语。NNT:2017PA066480。电话:01803188HAL ID:电话:01803188https://theses.hal.science/tel-01803188提交日期:2018年HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaireUNIVERSITY PIERRE和 MARIE CURIE计算机科学、电信和电子学博士学院(巴黎)巴黎6号计算机科学实验室D八角形T HESIS关系数据表示学习作者:Ludovic DOS SAntos主管:Patrick GALLINARI联合主管:本杰明·P·伊沃瓦斯基为满足计算机科学博士学位的要求而提交的论文评审团成员:先生蒂埃里·A·退休记者先生尤尼斯·B·恩