import requests from lxml import etree import csv import pandas 对酷狗新歌榜爬取

时间: 2024-11-15 15:22:07 浏览: 3
PDF

Python利用lxml模块爬取豆瓣读书排行榜的方法与分析

使用上述Python库进行酷狗新歌榜的爬取,你可以结合`requests`获取网页源代码,`lxml`解析HTML树结构,`csv`或`pandas`将数据存储或转换为CSV或Excel文件。以下是基本的步骤: 1. **导入库**: ```python import requests from lxml import etree import csv import pandas as pd # 如果你不习惯使用csv,也可以选择直接读写Excel,这里用pandas方便些 ``` 2. **发送请求并获取HTML**: ```python url = 'http://music.kugou.com/new/songlist.htm' headers = {'User-Agent': 'Mozilla/5.0'} # 设置合适的用户代理头,避免被识别为机器人 response = requests.get(url, headers=headers) html = response.text ``` 3. **解析HTML**: ```python parser = etree.HTMLParser() tree = etree.fromstring(html, parser) # 找到包含歌曲信息的部分,这里同样假设歌曲信息在特定class的元素内 song_list = tree.xpath('//div[@class="song-item"]') ``` 4. **提取数据**: ```python songs = [] for song_item in song_list: title = song_item.xpath('.//a[@class="title"]/text()')[0] # 提取歌曲名 artist = song_item.xpath('.//span[@class="artist"]/text()')[0] # 提取歌手名 # 将数据添加到列表中,如果需要更多字段,继续类似提取 songs.append([title, artist]) ``` 5. **保存数据**: ```python # 用csv写入文件 with open('kugou_new_songs.csv', 'w', newline='', encoding='utf-8') as f: writer = csv.writer(f) writer.writerow(['歌曲名称', '歌手']) writer.writerows(songs) # 或者用pandas DataFrame存储 df = pd.DataFrame(songs, columns=['歌曲名称', '歌手']) df.to_csv('kugou_new_songs.csv', index=False) # 转换为CSV ``` 6. **注意事项**: - 遵循网站的robots.txt规则,不要过于频繁地访问以免引起服务器压力。 - 如果遇到动态加载的内容(如AJAX),可能需要分析实际请求的API或者使用第三方库如Selenium。
阅读全文

相关推荐

import requests from lxml import etree import csv import os import pandas as pd import matplotlib.pyplot as plt class MovieDataCollector: def __init__(self): self.url = "https://movie.douban.com/top250?start=%s&filter=" self.headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36' } self.urls = ['https://movie.douban.com/top250?start={}&filter='.format(str(i * 25)) for i in range(10)] self.movies_data = [] def get_first_text(self, element_list): try: return element_list[0].strip() except IndexError: return "" def download_image(self, url, title): response = requests.get(url) image_name = f'{title.replace("/", "_")}.jpg' image_path = os.path.join('films_pic', image_name) with open(image_path, 'wb') as f: f.write(response.content) def scrape_movie_data(self): count = 1 for url in self.urls: res = requests.get(url=url, headers=self.headers) print(res.status_code) html = etree.HTML(res.text) lis = html.xpath('//*[@id="content"]/div/div[1]/ol/li') print('当前是第{}页'.format(count)) for li in lis: rank = self.get_first_text(li.xpath('./div/div[1]/em/text()')) title = self.get_first_text(li.xpath('./div/div[2]/div[1]/a/span[1]/text()')) director = self.get_first_text(li.xpath('./div/div[2]/div[2]/p[1]/text()')) score = self.get_first_text(li.xpath('./div/div[2]/div[2]/div/span[2]/text()')) comment = self.get_first_text(li.xpath('./div/div[2]/div[2]/div/span[4]/text()')) # #下载电影图片 # image_url = self.get_first_text(li.xpath('./div/div[1]/a/img/@src')) # self.download_image(image_url, title) self.movies_data.append({ '排名': rank,解释这段代码

import requests from lxml import etree import pandas as pd username_list=[] film_critic_list=[] useful_num_list=[] useless_num_list=[] assess_list=[] ttt_all_urls = [] for i in range(191): ttt_page_urls = f'https://movie.douban.com/subject/26430107/reviews?sort=hotest&start={i * 20}' headers={'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36 Edg/114.0.1823.41'} rq=requests.get(url=ttt_page_urls,headers=headers) dom1 = etree.HTML(rq.text) ttt_data = dom1.xpath('//*[@id="content"]/div/div[1]/div[1]/div/@data-cid') for i in ttt_data: a=dom1.xpath(f'//*[@id={i}]/div/h2/a/@href') ttt_all_urls.extend(a) for url1 in ttt_all_urls: for i in ttt_data: rq2 = requests.get(url=url1,headers=headers) dom2=etree.HTML(rq2.text) username= dom2.xpath(f'//*[@id={i}]/header/a[1]/span/text()') print(username) film_critic = dom2.xpath(f'//*[@id="link-report-{i}"]/div[1]/p/text()') useful_num = dom2.xpath(f'*[@id="review-{i}-content"]/div[3]/button[1]/text()') useless_num= dom2.xpath(f'*[@id="review-{i}-content"]/div[3]/button[2]/text()') assess = (dom2.xpath('//*[@id="content"]/div/div[1]/h1/span/text()')) username_list.extend(username) film_critic_list.extend(film_critic) useful_num_list.extend(useful_num) useless_num_list.extend(useless_num) assess_list.extend(assess) data={'username':username_list,'film_critic':film_critic_list,'useful_num':useful_num_list,'useless_num':useless_num_list,'assess':assess_list} df=pd.DataFrame(data) df.to_csv('fimldata.csv',encoding='utf-8',index=None)

帮我将以下代码写注释# coding=gbk # -- coding:uft-8 -- # 贝壳网小区 import requests from lxml import etree from time import sleep import hashlib from urllib import parse import pandas as pd def getPosi(tar): try: ak = 'C8rQZy1askzzMtdY3ChAZUer1P0PRjI0' sk = 'shShi1VLCkH1gGR4v75d2LTnrn2Vm5Mg' add = f'/geocoding/v3/?address={tar}&output=json&ak={ak}&city=大连市' add = parse.quote(add, safe="/:=&?#+!$,;'@()*[]") sn = hashlib.md5(parse.quote_plus(add + sk).encode('utf-8')).hexdigest() url = f'https://api.map.baidu.com{add}&sn={sn}' dic = requests.get(url).json() lat = dic['result']['location']['lat'] lng = dic['result']['location']['lng'] return lat, lng except: return None, None def collect(): items = { 'ganjingzi': 22, 'zhongshan': 19, 'shahekou': 14, 'xigang': 12 } resLs = [] for key in items: for page in range(items[key]): page += 1 url = f'https://dl.ke.com/xiaoqu/{key}/pg{page}/' headers = { 'User-Agent': ua, 'Referer': url } while True: try: res = requests.get(url=url, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) for li in tree.xpath('//ul[@class="listContent"]/li'): href = li.xpath('./a/@href')[0] while True: try: res = requests.get(url=href, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) dic = { 'href': href, 'key': key, 'name': tree.xpath('//h1/@title')[0], 'price': (tree.xpath('//span[@class="xiaoquUnitPrice"]/text()') + [''])[0], 'property': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[1].strip(), 'building': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[4].strip(), 'house': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[5].strip() } dic['lat'], dic['lng'] = getPosi(dic['name']) print(dic) resLs.append(dic) sleep(3) df = pd.DataFrame(resLs) df.to_excel('贝壳网小区.xlsx', encoding='utf-8', index=False) if name == 'main': ua = 'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/91.0.4472.106Safari/537.36' collect()

优化这段代码:import requests import pandas as pd from bs4 import BeautifulSoup from lxml import etree import time import pymysql from sqlalchemy import create_engine from urllib.parse import urlencode # 编码 URL 字符串 start_time = time.time() #计算程序运行时间 def get_one_page(i): try: headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36' } paras = {'reportTime': '2023-03-23', #可以改报告日期,比如2018-6-30获得的就是该季度的信息 'pageNum': i #页码 } url = 'http://s.askci.com/stock/a/?' + urlencode(paras) response = requests.get(url,headers = headers) if response.status_code == 200: return response.text return None except RequestException: print('爬取失败') def parse_one_page(html): soup = BeautifulSoup(html,'lxml') content = soup.select('#myTable04')[0] #[0]将返回的list改为bs4类型 tbl = pd.read_html(content.prettify(),header = 0)[0] # prettify()优化代码,[0]从pd.read_html返回的list中提取出DataFrame tbl.rename(columns = {'序号':'serial_number', '股票代码':'stock_code', '股票简称':'stock_abbre', '公司名称':'company_name', '省份':'province', '城市':'city', '主营业务收入(201712)':'main_bussiness_income', '净利润(201712)':'net_profit', '员工人数':'employees', '上市日期':'listing_date', '招股书':'zhaogushu', '公司财报':'financial_report', '行业分类':'industry_classification', '产品类型':'industry_type', '主营业务':'main_business'},inplace = True) return tbl def generate_mysql(): conn = pymysql.connect( host='localhost', user='root', password='******', port=3306, charset = 'utf8', db = 'wade') cursor = conn.cursor() sql = 'CREATE TABLE IF NOT EXISTS listed_company (serial_number INT(20) NOT NULL,stock_code INT(20) ,stock_abbre VARCHAR(20) ,company_name VARCHAR(20) ,province VARCHAR(20) ,city VARCHAR(20) ,main_bussiness_income VARCHAR(20) ,net_profit VARCHAR(20) ,employees INT(20) ,listing_date DATETIME(0) ,zhaogushu VARCHAR(20) ,financial_report VARCHAR(20) , industry_classification VARCHAR(20) ,industry_type VARCHAR(100) ,main_business VARCHAR(200) ,PRIMARY KEY (serial_number))' cursor.execute(sql) conn.close() def write_to_sql(tbl, db = 'wade'): engine = create_engine('mysql+pymysql://root:******@localhost:3306/{0}?charset=utf8'.format(db)) try: tbl.to_sql('listed_company2',con = engine,if_exists='append',index=False) # append表示在原有表基础上增加,但该表要有表头 except Exception as e: print(e) def main(page): generate_mysql() for i in range(1,page): html = get_one_page(i) tbl = parse_one_page(html) write_to_sql(tbl) # # 单进程 if __name__ == '__main__': main(178) endtime = time.time()-start_time print('程序运行了%.2f秒' %endtime) # 多进程 from multiprocessing import Pool if __name__ == '__main__': pool = Pool(4) pool.map(main, [i for i in range(1,178)]) #共有178页 emdtime = time.time()-start_time print('程序运行了%.2f秒' %(time.time()-start_time))

优化代码import json import requests from lxml import etree import pandas as pd import time #url='https://www.ptpress.com.cn/masterpiece/getMasterpieceListForPortal' #https://www.ptpress.com.cn/recommendBook/getRecommendTupeListForPortal #http://www.ptpress.com.cn/masterpiece/getMasterpieceListForPortal url='https://www.5iai.com/api/enterprise/job/public/es?pageSize=10&pageNumber=1'#目标数据文件的url #url = ' https://www.5iai.com/api/enterprise/job/public/es?pageSize=10&pageNumber=2&willNature=&function=&wageList=%255B%255D&workplace=&keyword=' for i in range (1,20): response=requests.get(url) aa=response.text print(type(aa)) json_text=json.loads(aa) print(type(json_text)) json_text.keys() bb=json_text['data'] print(type(bb)) print(bb.keys()) cc= bb['content'] print(type(cc)) ee0=cc[0] #是第一条信息 ee1=cc[1] len(cc)#是cc的第一个招聘的第一页招聘信息,是列表类型 print(type(ee0)) ee0.keys() ee1.keys()#0和1的的字典的键都是一样的 data=pd.DataFrame(cc) data.columns ff=data['enterpriseAddress'] print(type(ff)) gg0=ff[0] gg1=ff[1] hh0=gg0['detailedAddress'] hh1 = gg1['detailedAddress'] hh3= ff[2]['detailedAddress'] hh4= ff[3]['detailedAddress'] hh5=data['enterpriseAddress'] [4]['detailedAddress'] data['工作地址']=ff.apply(lambda x:x['detailedAddress']) data['工作地址']=data['enterpriseAddress'].apply(lambda x:x['detailedAddress']) data['工作城市']=data['enterpriseAddress'].apply(lambda x:x['cityCode']) kk=data['enterpriseExtInfo'] print(type(kk)) ll0=kk[0] data['公司名称']=data['enterpriseExtInfo'].apply(lambda x:x['shortName']) data['行业']=data['enterpriseExtInfo'].apply(lambda x:x['industry']) data['人员规模']=data['enterpriseExtInfo'].apply(lambda x:x['personScope']) data['企业性质']=data['enterpriseExtInfo'].apply(lambda x:x['econKind']) data.keys() colNames=['positionName','minimumWage','maximumWage','exp','educationalRequirements','工作地址','工作城市','公司名称','行业','人员规模','企业性质'] data_drop=data[colNames] #https: // www.5iai.com / api / enterprise / job / public?id = 1657941238357299201 #https: // www.5iai.com / api / enterprise / job / public?id = 1657941238353104896 data['id'] #print(type(data['id'])) #suburl='https://www.5iai.com/api/enterprise/job/public?id=1657941238353104896' jobDes = [] for idd in data['id']: suburl = 'https://www.5iai.com/api/enterprise/job/public?id={}'.format(idd) sub_response=requests.get(suburl) subb=sub_response.text #print(type(subb)) sub_text=json.loads(subb) #print(type(sub_text)) sub_text.keys subaa=sub_text['data'] #print(type(subaa)) subaa.keys jobms=subaa['jobRequiredments'] #print(type(jobDes)) jobDes.append(jobms) time.sleep(2) data_drop['职位描述']=jobDes

最新推荐

recommend-type

python制作爬虫并将抓取结果保存到excel中

3. **抓取数据**:Python提供了多种数据抓取工具,如正则表达式`re`、`lxml`的`etree`、`json`和`bs4`的`BeautifulSoup`。根据实际需求选择合适的工具,例如,若数据结构清晰,`json`模块就足够了。在示例中,作者...
recommend-type

polylearn-0.1.dev0-cp35-cp35m-win32.whl.rar

python whl离线安装包 pip安装失败可以尝试使用whl离线安装包安装 第一步 下载whl文件,注意需要与python版本配套 python版本号、32位64位、arm或amd64均有区别 第二步 使用pip install XXXXX.whl 命令安装,如果whl路径不在cmd窗口当前目录下,需要带上路径 WHL文件是以Wheel格式保存的Python安装包, Wheel是Python发行版的标准内置包格式。 在本质上是一个压缩包,WHL文件中包含了Python安装的py文件和元数据,以及经过编译的pyd文件, 这样就使得它可以在不具备编译环境的条件下,安装适合自己python版本的库文件。 如果要查看WHL文件的内容,可以把.whl后缀名改成.zip,使用解压软件(如WinRAR、WinZIP)解压打开即可查看。 为什么会用到whl文件来安装python库文件呢? 在python的使用过程中,我们免不了要经常通过pip来安装自己所需要的包, 大部分的包基本都能正常安装,但是总会遇到有那么一些包因为各种各样的问题导致安装不了的。 这时我们就可以通过尝试去Python安装包大全中(whl包下载)下载whl包来安装解决问题。
recommend-type

基于Simulink的语音信号降噪与增强.docx

基于Simulink的语音信号降噪与增强.docx
recommend-type

java资源Java条形码生成库 Barcode4J

java资源Java条形码生成库 Barcode4J提取方式是百度网盘分享地址
recommend-type

SSM Java项目:StudentInfo 数据管理与可视化分析

资源摘要信息:"StudentInfo 2.zip文件是一个压缩包,包含了多种数据可视化和数据分析相关的文件和代码。根据描述,此压缩包中包含了实现人员信息管理系统的增删改查功能,以及生成饼图、柱状图、热词云图和进行Python情感分析的代码或脚本。项目使用了SSM框架,SSM是Spring、SpringMVC和MyBatis三个框架整合的简称,主要应用于Java语言开发的Web应用程序中。 ### 人员增删改查 人员增删改查是数据库操作中的基本功能,通常对应于CRUD(Create, Retrieve, Update, Delete)操作。具体到本项目中,这意味着实现了以下功能: - 增加(Create):可以向数据库中添加新的人员信息记录。 - 查询(Retrieve):可以检索数据库中的人员信息,可能包括基本的查找和复杂的条件搜索。 - 更新(Update):可以修改已存在的人员信息。 - 删除(Delete):可以从数据库中移除特定的人员信息。 实现这些功能通常需要编写相应的后端代码,比如使用Java语言编写服务接口,然后通过SSM框架与数据库进行交互。 ### 数据可视化 数据可视化部分包括了生成饼图、柱状图和热词云图的功能。这些图形工具可以直观地展示数据信息,帮助用户更好地理解和分析数据。具体来说: - 饼图:用于展示分类数据的比例关系,可以清晰地显示每类数据占总体数据的比例大小。 - 柱状图:用于比较不同类别的数值大小,适合用来展示时间序列数据或者不同组别之间的对比。 - 热词云图:通常用于文本数据中,通过字体大小表示关键词出现的频率,用以直观地展示文本中频繁出现的词汇。 这些图表的生成可能涉及到前端技术,如JavaScript图表库(例如ECharts、Highcharts等)配合后端数据处理实现。 ### Python情感分析 情感分析是自然语言处理(NLP)的一个重要应用,主要目的是判断文本的情感倾向,如正面、负面或中立。在这个项目中,Python情感分析可能涉及到以下几个步骤: - 文本数据的获取和预处理。 - 应用机器学习模型或深度学习模型对预处理后的文本进行分类。 - 输出情感分析的结果。 Python是实现情感分析的常用语言,因为有诸如NLTK、TextBlob、scikit-learn和TensorFlow等成熟的库和框架支持相关算法的实现。 ### IJ项目与readme文档 "IJ项目"可能是指IntelliJ IDEA项目,IntelliJ IDEA是Java开发者广泛使用的集成开发环境(IDE),支持SSM框架。readme文档通常包含项目的安装指南、运行步骤、功能描述、开发团队和联系方式等信息,是项目入门和理解项目结构的首要参考。 ### 总结 "StudentInfo 2.zip"是一个综合性的项目,涉及到后端开发、前端展示、数据分析及自然语言处理等多个技术领域。通过这个项目,可以学习到如何使用SSM框架进行Web应用开发、实现数据可视化和进行基于Python的情感分析。这对于想要掌握Java Web开发和数据处理能力的学习者来说是一个很好的实践机会。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

负载均衡技术深入解析:确保高可用性的网络服务策略

![负载均衡技术深入解析:确保高可用性的网络服务策略](https://media.geeksforgeeks.org/wp-content/uploads/20240130183502/Source-IP-hash--(1).webp) # 1. 负载均衡技术概述 ## 1.1 负载均衡技术的重要性 在现代信息技术不断发展的今天,互联网应用的规模和服务的复杂性日益增长。因此,为了确保高性能、高可用性和扩展性,负载均衡技术变得至关重要。它能够有效地分配和管理网络或应用程序的流量,使得服务器和网络资源得以最优利用。 ## 1.2 负载均衡技术的基本概念 负载均衡是一种网络流量管理技术,旨
recommend-type

怎么解决头文件重复包含

解决头文件重复包含的问题主要有以下几个策略: 1. **包含 guards**:在头文件开头添加一种特殊的标识符(通常是宏),如 `#ifndef` 和 `#define` 对组合,检查某个特定宏是否已经定义过。如果没有定义,则包含内容,然后设置该宏。如果在同一文件内再次包含,由于宏已经存在,就不会再执行包含的内容,从而避免重复。 ```cpp #ifndef HEADER_NAME_H_ #define HEADER_NAME_H_ // 内容... #endif // HEADER_NAME_H_ ``` 2. **使用 extern 关键字**:对于非静态变量和函数,可以将它们
recommend-type

pyedgar:Python库简化EDGAR数据交互与文档下载

资源摘要信息:"pyedgar:用于与EDGAR交互的Python库" 知识点说明: 1. pyedgar库概述: pyedgar是一个Python编程语言下的开源库,专门用于与美国证券交易委员会(SEC)的电子数据获取、访问和检索(EDGAR)系统进行交互。通过该库,用户可以方便地下载和处理EDGAR系统中公开提供的财务报告和公司文件。 2. EDGAR系统介绍: EDGAR系统是一个自动化系统,它收集、处理、验证和发布美国证券交易委员会(SEC)要求的公司和其他机构提交的各种文件。EDGAR数据库包含了美国上市公司的详细财务报告,包括季度和年度报告、委托声明和其他相关文件。 3. pyedgar库的主要功能: 该库通过提供两个主要接口:文件(.py)和索引,实现了对EDGAR数据的基本操作。文件接口允许用户通过特定的标识符来下载和交互EDGAR表单。索引接口可能提供了对EDGAR数据库索引的访问,以便快速定位和获取数据。 4. pyedgar库的使用示例: 在描述中给出了一个简单的使用pyedgar库的例子,展示了如何通过Filing类与EDGAR表单进行交互。首先需要从pyedgar模块中导入Filing类,然后创建一个Filing实例,其中第一个参数(20)可能代表了提交年份的最后两位,第二个参数是一个特定的提交号码。创建实例后,可以打印实例来查看EDGAR接口的返回对象,通过打印实例的属性如'type',可以获取文件的具体类型(例如10-K),这代表了公司提交的年度报告。 5. Python语言的应用: pyedgar库的开发和应用表明了Python语言在数据分析、数据获取和自动化处理方面的强大能力。Python的简洁语法和丰富的第三方库使得开发者能够快速构建工具以处理复杂的数据任务。 6. 压缩包子文件信息: 文件名称列表中的“pyedgar-master”表明该库可能以压缩包的形式提供源代码和相关文件。文件列表中的“master”通常指代主分支或主版本,在软件开发中,主分支通常包含了最新的代码和功能。 7. 编程实践建议: 在使用pyedgar库之前,建议先阅读官方文档,了解其详细的安装、配置和使用指南。此外,进行编程实践时,应当注意遵守SEC的使用条款,确保只下载和使用公开提供的数据。 8. EDGAR数据的应用场景: EDGAR数据广泛应用于金融分析、市场研究、合规性检查、学术研究等领域。通过编程访问EDGAR数据可以让用户快速获取到一手的财务和公司运营信息,从而做出更加明智的决策。 9. Python库的维护和更新: 随着EDGAR数据库内容的持续更新和变化,pyedgar库也应定期进行维护和更新,以保证与EDGAR系统的接口兼容性。开发者社区对于这类开源项目的支持和贡献也非常重要。 10. 注意事项: 在使用pyedgar库下载和处理数据时,用户应当确保遵守相应的法律法规,尤其是关于数据版权和隐私方面的规定。此外,用户在处理敏感数据时,还需要考虑数据安全和隐私保护的问题。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依