data_set=pd.read_csv什么意思

时间: 2023-05-19 16:05:14 浏览: 70
这个问题是关于编程的,我可以回答。data_set=pd.read_csv是Python中pandas库的一个函数,用于读取CSV文件并将其转换为DataFrame对象。其中,data_set是你想要存储数据的变量名,pd是pandas库的别名,read_csv是函数名。
相关问题

PEMS04_date=pd.read_csv('data196.csv') training_set = PEMS04_date.iloc[0:2304 , 1:3].values test_set = PEMS04_date.iloc[2304:2880, 1:3].values sc = MinMaxScaler(feature_range=(0, 1)) training_set_scaled = sc.fit_transform(training_set) test_set = sc.transform(test_set)

这是一个数据预处理的过程,使用了Python中的Pandas和sklearn库。首先读入了一个名为"data196.csv"的CSV文件,然后将其拆分成训练集和测试集。训练集包含前2304行,测试集包含2304~2880行。接着使用MinMaxScaler将数据缩放到0~1的范围内,这是为了便于神经网络的训练。最后将缩放后的训练集和测试集分别保存到名为"training_set_scaled"和"test_set"的变量中。

def get_data(): data = np.array(pd.read_csv('heart.csv')) disperse_col = [2, 6, 10, 11, 12] disperse_data, disperse_label = [], [] for i in disperse_col: col_data = data[:, i] col_label = list(set(col_data)) disperse_label.append(col_label) col_data = np.array([col_label.index(j) for j in col_data], dtype=np.int) col_data = np.eye(len(col_label))[col_data] disperse_data.append(col_data) disperse_data = np.concatenate(disperse_data, axis=-1) np.save('heart_disperse.npy', np.array(disperse_label)) 讲解一下每个语句的意思

这是一个 Python 函数,函数名为 get_data。函数内部首先读取一个名为 "heart.csv" 的 CSV 文件,并将数据存储在一个 numpy 数组 "data" 中。接下来,函数对数据进行了一些离散化处理,将原数据中的某些列进行了处理,其中第 2、6、10、11 和 12 列为离散化列。处理结果分别保存在 disperse_data 和 disperse_label 中。在处理离散化时,对于每一列数据,首先获取该列的所有取值,将这些取值作为标签存储在 disperse_label 中。然后遍历该列数据,根据取值在标签中的位置,将该列的数据转换成一个 one-hot 编码的向量,将所有列的编码向量拼接成一个大矩阵 disperse_data。最后将 disperse_label 保存为一个名为 "heart_disperse.npy" 的 numpy 数组文件。
阅读全文

相关推荐

帮我解读下这个代码:import csv import os import numpy as np import pandas as pd import pymysql from pymysql import connect # %% # drug_table = pd.read_excel('./data/drug.xlsx') drug_table_an = pd.read_excel('./data/mimiciv_feature_info.xlsx', sheet_name='antibiotic') drug_table_sa = pd.read_excel('./data/mimiciv_feature_info.xlsx', sheet_name='sedatives_and_analgesics') drug_table_co = pd.read_excel('./data/mimiciv_feature_info.xlsx', sheet_name='anticoagulant') prescriptions = pd.read_csv('/data/check_in/EHR_data/MIMIC_III/CSV/PRESCRIPTIONS.csv') item = pd.read_csv('/data/check_in/EHR_data/MIMIC_III/CSV/D_ITEMS.csv') labitem = pd.read_csv('/data/check_in/EHR_data/MIMIC_III/CSV/D_LABITEMS.csv') columns_pre = prescriptions.columns.tolist() columns_item = item.columns.tolist() columns_labitem = labitem.columns.tolist() # drugs = (drug_table['anticoagulant'].to_list()+drug_table['antiplatelet'].to_list())[:-4] drugs = ['barbital' ,'zepam' ,'zolam' ,'zolpidem' ,'propofol' ,'dexmedetomidine' ,'pentobarbital' ,'clonazepam' ,'alprazolam' ,'estazolam' ,'Zolpidem Tartrate'] drug_test_tsv = open('drug_patients_sedative.csv', 'w', newline='', encoding='utf-8') drug_test = csv.writer(drug_test_tsv, delimiter=',') drug_test.writerow(columns_pre) item_test_tsv = open('item_patients_sedative.csv', 'w', newline='', encoding='utf-8') item_test = csv.writer(item_test_tsv, delimiter=',') item_test.writerow(columns_item) labitem_test_tsv = open('labitem_patients_sedative.csv', 'w', newline='', encoding='utf-8') labitem_test = csv.writer(labitem_test_tsv, delimiter=',') labitem_test.writerow(columns_labitem) # import pdb;pdb.set_trace() for drug in drugs: # print(type(drug)) sql = "select * FROM PRESCRIPTIONS where drug like '%"+ drug + "%' or drug_name_poe like '%"+ drug + "%' or drug_name_generic like '%"+ drug + "%'" print(sql) conn = connect(host='127.0.0.1', port=3306, user='root', passwd='root', db='mimiciii') cursor = conn.cursor() cursor.execute(sql) data_tmp = cursor.fetchall() # print(data_tmp is None) if len(data_tmp) != 0: for data_cur in data_tmp: print(data_cur[1], data_cur[2], data_cur[3], data_cur[7], data_cur[8], data_cur[9]) drug_test.writerow(list(data_cur)) # import pdb;pdb.set_trace() for drug in drugs: # print(type(drug)) sql = "select * FROM D_ITEMS where label like '%{}%'" .format(drug) print(sql) conn1 = connect(host='127.0.0.1', port=3306, user='root', passwd='root', db='mimiciii') cursor1 = conn1.cursor() cursor1.execute(sql) data_tmp = cursor1.fetchall() if len(data_tmp) != 0: for data_cur in data_tmp: print(data_cur[1], data_cur[2]) item_test.writerow(list(data_cur)) # import pdb;pdb.set_trace() for drug in drugs: # print(type(drug)) sql = "select * FROM D_LABITEMS where label like '%{}%'" .format(drug) print(sql) conn1 = connect(host='127.0.0.1', port=3306, user='root', passwd='root', db='mimiciii') cursor1 = conn1.cursor() cursor1.execute(sql) data_tmp = cursor1.fetchall() if len(data_tmp) != 0: for data_cur in data_tmp: print(data_cur[1], data_cur[2]) labitem_test.writerow(list(data_cur)) # import pdb;pdb.set_trace() # %% import pandas as pd drug = pd.read_csv('drug_patients_sedative.csv') print(drug.DRUG.unique()) # %% print(drug.DRUG_NAME_POE.unique()) # %% print(drug.DRUG_NAME_GENERIC.unique()) # %%

import numpy as np import pandas as pd train_data = pd.read_csv("C://Users//Dell//Desktop//数据分析作业//adult_train(1).csv") test_data = pd.read_csv("C://Users//Dell//Desktop//数据分析作业//adult_test.csv") #写入csv文件 columns = ['Age','Workclass','fnlgwt','Education','EdNum','MaritalStatus', 'Occupation','Relationship','Race','Sex','CapitalGain', 'CapitalLoss','HoursPerWeek','Country','Income'] #写入名称 df_train_set = pd.read_csv('C://Users//Dell//Desktop//数据分析作业//adult_train(1).csv', names=columns) #跳过表头 df_test_set = pd.read_csv('C://Users//Dell//Desktop//数据分析作业//adult_test.csv', names=columns, skiprows=1) #删除ID序列号栏 df_train_set.drop('fnlgwt', axis=1, inplace=True) df_test_set.drop('fnlgwt', axis=1, inplace=True) #用unknown替换? for i in df_train_set.columns: df_train_set[i].replace('?', 'Unknown', inplace=True) df_test_set[i].replace('?', 'Unknown', inplace=True) #去掉非int64类型数据中的点和空格 for col in df_train_set.columns: if df_train_set[col].dtype != 'int64': df_train_set[col] = df_train_set[col].apply(lambda val: val.replace(" ", "")) df_train_set[col] = df_train_set[col].apply(lambda val: val.replace(".", "")) df_test_set[col] = df_test_set[col].apply(lambda val: val.replace(" ", "")) df_test_set[col] = df_test_set[col].apply(lambda val: val.replace(".", "")) # 将训练集导出为 csv 文件 df_train_set.to_csv('train_set.csv', index=False) # 将测试集导出为 csv 文件 df_test_set.to_csv('test_set.csv', index=False)

import pandas as pd import numpy as np from pyecharts.charts import Bar import pyecharts.options as opts path_marry = r"D:\迅雷下载\新建文件夹\数据集\数据可视化数据集\结婚离婚\结婚数据.csv" path_divorse = r"D:\迅雷下载\新建文件夹\数据集\数据可视化数据集\结婚离婚\离婚数据.csv" marry_data = pd.read_csv(path_marry) divorse_data = pd.read_csv(path_divorse) divorse_data = divorse_data.set_index(divorse_data["地区"]).drop(columns=["地区"]) show_data2 = marry_data["2019年"] show_data3 = divorse_data["2019年"] show_data4=pd.DataFrame() show_data4["结婚登记数"]=show_data2 show_data4["离婚登记数"]=show_data3 show_data4["结婚登记数占比"]=show_data4["结婚登记数"]/show_data4.sum(axis=1) show_data4["离婚登记数占比"]=1-show_data4["结婚登记数占比"] x_axis_data = show_data3.index.tolist() y_axis_data1 = show_data2.values.tolist() y_axis_data2 = show_data3.values.tolist() c = ( Bar(init_opts=opts.InitOpts(width="800px", height="700px")) .add_xaxis(x_axis_data) .add_yaxis( "2019年结婚登记数量(万对)" , y_axis_data1 ,stack="happy" ,itemstyle_opts={"color":"#006400"} ) .add_yaxis( "2019年离婚登记数量(万对)" , y_axis_data2 ,stack="happy" ) .reversal_axis() .set_series_opts(label_opts=opts.LabelOpts(position="right")) .set_global_opts( title_opts=opts.TitleOpts(title="全国各省2019年结婚登记数量(万对)") ,legend_opts=opts.LegendOpts( pos_left="40%" ,orient="vertical" ) ) ) c.render_notebook()请对这段代码修改,转为显示2个y变量的占比(总和为1)

解释代码 #加载数据 path_absolute_log = r"F:\数据处理比赛\BDC2023\处理数据log" paths_log_file = os.listdir(path_absolute_log) #获取绝对路径 def make_paths_absolute(paths_file): path_absolute = path_absolute_log paths_absolute_file = os.path.join(path_absolute,paths_file) return paths_absolute_file paths_absolute_log_file = list(map(make_paths_absolute,paths_log_file)) #对表格处理 path_absolute_log_file = r"F:\数据处理比赛\BDC2023\处理数据log\4ff8b802-0d87-11ee-af51-525400d4ffe4_log.csv" def form_data(path_absolute_log_file): data_log = pd.read_csv(path_absolute_log_file) data_log.insert(data_log.shape[1], 'id_score', np.nan) data_log.insert(data_log.shape[1], 'id', os.path.basename(path_absolute_log_file)[:-8]) data_log_message = data_log['message'] def jieba_data(data): data_log_jieba_message = [] data_log_jieba_message.append(','.join(jieba.cut_for_search(data))) print(data_log_jieba_message) return data_log_jieba_message data_log_jieba_message = data_log_message.map(jieba_data) def form_work(data): feature_words = ['bug','ERROR','WARNING','error','WARN','empty','错误','失败','未登录'] set_data = set(str(data)[2:-2].split(',')) set_feature_words = set(feature_words) set_mysql = set('mysql') score = [] if set_data.intersection(set_feature_words): score.append() if set_mysql.intersection(set_feature_words): score.append('LTE4MDK5Mzk2NjU1NiM1ODIONDC=') score = str(score)[2:-2] print(score) return score data_log['id_score'] = data_log_jieba_message.map(form_work) return data_log data_log = form_data(path_absolute_log_file)

大家在看

recommend-type

基于CDMA-TDOA的室内超声波定位系统 (2012年)

针对国内外对室内定位技术中定位精度不高问题,提出一种基于CDMA( Code Division Multiple Access) - TDOA( Time Difference of Arrival)的室内超声波定位系统,并给出实时性差异等缺点,进行了其工作原理和超声波信号的分析。该系统基于射频和超声波传感器的固有性质,对超声波信号采用CDMA技术进行编码,以便在目标节点上能区分各个信标发来的超声波信号,并结合射频信号实现TDOA测距算法,最终实现三维定位。采用Matlab/Simulink模块对3个信标
recommend-type

如何降低开关电源纹波噪声

1、什么是纹波? 2、纹波的表示方法 3、纹波的测试 4、纹波噪声的抑制方法
recommend-type

西安石油大学2019-2023 计算机考研808数据结构真题卷

西安石油大学2019-2023 计算机考研808数据结构真题卷,希望能够帮助到大家
recommend-type

AWS(亚马逊)云解决方案架构师面试三面作业全英文作业PPT

笔者参加亚马逊面试三面的作业,希望大家参考,少走弯路。
recommend-type

python大作业基于python实现的心电检测源码+数据+详细注释.zip

python大作业基于python实现的心电检测源码+数据+详细注释.zip 【1】项目代码完整且功能都验证ok,确保稳定可靠运行后才上传。欢迎下载使用!在使用过程中,如有问题或建议,请及时私信沟通,帮助解答。 【2】项目主要针对各个计算机相关专业,包括计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网等领域的在校学生、专业教师或企业员工使用。 【3】项目具有较高的学习借鉴价值,不仅适用于小白学习入门进阶。也可作为毕设项目、课程设计、大作业、初期项目立项演示等。 【4】如果基础还行,或热爱钻研,可基于此项目进行二次开发,DIY其他不同功能,欢迎交流学习。 【备注】 项目下载解压后,项目名字和项目路径不要用中文,否则可能会出现解析不了的错误,建议解压重命名为英文名字后再运行!有问题私信沟通,祝顺利! python大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zippython大作业基于python实现的心电检测源码+数据+详细注释.zip python大作业基于python实现的心电检测源码+数据+详细注释.zip

最新推荐

recommend-type

基于C语言课程设计学生成绩管理系统、详细文档+全部资料+高分项目.zip

【资源说明】 基于C语言课程设计学生成绩管理系统、详细文档+全部资料+高分项目.zip 【备注】 1、该项目是个人高分项目源码,已获导师指导认可通过,答辩评审分达到95分 2、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 3、本项目适合计算机相关专业(人工智能、通信工程、自动化、电子信息、物联网等)的在校学生、老师或者企业员工下载使用,也可作为毕业设计、课程设计、作业、项目初期立项演示等,当然也适合小白学习进阶。 4、如果基础还行,可以在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 欢迎下载,沟通交流,互相学习,共同进步!
recommend-type

基于springboot的简历系统源码(java毕业设计完整源码+LW).zip

项目均经过测试,可正常运行! 环境说明: 开发语言:java JDK版本:jdk1.8 框架:springboot 数据库:mysql 5.7/8 数据库工具:navicat 开发软件:eclipse/idea
recommend-type

“招聘智能化”:线上招聘问答系统的功能开发

互联网技术经过数十年的发展,已经积累了深厚的理论基础,并在实际应用中无处不在,极大地消除了地理信息的障碍,实现了全球即时通讯,极大地便利了人们的日常生活。因此,利用计算机技术设计的线上招聘问答系统,不仅在管理上更加系统化和操作性强,更重要的是在数据保存和使用上能够节省大量时间,使得系统变得非常高效和实用。 线上招聘问答系统采用MySQL作为数据管理工具,Java作为编码语言,以及SSM框架作为开发架构。系统主要实现了简历管理、论坛帖子管理、职位招聘管理、职位招聘留言管理、招聘岗位管理、所在行业管理以及求职意向管理等功能。 该系统的设计不仅方便了操作人员,而且合理性高,能有效避免误操作,确保数据在录入时就符合设计要求,从而最大限度地减少源头性输入错误,使数据更加可控和可靠,将出错率降至最低。
recommend-type

WildFly 8.x中Apache Camel结合REST和Swagger的演示

资源摘要信息:"CamelEE7RestSwagger:Camel on EE 7 with REST and Swagger Demo" 在深入分析这个资源之前,我们需要先了解几个关键的技术组件,它们是Apache Camel、WildFly、Java DSL、REST服务和Swagger。下面是这些知识点的详细解析: 1. Apache Camel框架: Apache Camel是一个开源的集成框架,它允许开发者采用企业集成模式(Enterprise Integration Patterns,EIP)来实现不同的系统、应用程序和语言之间的无缝集成。Camel基于路由和转换机制,提供了各种组件以支持不同类型的传输和协议,包括HTTP、JMS、TCP/IP等。 2. WildFly应用服务器: WildFly(以前称为JBoss AS)是一款开源的Java应用服务器,由Red Hat开发。它支持最新的Java EE(企业版Java)规范,是Java企业应用开发中的关键组件之一。WildFly提供了一个全面的Java EE平台,用于部署和管理企业级应用程序。 3. Java DSL(领域特定语言): Java DSL是一种专门针对特定领域设计的语言,它是用Java编写的小型语言,可以在Camel中用来定义路由规则。DSL可以提供更简单、更直观的语法来表达复杂的集成逻辑,它使开发者能够以一种更接近业务逻辑的方式来编写集成代码。 4. REST服务: REST(Representational State Transfer)是一种软件架构风格,用于网络上客户端和服务器之间的通信。在RESTful架构中,网络上的每个资源都被唯一标识,并且可以使用标准的HTTP方法(如GET、POST、PUT、DELETE等)进行操作。RESTful服务因其轻量级、易于理解和使用的特性,已经成为Web服务设计的主流风格。 5. Swagger: Swagger是一个开源的框架,它提供了一种标准的方式来设计、构建、记录和使用RESTful Web服务。Swagger允许开发者描述API的结构,这样就可以自动生成文档、客户端库和服务器存根。通过Swagger,可以清晰地了解API提供的功能和如何使用这些API,从而提高API的可用性和开发效率。 结合以上知识点,CamelEE7RestSwagger这个资源演示了如何在WildFly应用服务器上使用Apache Camel创建RESTful服务,并通过Swagger来记录和展示API信息。整个过程涉及以下几个技术步骤: - 首先,需要在WildFly上设置和配置Camel环境,确保Camel能够运行并且可以作为路由引擎来使用。 - 其次,通过Java DSL编写Camel路由,定义如何处理来自客户端的HTTP请求,并根据请求的不同执行相应的业务逻辑。 - 接下来,使用Swagger来记录和描述创建的REST API。这包括定义API的路径、支持的操作、请求参数和响应格式等。 - 最后,通过Swagger提供的工具生成API文档和客户端代码,以及服务器端的存根代码,从而使得开发者可以更加便捷地理解和使用这些RESTful服务。 这个资源的实践演示对于想要学习如何在Java EE平台上使用Camel集成框架,并且希望提供和记录REST服务的开发者来说是非常有价值的。通过这种方式,开发者可以更加快速和简单地创建和管理Web服务,同时也增强了API的可访问性和可维护性。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【声子晶体模拟全能指南】:20年经验技术大佬带你从入门到精通

![【声子晶体模拟全能指南】:20年经验技术大佬带你从入门到精通](https://docs.lammps.org/_images/lammps-gui-main.png) # 摘要 声子晶体作为一种具有周期性结构的材料,在声学隐身、微波和红外领域具有广泛的应用潜力。本文从基础理论出发,深入探讨了声子晶体的概念、物理模型和声子带结构的理论解析,同时介绍了声子晶体的数值模拟方法,包括有限元方法(FEM)、离散元方法(DEM)和分子动力学(MD)。本文还提供了一套完整的声子晶体模拟实践指南,涵盖了模拟前的准备工作、详细的模拟步骤以及结果验证和案例分析。此外,文章探讨了声子晶体模拟的高级技巧和拓展
recommend-type

2024-07-27怎么用python转换成农历日期

在Python中,可以使用`lunarcalendar`库来将公历日期转换为农历日期。首先,你需要安装这个库,可以通过pip命令进行安装: ```bash pip install lunarcalendar ``` 安装完成后,你可以使用以下代码将公历日期转换为农历日期: ```python from lunarcalendar import Converter, Solar, Lunar, DateNotExist # 创建一个公历日期对象 solar_date = Solar(2024, 7, 27) # 将公历日期转换为农历日期 try: lunar_date = Co
recommend-type

FDFS客户端Python库1.2.6版本发布

资源摘要信息:"FastDFS是一个开源的轻量级分布式文件系统,它对文件进行管理,功能包括文件存储、文件同步、文件访问等,适用于大规模文件存储和高并发访问场景。FastDFS为互联网应用量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,保证系统的高可用性和扩展性。 FastDFS 架构包含两个主要的角色:Tracker Server 和 Storage Server。Tracker Server 作用是负载均衡和调度,它接受客户端的请求,为客户端提供文件访问的路径。Storage Server 作用是文件存储,一个 Storage Server 中可以有多个存储路径,文件可以存储在不同的路径上。FastDFS 通过 Tracker Server 和 Storage Server 的配合,可以完成文件上传、下载、删除等操作。 Python 客户端库 fdfs-client-py 是为了解决 FastDFS 文件系统在 Python 环境下的使用。fdfs-client-py 使用了 Thrift 协议,提供了文件上传、下载、删除、查询等接口,使得开发者可以更容易地利用 FastDFS 文件系统进行开发。fdfs-client-py 通常作为 Python 应用程序的一个依赖包进行安装。 针对提供的压缩包文件名 fdfs-client-py-master,这很可能是一个开源项目库的名称。根据文件名和标签“fdfs”,我们可以推测该压缩包包含的是 FastDFS 的 Python 客户端库的源代码文件。这些文件可以用于构建、修改以及扩展 fdfs-client-py 功能以满足特定需求。 由于“标题”和“描述”均与“fdfs-client-py-master1.2.6.zip”有关,没有提供其它具体的信息,因此无法从标题和描述中提取更多的知识点。而压缩包文件名称列表中只有一个文件“fdfs-client-py-master”,这表明我们目前讨论的资源摘要信息是基于对 FastDFS 的 Python 客户端库的一般性了解,而非基于具体文件内容的分析。 根据标签“fdfs”,我们可以深入探讨 FastDFS 相关的概念和技术细节,例如: - FastDFS 的分布式架构设计 - 文件上传下载机制 - 文件同步机制 - 元数据管理 - Tracker Server 的工作原理 - Storage Server 的工作原理 - 容错和数据恢复机制 - 系统的扩展性和弹性伸缩 在实际使用中,开发者可以通过 fdfs-client-py 库来与 FastDFS 文件系统进行交互,利用其提供的 API 接口实现文件的存储、管理等功能,从而开发出高效、可靠的文件处理应用。开发者可以根据项目的实际需求,选择合适的 FastDFS 版本,并根据官方文档进行安装、配置及优化,确保系统稳定运行。 总的来说,fdfs-client-py 是 FastDFS 文件系统与 Python 应用之间的一座桥梁,它使得开发者能够更加方便地将 FastDFS 集成到基于 Python 开发的应用中,发挥出 FastDFS 在文件管理方面的优势。"
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

传感器集成全攻略:ICM-42688-P运动设备应用详解

![传感器集成全攻略:ICM-42688-P运动设备应用详解](https://static.mianbaoban-assets.eet-china.com/xinyu-images/MBXY-CR-ba33fcfbde1d1207d7b8fe45b6ea58d0.png) # 摘要 ICM-42688-P传感器作为一种先进的惯性测量单元,广泛应用于多种运动设备中。本文首先介绍了ICM-42688-P传感器的基本概述和技术规格,然后深入探讨了其编程基础,包括软件接口、数据读取处理及校准测试。接着,本文详细分析了该传感器在嵌入式系统、运动控制和人机交互设备中的实践应用,并且探讨了高级功能开发,