pycolmap.extract_features(database_path, f'{tgt}/images', sift_options=sift_opt, verbose=True)

时间: 2024-05-26 16:18:12 浏览: 219
CPP

Image feature extraction

这段代码使用了 PyCOLMAP 库中的 `extract_features` 函数来提取图像特征。具体来说,它从一个 COLMAP 数据库中读取图像并将其保存到一个指定目录下,然后使用 SIFT 算法提取图像的特征点和特征描述子。`sift_options` 参数用来设置 SIFT 算法的参数,`verbose` 参数用来控制是否输出提取特征的过程信息。
阅读全文

相关推荐

py
# -*- coding: utf-8 -*- import numpy as np import librosa import random def extract_power(y, sr, size=3): """ extract log mel spectrogram feature :param y: the input signal (audio time series) :param sr: sample rate of 'y' :param size: the length (seconds) of random crop from original audio, default as 3 seconds :return: log-mel spectrogram feature """ # normalization y = y.astype(np.float32) normalization_factor = 1 / np.max(np.abs(y)) y = y * normalization_factor # random crop start = random.randint(0, len(y) - size * sr) y = y[start: start + size * sr] # extract log mel spectrogram ##### powerspec = np.abs(librosa.stft(y,n_fft=128, hop_length=1024)) ** 2 #logmelspec = librosa.power_to_db(melspectrogram) return powerspec def extract_logmel(y, sr, size=3): """ extract log mel spectrogram feature :param y: the input signal (audio time series) :param sr: sample rate of 'y' :param size: the length (seconds) of random crop from original audio, default as 3 seconds :return: log-mel spectrogram feature """ # normalization y = y.astype(np.float32) normalization_factor = 1 / np.max(np.abs(y)) y = y * normalization_factor # random crop start = random.randint(0, len(y) - size * sr) y = y[start: start + size * sr] # extract log mel spectrogram ##### melspectrogram = librosa.feature.melspectrogram(y=y, sr=sr, n_fft=2048, hop_length=1024, n_mels=90) logmelspec = librosa.power_to_db(melspectrogram) return logmelspec def extract_mfcc(y, sr, size=3): """ extract MFCC feature :param y: np.ndarray [shape=(n,)], real-valued the input signal (audio time series) :param sr: sample rate of 'y' :param size: the length (seconds) of random crop from original audio, default as 3 seconds :return: MFCC feature """ # normalization y = y.astype(np.float32) normalization_factor = 1 / np.max(np.abs(y))

详细解释一下这段代码,每一句都要进行注解:tgt = f'/kaggle/working/{dataset}-{scene}' # Generate a simple reconstruction with SIFT (https://en.wikipedia.org/wiki/Scale-invariant_feature_transform). if not os.path.isdir(tgt): os.makedirs(f'{tgt}/bundle') os.system(f'cp -r {src}/images {tgt}/images') database_path = f'{tgt}/database.db' sift_opt = pycolmap.SiftExtractionOptions() sift_opt.max_image_size = 1500 # Extract features at low resolution could significantly reduce the overall accuracy sift_opt.max_num_features = 8192 # Generally more features is better, even if behond a certain number it doesn't help incresing accuracy sift_opt.upright = True # rotation invariance device = 'cpu' t = time() pycolmap.extract_features(database_path, f'{tgt}/images', sift_options=sift_opt, verbose=True) print(len(os.listdir(f'{tgt}/images'))) print('TIMINGS --- Feature extraction', time() - t) t = time() matching_opt = pycolmap.SiftMatchingOptions() matching_opt.max_ratio = 0.85 # Ratio threshold significantly influence the performance of the feature extraction method. It varies depending on the local feature but also on the image type # matching_opt.max_distance = 0.7 matching_opt.cross_check = True matching_opt.max_error = 1.0 # The ransac error threshold could help to exclude less accurate tie points pycolmap.match_exhaustive(database_path, sift_options=matching_opt, device=device, verbose=True) print('TIMINGS --- Feature matching', time() - t) t = time() mapper_options = pycolmap.IncrementalMapperOptions() mapper_options.extract_colors = False mapper_options.min_model_size = 3 # Sometimes you want to impose the first image pair for initialize the incremental reconstruction mapper_options.init_image_id1 = -1 mapper_options.init_image_id2 = -1 # Choose which interior will be refined during BA mapper_options.ba_refine_focal_length = True mapper_options.ba_refine_principal_point = True mapper_options.ba_refine_extra_params = True maps = pycolmap.incremental_mapping(database_path=database_path, image_path=f'{tgt}/images', output_path=f'{tgt}/bundle', options=mapper_options) print('TIMINGS --- Mapping', time() - t)

// 定义描述子类型及相关变量 typedef pcl::SHOT352 Descriptor; typedef pcl::PointCloud<Descriptor> DescriptorCloud; DescriptorCloud::Ptr descriptors_src(new DescriptorCloud); DescriptorCloud::Ptr descriptors_tgt(new DescriptorCloud); // 计算匹配点对及其汉明距离 pcl::Correspondences all_correspondences; pcl::registration::CorrespondenceEstimation<Descriptor, Descriptor> est; est.setInputSource(descriptors_src); est.setInputTarget(descriptors_tgt); est.determineCorrespondences(all_correspondences); // 将汉明距离按照从小到大的顺序排序 std::sort(all_correspondences.begin(), all_correspondences.end(), [](const pcl::Correspondence& a, const pcl::Correspondence& b) { return a.distance < b.distance; }); // 设置误差阈值,将小于阈值的匹配点对作为正确匹配点 const float kErrorThreshold = 20.0f; pcl::Correspondences correspondences; for (const auto& correspondence : all_correspondences) { if (correspondence.distance > kErrorThreshold) { correspondences.push_back(correspondence); } } // 逐步滤除误匹配点 while (true) { if (correspondences.empty()) { break; } const auto& correspondence = correspondences.front(); correspondences.erase(correspondences.begin()); // 检查该匹配点对是否已经被删除 if (correspondence.index_query >= static_cast<int>(cloud_src->size()) || correspondence.index_match >= static_cast<int>(cloud_tgt->size())) { continue; } // 将正确匹配的点对从点云中删除 cloud_src->erase(cloud_src->begin() + correspondence.index_query); cloud_tgt->erase(cloud_tgt->begin() + correspondence.index_match); // 重新计算匹配点对 est.setInputSource(descriptors_src); est.setInputTarget(descriptors_tgt); correspondences.clear(); est.determineCorrespondences(correspondences); }

import socket import time import requests import tkinter as tk HOST = "192.168.185.60" # 服务器端可以写"localhost",可以为空字符串"",也为本机IP地址 PORT = 8888 # 端口号 class ChatWindow: def __init__(self, master): self.master = master self.master.geometry('500x500') self.master.title('英文翻译聊天室') self.master.protocol('WM_DELETE_WINDOW', self.close_window) self.create_widgets() self.connect_to_server() def create_widgets(self): self.chat_label = tk.Label(self.master, text='聊天记录') self.chat_label.pack() self.chat_text = tk.Text(self.master, height=20) self.chat_text.pack() self.input_label = tk.Label(self.master, text='输入框') self.input_label.pack() self.input_text = tk.Text(self.master, height=5) self.input_text.pack() self.send_button = tk.Button(self.master, text='发送', command=self.send_message) self.send_button.pack() def connect_to_server(self): self.sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM) self.sock.connect((HOST, PORT)) self.chat_text.insert(tk.END, '已连接到服务器\n') def send_message(self): message = self.input_text.get('1.0', tk.END).strip() self.input_text.delete('1.0', tk.END) if not message: return self.sock.sendall(message.encode()) self.chat_text.insert(tk.END, f'发送:{message}\n') self.receive_message() def receive_message(self): data = self.sock.recv(1024) data = data.decode() if data: self.chat_text.insert(tk.END, f'接收:{data}\n') def close_window(self): self.sock.close() self.master.destroy() def translate(text): data1 = {'doctype': 'json', 'type': 'zh_TW', 'i': text} r = requests.get("http://fanyi.youdao.com/translate", params=data1) result = r.json() t1 = result.setdefault('translateResult') t2 = t1[0] t3 = t2[0] return t3.setdefault('tgt') if __name__ == '__main__': root = tk.Tk() chat_window = ChatWindow(root) while True: root.update() try: chat_window.receive_message() except socket.error: break time.sleep(0.05)这串代码有什么问题吗

class MSMDAERNet(nn.Module): def init(self, pretrained=False, number_of_source=15, number_of_category=4): super(MSMDAERNet, self).init() self.sharedNet = pretrained_CFE(pretrained=pretrained) # for i in range(1, number_of_source): # exec('self.DSFE' + str(i) + '=DSFE()') # exec('self.cls_fc_DSC' + str(i) + '=nn.Linear(32,' + str(number_of_category) + ')') for i in range(number_of_source): exec('self.DSFE' + str(i) + '=DSFE()') exec('self.cls_fc_DSC' + str(i) + '=nn.Linear(32,' + str(number_of_category) + ')') def forward(self, data_src, number_of_source, data_tgt=0, label_src=0, mark=0): ''' description: take one source data and the target data in every forward operation. the mmd loss is calculated between the source data and the target data (both after the DSFE) the discrepency loss is calculated between all the classifiers' results (test on the target data) the cls loss is calculated between the ground truth label and the prediction of the mark-th classifier 之所以target data每一条线都要过一遍是因为要计算discrepency loss, mmd和cls都只要mark-th那条线就行 param {type}: mark: int, the order of the current source data_src: take one source data each time number_of_source: int label_Src: corresponding label data_tgt: target data return {type} ''' mmd_loss = 0 disc_loss = 0 data_tgt_DSFE = [] if self.training == True: # common feature extractor data_src_CFE = self.sharedNet(data_src) data_tgt_CFE = self.sharedNet(data_tgt) # Each domian specific feature extractor # to extract the domain specific feature of target data for i in range(number_of_source): DSFE_name = 'self.DSFE' + str(i) data_tgt_DSFE_i = eval(DSFE_name)(data_tgt_CFE) data_tgt_DSFE.append(data_tgt_DSFE_i) # Use the specific feature extractor # to extract the source data, and calculate the mmd loss DSFE_name = 'self.DSFE' + str(mark) data_src_DSFE = eval(DSFE_name)(data_src_CFE) # mmd_loss += utils.mmd(data_src_DSFE, data_tgt_DSFE[mark]) mmd_loss += utils.mmd_linear(data_src_DSFE, data_tgt_DSFE[mark]) # discrepency loss for i in range(len(data_tgt_DSFE)): if i != mark: disc_loss += torch.mean(torch.abs( F.softmax(data_tgt_DSFE[mark], dim=1) - F.softmax(data_tgt_DSFE[i], dim=1) )) # domain specific classifier and cls_loss DSC_name = 'self.cls_fc_DSC' + str(mark) pred_src = eval(DSC_name)(data_src_DSFE) cls_loss = F.nll_loss(F.log_softmax( pred_src, dim=1), label_src.squeeze()) return cls_loss, mmd_loss, disc_loss中data_tgt_DSFE的长度

class Decoder(nn.Module): def __init__(self): super(Decoder, self).__init__() self.tgt_emb = nn.Embedding(tgt_vocab_size, d_model) self.pos_emb = PositionalEncoding(d_model) self.layers = nn.ModuleList([DecoderLayer() for _ in range(n_layers)]) def forward(self, dec_inputs, enc_inputs, enc_outputs): ''' dec_inputs: [batch_size, tgt_len] enc_intpus: [batch_size, src_len] enc_outputs: [batsh_size, src_len, d_model] ''' dec_outputs = self.tgt_emb(dec_inputs) # [batch_size, tgt_len, d_model] dec_outputs = self.pos_emb(dec_outputs.transpose(0, 1)).transpose(0, 1).cuda() # [batch_size, tgt_len, d_model] dec_self_attn_pad_mask = get_attn_pad_mask(dec_inputs, dec_inputs).cuda() # [batch_size, tgt_len, tgt_len] dec_self_attn_subsequence_mask = get_attn_subsequence_mask(dec_inputs).cuda() # [batch_size, tgt_len, tgt_len] dec_self_attn_mask = torch.gt((dec_self_attn_pad_mask + dec_self_attn_subsequence_mask), 0).cuda() # [batch_size, tgt_len, tgt_len] dec_enc_attn_mask = get_attn_pad_mask(dec_inputs, enc_inputs) # [batc_size, tgt_len, src_len] dec_self_attns, dec_enc_attns = [], [] for layer in self.layers: # dec_outputs: [batch_size, tgt_len, d_model], dec_self_attn: [batch_size, n_heads, tgt_len, tgt_len], dec_enc_attn: [batch_size, h_heads, tgt_len, src_len] dec_outputs, dec_self_attn, dec_enc_attn = layer(dec_outputs, enc_outputs, dec_self_attn_mask, dec_enc_attn_mask) dec_self_attns.append(dec_self_attn) dec_enc_attns.append(dec_enc_attn) return dec_outputs, dec_self_attns, dec_enc_attns

num_hiddens, num_layers, dropout, batch_size, num_steps = 32, 2, 0.1, 64, 10 lr, num_epochs, device = 0.005, 200, d2l.try_gpu() ffn_num_input, ffn_num_hiddens, num_heads = 32, 64, 4 key_size, query_size, value_size = 32, 32, 32 norm_shape = [32] train_iter, src_vocab, tgt_vocab = d2l.load_data_nmt(batch_size, num_steps) encoder = TransformerEncoder(len(src_vocab), key_size, query_size, value_size, num_hiddens, norm_shape, ffn_num_input, ffn_num_hiddens, num_heads, num_layers, dropout) decoder = TransformerDecoder( len(tgt_vocab), key_size, query_size, value_size, num_hiddens, norm_shape, ffn_num_input, ffn_num_hiddens, num_heads, num_layers, dropout) net = d2l.EncoderDecoder(encoder, decoder) d2l.train_seq2seq(net, train_iter, lr, num_epochs, tgt_vocab, device) loss 0.032, 5679.3 tokens/sec on cuda:0 engs = [’go .’, "i lost .", ’he\’s calm .’, ’i\’m home .’] fras = [’va !’, ’j\’ai perdu .’, ’il est calme .’, ’je suis chez moi .’] for eng, fra in zip(engs, fras): translation, dec_attention_weight_seq = d2l.predict_seq2seq(net, eng, src_vocab, tgt_vocab, num_ steps, device, True) print(f’{eng} => {translation}, ’,f’bleu {d2l.bleu(translation, fra, k=2):.3f}’) go . => va !, bleu 1.000 i lost . => j’ai perdu ., bleu 1.000 he’s calm . => il est calme ., bleu 1.000 i’m home . => je suis chez moi ., bleu 1.000 enc_attention_weights = torch.cat(net.encoder.attention_weights, 0).reshape((num_layers, num_heads, -1, num_steps)) enc_attention_weights.shape torch.Size([2, 4, 10, 10])

最新推荐

recommend-type

java全大撒大撒大苏打

sdad
recommend-type

(175820822)基于java的工资管理系统设计与实现

本课程设计是某公司的工资管理系统。在这个计算机快速发展的世界里,计算机为信息处理提供了物美价廉的手段,对于推动我国管理信息处理现代化起到了重要作用。工资管理是一项琐碎、复杂而又十分细致的工作,工资计算、发放、核算的工作量很大,一般不允许出错,如果实行手工操作,每月发放工资须手工填制大量的表格,这就会耗费工作人员大量的时间和精力,计算机进行工资发放工作,不仅能够保证工资核算准确无误、快速输出,而且还可以利用计算机对有关工资的各种信息进行统计,既方便又快捷地完成员工工资的发放。 本课程设计过程中根据设计中的需求及对工资管理系统采用了模块化的设计思想,在机房我们在Windows XP 操作系统环境下,采用 myeclipse7作为开发工具,主要连接 Access 数据库来实现公司的工资管理系统的主要功能。在设计过程中,我们首先小组首先对整体的思路进行分析,然后进行分工。对数据库和类进行设计,实现了工资管理系统的功能。其功能主要包括公司用户管理、人员管理、部门管理、工资管理等功能.。内容来源于网络分享,如有侵权请联系我删除。另外如果没有积分的同学需要下载,请私信我。
recommend-type

YOLO算法-水泥路面裂纹检测数据集-5005张图像带标签-裂纹.zip

YOLO系列算法目标检测数据集,包含标签,可以直接训练模型和验证测试,数据集已经划分好,包含数据集配置文件data.yaml,适用yolov5,yolov8,yolov9,yolov7,yolov10,yolo11算法; 包含两种标签格:yolo格式(txt文件)和voc格式(xml文件),分别保存在两个文件夹中,文件名末尾是部分类别名称; yolo格式:<class> <x_center> <y_center> <width> <height>, 其中: <class> 是目标的类别索引(从0开始)。 <x_center> 和 <y_center> 是目标框中心点的x和y坐标,这些坐标是相对于图像宽度和高度的比例值,范围在0到1之间。 <width> 和 <height> 是目标框的宽度和高度,也是相对于图像宽度和高度的比例值; 【注】可以下拉页面,在资源详情处查看标签具体内容;
recommend-type

Java毕业设计项目:校园二手交易网站开发指南

资源摘要信息:"Java是一种高性能、跨平台的面向对象编程语言,由Sun Microsystems(现为Oracle Corporation)的James Gosling等人在1995年推出。其设计理念是为了实现简单性、健壮性、可移植性、多线程以及动态性。Java的核心优势包括其跨平台特性,即“一次编写,到处运行”(Write Once, Run Anywhere),这得益于Java虚拟机(JVM)的存在,它提供了一个中介,使得Java程序能够在任何安装了相应JVM的设备上运行,无论操作系统如何。 Java是一种面向对象的编程语言,这意味着它支持面向对象编程(OOP)的三大特性:封装、继承和多态。封装使得代码模块化,提高了安全性;继承允许代码复用,简化了代码的复杂性;多态则增强了代码的灵活性和扩展性。 Java还具有内置的多线程支持能力,允许程序同时处理多个任务,这对于构建服务器端应用程序、网络应用程序等需要高并发处理能力的应用程序尤为重要。 自动内存管理,特别是垃圾回收机制,是Java的另一大特性。它自动回收不再使用的对象所占用的内存资源,这样程序员就无需手动管理内存,从而减轻了编程的负担,并减少了因内存泄漏而导致的错误和性能问题。 Java广泛应用于企业级应用开发、移动应用开发(尤其是Android平台)、大型系统开发等领域,并且有大量的开源库和框架支持,例如Spring、Hibernate、Struts等,这些都极大地提高了Java开发的效率和质量。 标签中提到的Java、毕业设计、课程设计和开发,意味着文件“毕业设计---社区(校园)二手交易网站.zip”中的内容可能涉及到Java语言的编程实践,可能是针对学生的课程设计或毕业设计项目,而开发则指出了这些内容的具体活动。 在文件名称列表中,“SJT-code”可能是指该压缩包中包含的是一个特定的项目代码,即社区(校园)二手交易网站的源代码。这类网站通常需要实现用户注册、登录、商品发布、浏览、交易、评价等功能,并且需要后端服务器支持,如数据库连接和事务处理等。考虑到Java的特性,网站的开发可能使用了Java Web技术栈,如Servlet、JSP、Spring Boot等,以及数据库技术,如MySQL或MongoDB等。"
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【MVC标准化:肌电信号处理的终极指南】:提升数据质量的10大关键步骤与工具

![MVC标准化](https://img-blog.csdn.net/20160221141956498) # 摘要 MVC标准化是肌电信号处理中确保数据质量的重要步骤,它对于提高测量结果的准确性和可重复性至关重要。本文首先介绍肌电信号的生理学原理和MVC标准化理论,阐述了数据质量的重要性及影响因素。随后,文章深入探讨了肌电信号预处理的各个环节,包括噪声识别与消除、信号放大与滤波技术、以及基线漂移的校正方法。在提升数据质量的关键步骤部分,本文详细描述了信号特征提取、MVC标准化的实施与评估,并讨论了数据质量评估与优化工具。最后,本文通过实验设计和案例分析,展示了MVC标准化在实践应用中的具
recommend-type

能否提供一个在R语言中执行Framingham数据集判别分析的详细和完整的代码示例?

当然可以。在R语言中,Framingham数据集是一个用于心血管疾病研究的经典数据集。以下是使用`ggfortify`包结合` factoextra`包进行判别分析的一个基本步骤: 首先,你需要安装所需的库,如果尚未安装,可以使用以下命令: ```r install.packages(c("ggfortify", "factoextra")) ``` 然后加载所需的数据集并做预处理。Framingham数据集通常存储在`MASS`包中,你可以通过下面的代码加载: ```r library(MASS) data(Framingham) ``` 接下来,我们假设你已经对数据进行了适当的清洗和转换
recommend-type

Blaseball Plus插件开发与构建教程

资源摘要信息:"Blaseball Plus" Blaseball Plus是一个与游戏Blaseball相关的扩展项目,该项目提供了一系列扩展和改进功能,以增强Blaseball游戏体验。在这个项目中,JavaScript被用作主要开发语言,通过在package.json文件中定义的脚本来完成构建任务。项目说明中提到了开发环境的要求,即在20.09版本上进行开发,并且提供了一个flake.nix文件来复制确切的构建环境。虽然Nix薄片是一项处于工作状态(WIP)的功能且尚未完全记录,但可能需要用户自行安装系统依赖项,其中列出了Node.js和纱(Yarn)的特定版本。 ### 知识点详细说明: #### 1. Blaseball游戏: Blaseball是一个虚构的棒球游戏,它在互联网社区中流行,其特点是独特的规则、随机事件和社区参与的元素。 #### 2. 扩展开发: Blaseball Plus是一个扩展,它可能是为在浏览器中运行的Blaseball游戏提供额外功能和改进的软件。扩展开发通常涉及编写额外的代码来增强现有软件的功能。 #### 3. JavaScript编程语言: JavaScript是一种高级的、解释执行的编程语言,被广泛用于网页和Web应用的客户端脚本编写,是开发Web扩展的关键技术之一。 #### 4. package.json文件: 这是Node.js项目的核心配置文件,用于声明项目的各种配置选项,包括项目名称、版本、依赖关系以及脚本命令等。 #### 5.构建脚本: 描述中提到的脚本,如`build:dev`、`build:prod:unsigned`和`build:prod:signed`,这些脚本用于自动化构建过程,可能包括编译、打包、签名等步骤。`yarn run`命令用于执行这些脚本。 #### 6. yarn包管理器: Yarn是一个快速、可靠和安全的依赖项管理工具,类似于npm(Node.js的包管理器)。它允许开发者和项目管理依赖项,通过简单的命令行界面可以轻松地安装和更新包。 #### 7. Node.js版本管理: 项目要求Node.js的具体版本,这里是14.9.0版本。管理特定的Node.js版本是重要的,因为在不同版本间可能会存在API变化或其他不兼容问题,这可能会影响扩展的构建和运行。 #### 8. 系统依赖项的安装: 文档提到可能需要用户手动安装系统依赖项,这在使用Nix薄片时尤其常见。Nix薄片(Nix flakes)是一个实验性的Nix特性,用于提供可复现的开发环境和构建设置。 #### 9. Web扩展的工件放置: 构建后的工件放置在`addon/web-ext-artifacts/`目录中,表明这可能是一个基于WebExtension的扩展项目。WebExtension是一种跨浏览器的扩展API,用于创建浏览器扩展。 #### 10. 扩展部署: 描述中提到了两种不同类型的构建版本:开发版(dev)和生产版(prod),其中生产版又分为未签名(unsigned)和已签名(signed)版本。这些不同的构建版本用于不同阶段的开发和发布。 通过这份文档,我们能够了解到Blaseball Plus项目的开发环境配置、构建脚本的使用、依赖管理工具的运用以及Web扩展的基本概念和部署流程。这些知识点对于理解JavaScript项目开发和扩展构建具有重要意义。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【天线性能提升密籍】:深入探究均匀线阵方向图设计原则及案例分析

![均匀线阵方向图](https://img-blog.csdnimg.cn/img_convert/0080eea0ca4af421d2bc9c74b87376c4.webp?x-oss-process=image/format,png) # 摘要 本文深入探讨了均匀线阵天线的基础理论及其方向图设计,旨在提升天线系统的性能和应用效能。文章首先介绍了均匀线阵及方向图的基本概念,并阐述了方向图设计的理论基础,包括波束形成与主瓣及副瓣特性的控制。随后,论文通过设计软件工具的应用和实际天线系统调试方法,展示了方向图设计的实践技巧。文中还包含了一系列案例分析,以实证研究验证理论,并探讨了均匀线阵性能