遗传算法优化BP神经网络预测在MATLAB中的代码编写

时间: 2023-09-08 17:05:19 浏览: 82
### 回答1: 遗传算法优化BP神经网络预测在MATLAB中的代码编写流程如下: 1. 准备训练数据和测试数据,并将它们转化为MATLAB可以处理的形式。 2. 使用MATLAB的神经网络工具箱建立BP神经网络模型。 3. 使用MATLAB的遗传算法工具箱设计遗传算法优化器,并将其与BP神经网络模型相结合。 4. 使用训练数据训练BP神经网络模型,并使用遗传算法优化器不断调整参数,以使BP神经网络在训练过程中不断优化。 5. 使用测试数据对训练后的BP神经网络进行测试,并评估其预测效果。 以下是一个使用遗传算法优化BP神经网络预测的MATLAB程序示例: ``` % 加载训练数据 load train_data.mat % 建立BP神经网络模型 net = feedforwardnet(10); % 设置遗传算法优化器 ga = ga(net); % 训练BP神经网络 [net,tr] = train(net, inputs, targets, 'ga', ga); % 加载测试数据 load test_data.mat % 使用测试数据测试BP神经网络 outputs = net(inputs); % 评估预测效果 performance = perform(net, targets, outputs); ``` 希望以上示例对您有帮助。 ### 回答2: 遗传算法优化BP神经网络预测在MATLAB中的代码编写: 在MATLAB中,遗传算法(Genetic Algorithm, GA)可以用来优化BP神经网络(Backpropagation Neural Network, BPNN)的预测效果。下面是使用MATLAB编写遗传算法优化BP神经网络预测的代码。 首先,需要定义适应度函数来评估BP神经网络的预测效果。适应度函数可以根据实际问题的需求进行定义,例如均方根误差(RMSE)或R方值等。 接下来,我们需要编写遗传算法的参数设置,包括种群大小、交叉概率、变异概率等。这些参数的选择需要根据实际问题和算法效果进行调试和优化。 然后,需要定义BP神经网络的结构和参数。包括输入层、隐藏层和输出层的节点数,以及权重和阈值的初始化方法等。可以使用MATLAB中的神经网络工具箱来方便地搭建BP神经网络。 接下来,使用遗传算法对BP神经网络进行优化。遗传算法的核心步骤包括初始化种群、计算适应度、选择、交叉、变异和更新种群等。 选取适应度高的个体进行交叉和变异操作,并根据交叉概率和变异概率确定是否进行交叉和变异操作。 交叉操作可以通过交换个体的染色体编码来生成新的个体。变异操作可以通过随机选择部分个体的染色体编码并随机改变其中的位来生成新的个体。 最后,根据遗传算法的迭代次数和停止条件确定是否终止遗传算法,并输出优化后的BP神经网络参数和预测效果。 以上是遗传算法优化BP神经网络预测在MATLAB中的代码编写过程。实际应用中,还需要根据具体问题进行适当的调试和优化,以提高预测效果。 ### 回答3: 遗传算法(Genetic Algorithm,简称GA)优化BP神经网络预测在MATLAB中的代码编写可以分为以下几个步骤。 1. 数据准备:根据预测问题,准备训练集和测试集的数据。确保数据集的质量和合适性,进行数据清洗、预处理等工作。 2. 建立BP神经网络模型:利用MATLAB中的Neural Network Toolbox,通过设定网络的层数、节点数等参数,建立BP神经网络的模型。 3. 设置适应度函数:将BP神经网络的误差作为适应度函数,即预测值与真实值之间的差距。适应度函数的值越小,表示网络预测性能越好。 4. 设置遗传算法参数:包括种群大小、迭代次数、交叉概率、变异概率等。根据实际问题,调整参数以获取更好的优化效果。 5. 初始化种群:根据问题的特点,初始化一定数量的个体,用来表示BP神经网络的权重和阈值。 6. 选择操作:通过适应度函数的值,根据选择概率选择一部分个体作为下一代的父代。 7. 交叉操作:从父代中选取两个个体,通过交叉操作生成两个子代。交叉操作可以采用单点交叉、多点交叉等。 8. 变异操作:对子代中的一部分个体进行变异操作,以增加种群的多样性和搜索的广度。 9. 新一代生成:将父代和子代合并,形成新一代的种群。 10. 计算适应度值:根据适应度函数,计算新一代个体的适应度值。 11. 重复步骤6-10:循环进行选择、交叉、变异和计算适应度值等操作,直到达到设定的迭代次数。 12. 结果分析:根据设定的停止准则,取适应度值最小的个体作为最优解,进行结果分析和评估。可以通过绘制预测结果曲线、计算预测误差等方式进行分析。 以上是用300字回答遗传算法优化BP神经网络预测在MATLAB中的代码编写的步骤,希望对您有所帮助。

相关推荐

以下是一个简单的用遗传算法优化BP神经网络分类的MATLAB代码: matlab % 定义遗传算法参数 pop_size = 50; % 种群大小 num_generations = 100; % 迭代次数 mutation_rate = 0.01; % 变异率 crossover_rate = 0.8; % 交叉率 % 定义BP神经网络参数 hidden_layer_size = 10; % 隐藏层大小 learning_rate = 0.01; % 学习率 % 加载数据 load iris_dataset; inputs = irisInputs; targets = irisTargets; % 定义适应度函数 fitness_func = @(pop) evaluate_fitness(pop, inputs, targets, hidden_layer_size, learning_rate); % 初始化种群 pop = initialize_population(pop_size, numel(inputs), numel(targets), hidden_layer_size); % 迭代遗传算法进行优化 for i = 1:num_generations % 计算适应度 fitness = fitness_func(pop); % 选择 parents = select_parents(pop, fitness); % 交叉 offspring = crossover(parents, crossover_rate); % 变异 offspring = mutate(offspring, mutation_rate); % 合并种群 pop = [parents; offspring]; % 保留最佳个体 [~, idx] = max(fitness); best_individual = pop(idx, :); % 输出当前迭代的最佳适应度 fprintf('Generation %d: Best fitness = %f\n', i, fitness(idx)); % 更新BP神经网络权重 net = update_network(best_individual, inputs, targets, hidden_layer_size, learning_rate); end % 使用最优个体测试BP神经网络分类效果 outputs = net(inputs); [~, predicted_labels] = max(outputs); accuracy = sum(predicted_labels == find(targets)) / numel(targets) * 100; fprintf('Classification accuracy = %f%%\n', accuracy); 其中,initialize_population函数用于初始化种群,evaluate_fitness函数用于计算适应度,select_parents函数用于选择父代,crossover函数用于交叉,mutate函数用于变异,update_network函数用于更新BP神经网络的权重。这些函数的具体实现可以根据具体情况进行编写。
以下是使用遗传算法优化BP神经网络进行五因素五水平正交试验寻优的MATLAB代码: 首先,我们需要定义优化目标函数,即BP神经网络的训练误差: matlab function err = opt_fun(x) % x: 1 * 5 向量,表示五个因素的水平 % err: BP神经网络的训练误差 % 构建正交试验矩阵 levels = [-1 -0.5 0 0.5 1]; design = fullfact(levels(ones(1,5))); design = orth(design); % 将因素水平转换为实际水平 actual_levels = x * design'; % 读取训练数据和目标数据 train_data = load('train_data.mat'); train_target = load('train_target.mat'); % 构建BP神经网络 net = feedforwardnet([10 5]); net.trainFcn = 'trainlm'; % 设置BP神经网络的输入和输出 net.inputs{1}.processFcns = {}; net.outputs{2}.processFcns = {}; % 设置BP神经网络的训练参数 net.trainParam.epochs = 1000; net.trainParam.showWindow = false; % 训练BP神经网络 net = train(net, train_data.train_data', train_target.train_target'); % 计算训练误差 err = perform(net, train_target.train_target', net(train_data.train_data')'); end 然后,我们需要使用遗传算法进行优化: matlab % 设置遗传算法参数 ga_opts = gaoptimset('PopulationSize', 50, 'Generations', 100, 'Display', 'iter'); % 运行遗传算法 [x, fval] = ga(@opt_fun, 5, [], [], [], [], [-1 -1 -1 -1 -1], [1 1 1 1 1], [], ga_opts); 最后,我们将最优解转换为实际水平,并输出结果: matlab % 将最优解转换为实际水平 levels = [-1 -0.5 0 0.5 1]; design = fullfact(levels(ones(1,5))); design = orth(design); actual_levels = x * design'; % 输出结果 disp('最优解为:'); disp(actual_levels); disp(['最优解对应的训练误差为:', num2str(fval)]); 需要注意的是,上述代码中使用了正交试验矩阵来构建因素水平,这是因为正交试验设计可以最小化试验所需的样本数,并且可以减少因素之间的相互影响。同时,也需要根据实际情况调整BP神经网络的结构和训练参数,以达到最优的效果。
以下是一个简单的遗传算法与BP神经网络结合的代码示例,用于五因素五水平正交试验寻找最优组合: matlab % 遗传算法参数 pop_size = 50; % 种群大小 max_gen = 100; % 最大迭代次数 pc = 0.8; % 交叉概率 pm = 0.1; % 变异概率 % BP神经网络参数 hidden_size = 10; % 隐藏层节点数 lr = 0.01; % 学习率 epoch = 50; % 迭代次数 % 五因素五水平正交试验参数 M = 5; % 因素数 N = 5; % 水平数 % 生成初始种群 pop = rand(pop_size, M*N) > 0.5; for i = 1:max_gen % 计算适应度 fit = zeros(pop_size, 1); for j = 1:pop_size % 将二进制编码转化为实际因素水平组合 factor_level = reshape(pop(j,:), [M,N]); % 使用BP神经网络进行预测 % X为输入,Y为输出 [X, Y] = generate_training_data(factor_level); net = train_net(X, Y, hidden_size, lr, epoch); y_pred = net(X); % 计算适应度(MSE) fit(j) = sum((Y - y_pred).^2) / size(Y,1); end % 选择 [fit_sorted, idx] = sort(fit); pop = pop(idx,:); % 交叉 for j = 1:2:pop_size-1 if rand() < pc % 随机选择交叉点 pos = randi([1,M*N-1]); % 交叉操作 temp = pop(j+1, pos+1:end); pop(j+1, pos+1:end) = pop(j, pos+1:end); pop(j, pos+1:end) = temp; end end % 变异 for j = 1:pop_size if rand() < pm % 随机选择变异点 pos = randi([1,M*N]); % 变异操作 pop(j, pos) = ~pop(j, pos); end end % 输出目前迭代的最优解 best_fit = fit_sorted(1); best_factor_level = reshape(pop(1,:), [M,N]); fprintf('Generation %d: best fit = %f, best factor level = \n', i, best_fit); disp(best_factor_level); end % 生成BP神经网络训练数据 function [X, Y] = generate_training_data(factor_level) % TODO: 根据因素水平组合生成对应的输入和输出 end % 训练BP神经网络 function net = train_net(X, Y, hidden_size, lr, epoch) % TODO: 使用X和Y训练BP神经网络,并返回训练好的网络 end 在代码中,我们使用遗传算法生成五因素五水平正交试验的因素水平组合,并使用BP神经网络进行预测和适应度计算。具体实现时,我们需要根据因素水平组合生成对应的BP神经网络训练数据,并使用该数据训练BP神经网络。然后,我们可以使用训练好的BP神经网络进行预测,并计算适应度(MSE)。最后,我们使用遗传算法进行选择、交叉和变异,并输出目前迭代的最优解。
### 回答1: GA-BP 神经网络算法是一种结合了遗传算法和反向传播算法的神经网络算法,常用于解决分类、回归等问题。在 MATLAB 中,可以使用 Neural Network Toolbox 工具箱来实现 GA-BP 神经网络算法。 首先,需要定义神经网络的结构,包括输入层、隐藏层和输出层的节点数、激活函数等。然后,使用 genfis 函数生成模糊推理系统,将其作为神经网络的初始化权重。接着,使用 ga 函数优化神经网络的权重和偏置,同时使用 train 函数对神经网络进行训练。最后,使用 sim 函数对测试数据进行预测。 以下是一个简单的 GA-BP 神经网络算法的 MATLAB 代码示例: matlab % 定义神经网络结构 inputNodes = 4; hiddenNodes = 8; outputNodes = 3; activationFcn = 'tansig'; % 生成模糊推理系统并初始化神经网络权重 fis = genfis(data, outputNodes); net = newff(fis.input, fis.output, [hiddenNodes outputNodes], {activationFcn, 'purelin'}); % 定义优化函数和训练函数 fitnessFcn = @(w) ga_fitness(w, net, data, target); trainFcn = @(net, data, target) ga_train(net, data, target); % 优化神经网络权重和偏置 options = gaoptimset('Generations', 100, 'PopulationSize', 50); [x, fval] = ga(fitnessFcn, net.numWeightElements, options); % 训练神经网络 net = trainFcn(net, data, target); % 预测测试数据 output = sim(net, testData); 其中,ga_fitness 和 ga_train 分别是自定义的优化函数和训练函数,可以根据具体问题进行修改。在实际使用中,还需要对数据进行预处理、划分训练集和测试集等操作。 ### 回答2: ga-bp神经网络算法(Genetic Algorithm-Backpropagation Neural Network Algorithm)是一种用于解决复杂问题的神经网络算法,结合了遗传算法和反向传播算法。在Matlab中,可以使用MATLAB自带的神经网络工具箱来实现该算法。 首先,我们需要搭建和训练一个神经网络。通过设置网络的输入、输出层的节点数和隐含层的节点数,确定网络的结构。然后,使用MATLAB提供的神经网络工具箱中的train函数对神经网络进行训练。该函数使用了反向传播算法来优化网络的权值和偏置值,使网络能够适应训练数据。 在进行网络训练之前,我们需要确定网络训练的目标,即选择一个合适的性能函数。常用的性能函数有均方误差函数(mean squared error)和交叉熵函数(cross entropy)。这些函数可以衡量网络的输出与目标值之间的差距,通过最小化性能函数来优化网络的训练效果。 在网络训练过程中,遗传算法也起到了重要的作用。遗传算法通过模拟生物进化的过程,不断地对网络的参数进行优化。它通过产生一组初始解,然后使用选择、交叉和变异等操作来演化出更好的解。在每一代的遗传算法优化过程中,由于遗传算法的全局搜索性能,可以有效地避免陷入局部最优解。 在Matlab中,通过ga(遗传算法优化工具)函数可以实现遗传算法部分。我们可以将遗传算法和反向传播算法结合起来,通过遗传算法找到合适的权值和偏置值,并通过反向传播算法进行优化,从而提高神经网络的学习能力和泛化能力。 总之,ga-bp神经网络算法是一种运用遗传算法和反向传播算法相结合的神经网络算法,在Matlab中可以通过神经网络工具箱和遗传算法优化工具来实现。这种算法能够通过全局搜索和局部优化来提高神经网络的性能,对于解决复杂问题具有很好的效果。 ### 回答3: 《ga-bp神经网络算法matlab》是一种结合了遗传算法(GA)和反向传播(BP)算法的神经网络算法。遗传算法是通过模拟生物进化过程来搜索最优解的一种优化算法,而反向传播算法是一种常用于训练神经网络的算法。 在这种算法中,利用遗传算法的优势来提高BP算法的训练效果。具体步骤如下: 1. 初始化:对神经网络的权重和偏置进行随机初始化,并设置其他相关参数,如种群大小、迭代次数等。 2. 基于遗传算法进行种群进化:使用遗传算法对神经网络的权重和偏置进行编码,并生成初始种群。然后通过选择、交叉和变异等操作,对种群进行优胜劣汰,以逐渐找到更优的解。 3. 使用BP算法进行网络训练:将每个个体(神经网络权重和偏置的编码)解码成具体的权重和偏置,然后使用BP算法对神经网络进行训练。BP算法的主要目标是通过输入样本的前向传播和误差反向传播,调整神经网络的权重和偏置,使其输出接近于样本的真实值。 4. 重复步骤2和3,直到达到预设的迭代次数或满足停止准则。 通过以上步骤,ga-bp神经网络算法可以使神经网络在训练过程中跳出局部最优解,并更快地找到全局最优解。同时,由于遗传算法的加入,算法具有较好的全局搜索能力和鲁棒性。 在MATLAB中,可以通过使用神经网络工具箱或自行编写代码来实现ga-bp神经网络算法。通过使用MATLAB的优秀优化、神经网络和遗传算法等工具,可以更加高效地实现和调优该算法。
BP神经网络是一种常用的人工神经网络模型,用于进行数据预测和模式识别。在MATLAB中,可以使用不同的优化算法来实现BP神经网络的训练和预测。 引用提供了BP神经网络的结构参数和训练界面的参数解读,以及实现BP网络预测的步骤。通过编写MATLAB代码,可以实现BP神经网络的建模和预测。引用中列举了多种优化算法来优化BP神经网络的回归预测,包括遗传算法、粒子群算法、灰狼优化算法、布谷鸟搜索算法等等。这些算法可以根据具体的问题选择合适的优化方法。 引用提供了BP神经网络的流程图,其中包括了标准BP神经网络和批训练BP神经网络的不同误差调整方式。标准BP神经网络是每输入一个样本就计算相应误差进行调整,而批训练BP神经网络是计算所有样本的总误差进行调整。 因此,根据引用的内容,可以使用MATLAB编写BP神经网络的代码,并根据具体问题选择合适的优化算法来提高神经网络的性能。123 #### 引用[.reference_title] - *1* *2* [BP神经网络预测matlab代码讲解与实现步骤](https://blog.csdn.net/qq_57971471/article/details/121766454)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [Bp神经网络详解—matlab实现Bp神经网络](https://blog.csdn.net/m0_52792591/article/details/124435325)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
GA-PSO-BP预测模型是一种基于遗传算法、粒子群算法和BP神经网络算法相结合的预测模型。其主要思想是利用遗传算法和粒子群算法优化BP神经网络的权重和阈值,从而提高预测模型的精度和鲁棒性。 Matlab是一种常用的科学计算软件,对于GA-PSO-BP预测模型的构建与优化,也可使用Matlab来实现代码编写。具体实现步骤为: 1. 准备训练数据集和测试数据集,并将其导入Matlab中。 2. 定义BP神经网络的输入层、隐含层和输出层的神经元个数,并初始化权重和阈值。 3. 定义适应度函数,即评估当前BP网络预测结果的精度的函数。 4. 使用遗传算法和粒子群算法对BP网络的权重和阈值进行优化,更新神经网络模型。 5. 使用得到的优化BP网络进行训练和测试,得到预测结果,并评估预测模型的精度和鲁棒性。 下面是一个简单的GA-PSO-BP预测模型的Matlab代码示例: matlab %定义输入层、隐含层、输出层的神经元个数 input_layer_num = 4; hidden_layer_num = 8; output_layer_num = 1; %初始化BP网络的权重和阈值 w1 = rand(input_layer_num, hidden_layer_num); w2 = rand(hidden_layer_num, output_layer_num); b1 = rand(1, hidden_layer_num); b2 = rand(1, output_layer_num); %导入训练数据集和测试数据集 train_data = load('train_data.txt'); test_data = load('test_data.txt'); %定义适应度函数 function f = fitness_function(x) %计算BP网络的输出 [y, ~, ~] = bpnn(x, w1, w2, b1, b2, train_data(:, 1:end-1)); %计算预测误差 error = train_data(:, end) - y'; %计算适应度 f = 1 / mean(error.^2); end %使用遗传算法和粒子群算法优化BP网络的权重和阈值 options = gaoptimset('Display', 'iter'); [x, fval] = ga(@(x) -fitness_function(x), input_layer_num*hidden_layer_num + hidden_layer_num*output_layer_num + hidden_layer_num + output_layer_num, [], [], [], [], [], [], [], options); %更新BP网络模型 [~, w1, w2, b1, b2] = bpnn(x, w1, w2, b1, b2, train_data(:, 1:end-1)); %使用得到的优化BP网络进行测试 [y, ~, ~] = bpnn(x, w1, w2, b1, b2, test_data(:, 1:end-1)); %计算预测误差 error = test_data(:, end) - y'; %输出预测结果和误差 disp(y') disp(error') %评估预测模型的精度和鲁棒性 mse = mean(error.^2); rmse = sqrt(mse); mape = mean(abs(error./test_data(:, end))); disp(['MSE: ', num2str(mse)]); disp(['RMSE: ', num2str(rmse)]); disp(['MAPE: ', num2str(mape)]); 以上是一个简单的GA-PSO-BP预测模型的Matlab代码示例,可以根据实际需求进行更改和优化。
BP神经网络预测是一种使用BP(Back Propagation)算法的神经网络模型,它可以用来进行数据预测和模式识别。BP神经网络的结构通常由输入层、隐含层和输出层组成。输入层接收输入数据,隐含层负责对输入数据进行加权和传递,输出层生成最终的预测结果。 BP神经网络的预测过程通常包括以下步骤: 1. 数据预处理:对输入数据进行标准化或归一化处理,以避免不同量级的特征对网络的影响不均匀。 2. 网络参数初始化:初始化神经网络的权重和偏置值。 3. 前向传播:将输入数据通过网络的各层进行计算和传递,生成预测结果。 4. 反向传播:通过计算预测结果与实际结果之间的误差,调整网络的权重和偏置值,以减小误差。 5. 重复步骤3和步骤4,直到达到预定的训练次数或误差收敛。 在实现BP神经网络预测时,可以使用MATLAB等编程语言编写相应的代码。可以根据实际需求选择不同的优化算法来提高网络的性能,如遗传算法、粒子群算法、灰狼优化算法等。这些优化算法可以用来改进BP神经网络的训练过程,以提高预测结果的准确性和稳定性。 在运行BP神经网络的代码时,可以通过计算预测值和真实值之间的误差来评估网络的性能,常用的误差计算方法有MAE(Mean Absolute Error)、MSE(Mean Squared Error)、MRSE(Mean Relative Squared Error)等。通过性能分析图像可以观察网络训练的效果和收敛情况。 总结来说,BP神经网络预测是一种使用BP算法的神经网络模型,通过数据预处理、网络参数初始化、前向传播和反向传播等步骤来实现数据的预测。在实现过程中可以选择不同的优化算法和评估指标来提高网络的性能和准确性。123

最新推荐

基于PaddleOCR开发懒人精灵文字识别插件

基于PaddleOCR开发懒人精灵文字识别插件,使用方式可以查看该文章https://blog.csdn.net/YY007H/article/details/128247582

gd32f407+lwip+RTL8201F-VB

gd32f407+lwip+RTL8201F-VB

扩展难度trailblazer-6-backup.saved

扩展难度trailblazer-6-backup.saved

vmappsdk.dll

vmappsdk

微信小程序源码节日祝福

微信小程序源码节日祝福本资源系百度网盘分享地址

市建设规划局gis基础地理信息系统可行性研究报告.doc

市建设规划局gis基础地理信息系统可行性研究报告.doc

"REGISTOR:SSD内部非结构化数据处理平台"

REGISTOR:SSD存储裴舒怡,杨静,杨青,罗德岛大学,深圳市大普微电子有限公司。公司本文介绍了一个用于在存储器内部进行规则表达的平台REGISTOR。Registor的主要思想是在存储大型数据集的存储中加速正则表达式(regex)搜索,消除I/O瓶颈问题。在闪存SSD内部设计并增强了一个用于regex搜索的特殊硬件引擎,该引擎在从NAND闪存到主机的数据传输期间动态处理数据为了使regex搜索的速度与现代SSD的内部总线速度相匹配,在Registor硬件中设计了一种深度流水线结构,该结构由文件语义提取器、匹配候选查找器、regex匹配单元(REMU)和结果组织器组成。此外,流水线的每个阶段使得可能使用最大等位性。为了使Registor易于被高级应用程序使用,我们在Linux中开发了一组API和库,允许Registor通过有效地将单独的数据块重组为文件来处理SSD中的文件Registor的工作原

要将Preference控件设置为不可用并变灰java完整代码

以下是将Preference控件设置为不可用并变灰的Java完整代码示例: ```java Preference preference = findPreference("preference_key"); // 获取Preference对象 preference.setEnabled(false); // 设置为不可用 preference.setSelectable(false); // 设置为不可选 preference.setSummary("已禁用"); // 设置摘要信息,提示用户该选项已被禁用 preference.setIcon(R.drawable.disabled_ico

基于改进蚁群算法的离散制造车间物料配送路径优化.pptx

基于改进蚁群算法的离散制造车间物料配送路径优化.pptx

海量3D模型的自适应传输

为了获得的目的图卢兹大学博士学位发布人:图卢兹国立理工学院(图卢兹INP)学科或专业:计算机与电信提交人和支持人:M. 托马斯·福吉奥尼2019年11月29日星期五标题:海量3D模型的自适应传输博士学校:图卢兹数学、计算机科学、电信(MITT)研究单位:图卢兹计算机科学研究所(IRIT)论文主任:M. 文森特·查维拉特M.阿克塞尔·卡里尔报告员:M. GWendal Simon,大西洋IMTSIDONIE CHRISTOPHE女士,国家地理研究所评审团成员:M. MAARTEN WIJNANTS,哈塞尔大学,校长M. AXEL CARLIER,图卢兹INP,成员M. GILLES GESQUIERE,里昂第二大学,成员Géraldine Morin女士,图卢兹INP,成员M. VINCENT CHARVILLAT,图卢兹INP,成员M. Wei Tsang Ooi,新加坡国立大学,研究员基于HTTP的动态自适应3D流媒体2019年11月29日星期五,图卢兹INP授予图卢兹大学博士学位,由ThomasForgione发表并答辩Gilles Gesquière�