def map_data(data_map, axis_num): data_map = np.max(data_map, axis=axis_num) data_map -= data_map.min() data_map = data_map / data_map.max() data_map = np.array(data_map * 255, dtype=np.uint8) return data_map
时间: 2024-03-07 10:52:05 浏览: 25
这段代码的作用是将输入的二维数组经过处理,返回一个经过归一化和类型转换后的二维数组。具体来说,它的实现过程如下:
1. 使用 numpy 库中的 np.max 函数,对输入的二维数组 data_map 进行最大值池化,得到一个一维数组,其中每个元素为对应列或行中的最大值(axis_num 为 0 时对列进行最大值池化,为 1 时对行进行最大值池化)。
2. 对最大值池化后的一维数组进行归一化。具体来说,将数组中的每个元素减去数组中的最小值,得到一个新的数组,使得数组中的最小值为 0。
3. 对归一化后的数组进行再次归一化,将数组中的每个元素都除以数组中的最大值,使得数组中的最大值为 1。
4. 将归一化后的数组中的每个元素乘以 255,并强制转换为整型(dtype=np.uint8),得到一个新的二维数组,其中每个元素都是范围在 0 到 255 之间的整数。
5. 返回新的二维数组 data_map。
总之,这段代码的作用是将输入的二维数组 data_map 进行最大值池化、归一化、类型转换等处理,使得输出的二维数组符合一些特定的需求。
相关问题
def map_data(data_map, axis_num): data_map = np.max(data_map, axis=axis_num) data_map -= data_map.min() data_map = data_map / data_map.max() data_map = np.array(data_map * 255, dtype=np.uint8) return data_map Eigon实现
以下是Eigen实现:
```
#include <iostream>
#include <Eigen/Dense>
using namespace Eigen;
using namespace std;
MatrixXi map_data(MatrixXi data_map, int axis_num) {
int height = data_map.rows();
int width = data_map.cols();
// reduce the data_map along the given axis_num
VectorXi max_vals(width);
if (axis_num == 0) {
max_vals = data_map.rowwise().maxCoeff();
} else if (axis_num == 1) {
max_vals = data_map.colwise().maxCoeff();
}
// normalize the result
int min_val = max_vals.minCoeff();
int max_val = max_vals.maxCoeff();
MatrixXi result = (data_map.array() - min_val) * 255 / (max_val - min_val);
return result;
}
int main() {
// example usage
MatrixXi data_map(3, 3);
data_map << 1, 2, 3,
4, 5, 6,
7, 8, 9;
MatrixXi result = map_data(data_map, 0);
cout << result << endl;
return 0;
}
```
需要注意的是,Eigen中的Matrix类模板参数中有两个参数,第一个参数是矩阵元素的类型,第二个参数是矩阵的行数和列数,用RowMajor表示按行存储,用ColMajor表示按列存储。在这个实现中,我们用MatrixXi表示矩阵元素为整型,且按列存储。
使用C++ eigen库翻译以下python代码import pandas as pd import numpy as np import time import random def main(): eigen_list = [] data = [[1,2,4,7,6,3],[3,20,1,2,5,4],[2,0,1,5,8,6],[5,3,3,6,3,2],[6,0,5,2,19,3],[5,2,4,9,6,3]] g_csi_corr = np.cov(data, rowvar=True) #print(g_csi_corr) eigenvalue, featurevector = np.linalg.eigh(g_csi_corr) print("eigenvalue:",eigenvalue) eigen_list.append(max(eigenvalue)) #以下代码验证求解csi阈值 eigen_list.append(1.22) eigen_list.append(-54.21) eigen_list.append(8.44) eigen_list.append(-27.83) eigen_list.append(33.12) #eigen_list.append(40.29) print(eigen_list) eigen_a1 = np.array(eigen_list) num1 = len(eigen_list) eigen_a2 = eigen_a1.reshape((-1, num1)) eigen_a3 = np.std(eigen_a2, axis=0) eigen_a4 = eigen_a3.tolist() k = (0.016 - 0.014) / (max(eigen_a4) - min(eigen_a4)) eigen_a5 = [0.014 + k * (i - min(eigen_a4)) for i in eigen_a4] tri_threshold = np.mean(eigen_a5)
#include <iostream>
#include <Eigen/Dense>
using namespace Eigen;
int main()
{
std::vector<double> eigen_list;
MatrixXd data(6, 6);
data << 1, 2, 4, 7, 6, 3,
3, 20, 1, 2, 5, 4,
2, 0, 1, 5, 8, 6,
5, 3, 3, 6, 3, 2,
6, 0, 5, 2, 19, 3,
5, 2, 4, 9, 6, 3;
MatrixXd g_csi_corr = data.transpose() * data / 6.0;
EigenSolver<MatrixXd> es(g_csi_corr);
VectorXd eigenvalue = es.eigenvalues().real();
std::cout << "eigenvalue: " << eigenvalue.transpose() << std::endl;
eigen_list.push_back(eigenvalue.maxCoeff());
eigen_list.push_back(1.22);
eigen_list.push_back(-54.21);
eigen_list.push_back(8.44);
eigen_list.push_back(-27.83);
eigen_list.push_back(33.12);
//eigen_list.push_back(40.29);
std::cout << "eigen_list: ";
for (std::vector<double>::iterator it = eigen_list.begin(); it != eigen_list.end(); ++it)
std::cout << *it << " ";
std::cout << std::endl;
int num1 = eigen_list.size();
MatrixXd eigen_a2 = Map<MatrixXd>(eigen_list.data(), num1, 1);
VectorXd eigen_a3 = eigen_a2.array().rowwise().mean().transpose();
VectorXd eigen_a4 = (eigen_a2 - eigen_a3.replicate(num1, 1)).array().abs().rowwise().mean().transpose();
double k = 0.002 / (eigen_a4.maxCoeff() - eigen_a4.minCoeff());
VectorXd eigen_a5 = 0.014 + k * (eigen_a4.array() - eigen_a4.minCoeff());
double tri_threshold = eigen_a5.mean();
std::cout << "tri_threshold: " << tri_threshold << std::endl;
return 0;
}