import matplotlib.pyplot as plt import numpy as np # 加载数据集 train_data = pd.read_csv('mnist_dataset/mnist_train.csv') test_data = pd.read_csv('mnist_dataset/mnist_test.csv') # 提取特征和标签 train_features, train_labels = train_data.iloc[:, 1:], train_data.iloc[:, 0] test_features, test_labels = test_data.iloc[:, 1:], test_data.iloc[:, 0] # 可视化前100张图片 def visualize_images(features, labels): fig, axs = plt.subplots(10, 10, figsize=(10, 10)) for i in range(10): for j in range(10): axs[i, j].imshow(np.array(features.iloc[i * 10 + j]).reshape(28, 28), cmap='gray') axs[i, j].axis('off') axs[i, j].set_title('Label: {}'.format(labels.iloc[i * 10 + j])) plt.show() # 可视化前100张训练集图片 visualize_images(train_features[:100], train_labels[:100])这段代码中怎么使得label输出的字体变小

时间: 2024-02-24 18:53:08 浏览: 39
你可以在 `set_title` 中设置 `fontsize` 参数来调整标签的字体大小,例如: ```python import matplotlib.pyplot as plt import numpy as np # 加载数据集 train_data = pd.read_csv('mnist_dataset/mnist_train.csv') test_data = pd.read_csv('mnist_dataset/mnist_test.csv') # 提取特征和标签 train_features, train_labels = train_data.iloc[:, 1:], train_data.iloc[:, 0] test_features, test_labels = test_data.iloc[:, 1:], test_data.iloc[:, 0] # 可视化前100张图片 def visualize_images(features, labels): fig, axs = plt.subplots(10, 10, figsize=(10, 10)) for i in range(10): for j in range(10): axs[i, j].imshow(np.array(features.iloc[i * 10 + j]).reshape(28, 28), cmap='gray') axs[i, j].axis('off') axs[i, j].set_title('Label: {}'.format(labels.iloc[i * 10 + j]), fontsize=8) plt.show() # 可视化前100张训练集图片 visualize_images(train_features[:100], train_labels[:100]) ``` 以上代码中,`fontsize=8` 表示设置字体大小为 8。你可以根据需要调整这个值。

相关推荐

import numpy as np import tensorflow as tf from tensorflow import keras import matplotlib.pyplot as plt ## Let us define a plt function for simplicity def plt_loss(x,training_metric,testing_metric,ax,colors = ['b']): ax.plot(x,training_metric,'b',label = 'Train') ax.plot(x,testing_metric,'k',label = 'Test') ax.set_xlabel('Epochs') ax.set_ylabel('Accuarcy')# ax.set_ylabel('Categorical Crossentropy Loss') plt.legend() plt.grid() plt.show() tf.keras.utils.set_random_seed(1) ## We import the Minist Dataset using Keras.datasets (train_data, train_labels), (test_data, test_labels) = keras.datasets.mnist.load_data() ## We first vectorize the image (28*28) into a vector (784) train_data = train_data.reshape(train_data.shape[0],train_data.shape[1]*train_data.shape[2]) # 60000*784 test_data = test_data.reshape(test_data.shape[0],test_data.shape[1]*test_data.shape[2]) # 10000*784 ## We next change label number to a 10 dimensional vector, e.g., 1->[0,1,0,0,0,0,0,0,0,0] train_labels = keras.utils.to_categorical(train_labels,10) test_labels = keras.utils.to_categorical(test_labels,10) ## start to build a MLP model N_batch_size = 5000 N_epochs = 100 lr = 0.01 # ## we build a three layer model, 784 -> 64 -> 10 MLP_3 = keras.models.Sequential([ keras.layers.Dense(64, input_shape=(784,),activation='relu'), keras.layers.Dense(10,activation='softmax') ]) MLP_3.compile( optimizer=keras.optimizers.Adam(lr), loss= 'categorical_crossentropy', metrics = ['accuracy'] ) History = MLP_3.fit(train_data,train_labels, batch_size = N_batch_size, epochs = N_epochs,validation_data=(test_data,test_labels), shuffle=False) train_acc = History.history['accuracy'] test_acc = History.history['val_accuracy']模仿此段代码,写一个双隐层感知器(输入层784,第一隐层128,第二隐层64,输出层10)

import numpy as np import paddle as paddle import paddle.fluid as fluid from PIL import Image import matplotlib.pyplot as plt import os from paddle.fluid.dygraph import Linear from paddle.vision.transforms import Compose, Normalize transform = Compose([Normalize(mean=[127.5],std=[127.5],data_format='CHW')]) print('下载并加载训练数据') train_dataset = paddle.vision.datasets.MNIST(mode='train', transform=transform) test_dataset = paddle.vision.datasets.MNIST(mode='test', transform=transform) print('加载完成') train_data0, train_label_0 = train_dataset[0][0],train_dataset[0][1] train_data0 = train_data0.reshape([28,28]) plt.figure(figsize=(2,2)) print(plt.imshow(train_data0, cmap=plt.cm.binary)) print('train_data0 的标签为: ' + str(train_label_0)) print(train_data0) class mnist(paddle.nn.Layer): def __init__(self): super(mnist,self).__init__() self.fc1 = paddle.fluid.dygraph.Linear(input_dim=28*28, output_dim=100, act='relu') self.fc2 = paddle.fluid.dygraph.Linear(input_dim=100, output_dim=100, act='relu') self.fc3 = paddle.fluid.dygraph.Linear(input_dim=100, output_dim=10,act="softmax") def forward(self, input_): x = fluid.layers.reshape(input_, [input_.shape[0], -1]) x = self.fc1(x) x = self.fc2(x) y = self.fc3(x) return y from paddle.metric import Accuracy model = paddle.Model(mnist()) optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters()) model.prepare(optim,paddle.nn.CrossEntropyLoss(),Accuracy()) model.fit(train_dataset,test_dataset,epochs=2,batch_size=64,save_dir='multilayer_perceptron',verbose=1) test_data0, test_label_0 = test_dataset[0][0],test_dataset[0][1] test_data0 = test_data0.reshape([28,28]) plt.figure(figsize=(2,2)) print(plt.imshow(test_data0, cmap=plt.cm.binary)) print('test_data0 的标签为: ' + str(test_label_0)) result = model.predict(test_dataset, batch_size=1) print('test_data0 预测的数值为:%d' % np.argsort(result[0][0])[0][-1]) 请给出这一段代码每一行的解释

# coding: utf-8 import sys, os sys.path.append(os.pardir) # 为了导入父目录的文件而进行的设定 import numpy as np import matplotlib.pyplot as plt from dataset.mnist import load_mnist from two_layer_net import TwoLayerNet # 读入数据 (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, one_hot_label=True) network = TwoLayerNet(input_size=784, hidden_size=50, output_size=10) iters_num = 10000 # 适当设定循环的次数 train_size = x_train.shape[0] batch_size = 100 learning_rate = 0.1 train_loss_list = [] train_acc_list = [] test_acc_list = [] iter_per_epoch = max(train_size / batch_size, 1) for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] t_batch = t_train[batch_mask] # 计算梯度 #grad = network.numerical_gradient(x_batch, t_batch) grad = network.gradient(x_batch, t_batch) # 更新参数 for key in ('W1', 'b1', 'W2', 'b2'): network.params[key] -= learning_rate * grad[key] loss = network.loss(x_batch, t_batch) train_loss_list.append(loss) if i % iter_per_epoch == 0: train_acc = network.accuracy(x_train, t_train) test_acc = network.accuracy(x_test, t_test) train_acc_list.append(train_acc) test_acc_list.append(test_acc) print("train acc, test acc | " + str(train_acc) + ", " + str(test_acc)) # 绘制图形 markers = {'train': 'o', 'test': 's'} x = np.arange(len(train_acc_list)) plt.plot(x, train_acc_list, label='train acc') plt.plot(x, test_acc_list, label='test acc', linestyle='--') plt.xlabel("epochs") plt.ylabel("accuracy") plt.ylim(0, 1.0) plt.legend(loc='lower right') plt.show()什么意思

最新推荐

recommend-type

什么是yolov10,简单举例.md

YOLOv10是一种目标检测算法,是YOLO系列算法的第10个版本。YOLO(You Only Look Once)是一种快速的实时目标检测算法,能够在一张图像中同时检测出多个目标。
recommend-type

shufflenet模型-图像分类算法对动态表情分类识别-不含数据集图片-含逐行注释和说明文档.zip

shufflenet模型_图像分类算法对动态表情分类识别-不含数据集图片-含逐行注释和说明文档 本代码是基于python pytorch环境安装的。 下载本代码后,有个环境安装的requirement.txt文本 如果有环境安装不会的,可自行网上搜索如何安装python和pytorch,这些环境安装都是有很多教程的,简单的 环境需要自行安装,推荐安装anaconda然后再里面推荐安装python3.7或3.8的版本,pytorch推荐安装1.7.1或1.8.1版本 首先是代码的整体介绍 总共是3个py文件,十分的简便 且代码里面的每一行都是含有中文注释的,小白也能看懂代码 然后是关于数据集的介绍。 本代码是不含数据集图片的,下载本代码后需要自行搜集图片放到对应的文件夹下即可 在数据集文件夹下是我们的各个类别,这个类别不是固定的,可自行创建文件夹增加分类数据集 需要我们往每个文件夹下搜集来图片放到对应文件夹下,每个对应的文件夹里面也有一张提示图,提示图片放的位置 然后我们需要将搜集来的图片,直接放到对应的文件夹下,就可以对代码进行训练了。 运行01生成txt.py,
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

深入了解MATLAB开根号的最新研究和应用:获取开根号领域的最新动态

![matlab开根号](https://www.mathworks.com/discovery/image-segmentation/_jcr_content/mainParsys3/discoverysubsection_1185333930/mainParsys3/image_copy.adapt.full.medium.jpg/1712813808277.jpg) # 1. MATLAB开根号的理论基础 开根号运算在数学和科学计算中无处不在。在MATLAB中,开根号可以通过多种函数实现,包括`sqrt()`和`nthroot()`。`sqrt()`函数用于计算正实数的平方根,而`nt
recommend-type

react的函数组件的使用

React 的函数组件是一种简单的组件类型,用于定义无状态或者只读组件。 它们通常接受一个 props 对象作为参数并返回一个 React 元素。 函数组件的优点是代码简洁、易于测试和重用,并且它们使 React 应用程序的性能更加出色。 您可以使用函数组件来呈现简单的 UI 组件,例如按钮、菜单、标签或其他部件。 您还可以将它们与 React 中的其他组件类型(如类组件或 Hooks)结合使用,以实现更复杂的 UI 交互和功能。
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

解决MATLAB开根号常见问题:提供开根号运算的解决方案

![解决MATLAB开根号常见问题:提供开根号运算的解决方案](https://img-blog.csdnimg.cn/d939d1781acc404d8c826e8af207e68f.png) # 1. MATLAB开根号运算基础** MATLAB开根号运算用于计算一个数的平方根。其语法为: ``` y = sqrt(x) ``` 其中: * `x`:要开根号的数或数组 * `y`:开根号的结果 开根号运算的输入可以是实数、复数、矩阵或数组。对于实数,开根号运算返回一个非负实数。对于复数,开根号运算返回一个复数。对于矩阵或数组,开根号运算逐元素执行,对每个元素进行开根号运算。 #
recommend-type

inputstream

Inputstream是Java中用于从输入流中读取数据的抽象类,它是Java I/O类库中的一部分。Inputstream提供了read()和read(byte[] b)等方法,可以从输入流中读取一个字节或一组字节。在Java中,FileInputStream、ByteArrayInputStream和StringBufferInputStream都是Inputstream的子类,用于读取不同类型的输入流。