PowerBuilder中将日期转换为字符串的源码

版权申诉
0 下载量 91 浏览量 更新于2024-10-23 收藏 2KB ZIP 举报
资源摘要信息:"f_import_image_to_db.zip_PowerBuilder资源包含源代码文件f_import_image_to_db.pbl,该文件属于PowerBuilder应用程序。从描述来看,这个PowerBuilder项目包含将日期格式转换为字符串的功能。PowerBuilder是一种流行的数据库驱动的客户端/服务器应用程序开发工具,广泛用于构建数据库密集型应用程序。PowerBuilder支持多种数据库系统,并且拥有强大的数据窗口对象,可以轻松处理复杂的查询和报表。该资源可能包含了数据库操作的代码,特别是如何导入图像文件到数据库中,并且可能涉及到日期类型数据的格式化操作。由于文件标题中存在“_import_image_to_db”,这暗示了该资源主要用于处理图像数据的导入操作,可能涉及到图像的读取、转换和存储过程。图像存储在数据库中通常是通过将图像文件转换为二进制流,然后将该二进制流存储在数据库的BLOB(Binary Large Object)类型的字段中实现的。" 知识点: 1. PowerBuilder应用开发: PowerBuilder是一种由Sybase公司开发的应用程序开发环境,主要面向数据库驱动的应用程序开发。它提供了一套丰富的组件和功能强大的数据窗口对象,支持快速开发复杂的业务应用系统。 2. 日期转换为字符串功能: 在PowerBuilder中,经常需要将日期类型的变量转换为字符串格式以便于显示或者存储。PowerBuilder提供了多种内置函数来实现这一转换,例如`CVT.DTOC()`函数可以将日期对象转换为日期字符串,而`CVT.DTOS()`函数则可以转换为字符串格式的日期和时间。 3. 数据库操作: PowerBuilder应用程序通常会涉及到大量的数据库操作,如查询、更新、插入和删除等。PowerBuilder对不同类型的数据库系统提供了良好的支持,并且其IDE中包含了可视化的数据窗口,使得对数据库的操作更加直观和方便。 4. 图像导入数据库技术: 在许多应用程序中,有时需要将用户上传的图像或文档存储在数据库中。PowerBuilder支持通过编程将图像数据读取为二进制流,并将这个流存储在数据库表中的BLOB字段。这通常涉及到文件系统函数和数据库访问函数的使用。 5. 二进制流的处理: 在PowerBuilder中处理图像或文件数据时,经常需要将文件内容转换为二进制流进行处理。PowerBuilder提供了函数如`FILEOPEN()`, `FILEREAD()`, `FILECLOSE()`来操作文件的读取和写入。 6. 数据库BLOB字段: BLOB字段是数据库中用于存储大型二进制数据的字段类型,如图像、视频和音频文件等。在PowerBuilder中,可以使用SQL语句将二进制数据存储到BLOB字段中,或者从BLOB字段中检索数据。 7. 文件压缩包资源: 该资源以压缩包形式提供,可能意味着开发者可以方便地通过解压缩软件获取包含的文件。在PowerBuilder的使用中,常见的文件格式包括PBL(PowerBuilder Library)、PBT(PowerBuilder Template)和PBD(PowerBuilder Dynamic Library)等。 8. PowerBuilder项目文件结构: PowerBuilder项目通常包含PBL文件,这些文件包含了项目的所有对象,例如窗口、用户对象、函数和数据窗口等。PBL文件以库的形式组织项目资源,并且可以被PowerBuilder项目引用。 以上知识点概述了资源文件中可能涉及的技术细节,并提供了对PowerBuilder应用程序开发、数据库操作以及文件处理技术的深入理解。

以下代码有什么错误,怎么修改: import tensorflow.compat.v1 as tf tf.disable_v2_behavior() from PIL import Image import matplotlib.pyplot as plt import input_data import model import numpy as np import xlsxwriter num_threads = 4 def evaluate_one_image(): workbook = xlsxwriter.Workbook('formatting.xlsx') worksheet = workbook.add_worksheet('My Worksheet') with tf.Graph().as_default(): BATCH_SIZE = 1 N_CLASSES = 4 image = tf.cast(image_array, tf.float32) image = tf.image.per_image_standardization(image) image = tf.reshape(image, [1, 208, 208, 3]) logit = model.cnn_inference(image, BATCH_SIZE, N_CLASSES) logit = tf.nn.softmax(logit) x = tf.placeholder(tf.float32, shape=[208, 208, 3]) logs_train_dir = 'log/' saver = tf.train.Saver() with tf.Session() as sess: print("从指定路径中加载模型...") ckpt = tf.train.get_checkpoint_state(logs_train_dir) if ckpt and ckpt.model_checkpoint_path: global_step = ckpt.model_checkpoint_path.split('/')[-1].split('-')[-1] saver.restore(sess, ckpt.model_checkpoint_path) print('模型加载成功, 训练的步数为: %s' % global_step) else: print('模型加载失败,checkpoint文件没找到!') prediction = sess.run(logit, feed_dict={x: image_array}) max_index = np.argmax(prediction) workbook.close() def evaluate_images(test_img): coord = tf.train.Coordinator() threads = tf.train.start_queue_runners(coord=coord) for index,img in enumerate(test_img): image = Image.open(img) image = image.resize([208, 208]) image_array = np.array(image) tf.compat.v1.threading.Thread(target=evaluate_one_image, args=(image_array, index)).start() coord.request_stop() coord.join(threads) if __name__ == '__main__': test_dir = 'data/test/' import glob import xlwt test_img = glob.glob(test_dir + '*.jpg') evaluate_images(test_img)

2023-07-08 上传