写一下springmvc + vue的大文件分片上传代码。要求:1.前端加入MD5;2.用elementui

时间: 2024-03-05 13:51:44 浏览: 104
好的,以下是一个示例代码,使用SpringMVC和Vue实现大文件分片上传,同时前端加入MD5校验,使用ElementUI实现进度条显示。 前端代码: ```vue <template> <div> <el-upload class="upload-demo" action="/upload" :before-upload="beforeUpload" :on-progress="onProgress" :on-success="onSuccess" :file-list="fileList"> <el-button type="primary">点击上传</el-button> <div slot="tip" class="el-upload__tip">只能上传不超过 200MB 的文件</div> </el-upload> <el-progress :percentage="percentage" :stroke-width="30" :text-inside="true"></el-progress> </div> </template> <script> import SparkMD5 from 'spark-md5' export default { data() { return { fileList: [], percentage: 0, } }, methods: { beforeUpload(file) { return new Promise((resolve, reject) => { const reader = new FileReader() const chunkSize = 2 * 1024 * 1024 // 分片大小为2MB const chunks = Math.ceil(file.size / chunkSize) const spark = new SparkMD5.ArrayBuffer() let currentChunk = 0 reader.onload = e => { spark.append(e.target.result) currentChunk++ if (currentChunk < chunks) { loadNext() } else { file.md5 = spark.end() resolve(file) } } reader.onerror = () => { reject('读取文件出错') } function loadNext() { const start = currentChunk * chunkSize const end = Math.min(start + chunkSize, file.size) reader.readAsArrayBuffer(file.slice(start, end)) } loadNext() }) }, onProgress(e) { this.percentage = e.percent }, onSuccess(response, file) { this.percentage = 0 this.fileList = [] this.$message.success('上传成功') }, }, } </script> ``` 在这个示例代码中,我们使用了SparkMD5库来计算文件的MD5,同时在`beforeUpload`方法中,将文件分成多个2MB的分片进行上传,以实现大文件分片上传和MD5校验。在上传过程中,我们使用了ElementUI的进度条组件来显示上传进度。 后端代码: ```java @Controller public class UploadController { private static final String UPLOAD_DIR = "/tmp/uploads/"; private static final int CHUNK_SIZE = 2 * 1024 * 1024; @RequestMapping(value = "/upload", method = RequestMethod.POST) @ResponseBody public ResponseEntity<?> upload(@RequestParam("file") MultipartFile file, @RequestParam("md5") String md5, @RequestParam(value = "chunk", required = false, defaultValue = "0") int chunk, @RequestParam(value = "chunks", required = false, defaultValue = "1") int chunks) throws IOException { String fileName = file.getOriginalFilename(); String filePath = UPLOAD_DIR + fileName; if (chunk == 0) { // 如果是第一个分片,检查文件是否存在,如果存在则直接返回 File f = new File(filePath); if (f.exists()) { return ResponseEntity.status(HttpStatus.OK).build(); } } else { // 如果不是第一个分片,检查文件是否存在,如果不存在则返回错误 File f = new File(filePath); if (!f.exists()) { return ResponseEntity.status(HttpStatus.BAD_REQUEST).body("文件不存在"); } } if (chunk == 0) { // 如果是第一个分片,创建文件 File f = new File(filePath); if (!f.getParentFile().exists()) { f.getParentFile().mkdirs(); } f.createNewFile(); } // 写入分片数据 RandomAccessFile raf = new RandomAccessFile(filePath, "rw"); raf.seek(chunk * CHUNK_SIZE); raf.write(file.getBytes()); raf.close(); if (chunk == chunks - 1) { // 如果是最后一个分片,检查文件MD5值是否正确,如果正确则合并文件 String fileMd5 = getFileMd5(filePath); if (!fileMd5.equals(md5)) { return ResponseEntity.status(HttpStatus.BAD_REQUEST).body("文件MD5值不正确"); } mergeFileChunks(filePath, chunks); } return ResponseEntity.status(HttpStatus.OK).build(); } private String getFileMd5(String filePath) throws IOException { InputStream fis = new FileInputStream(filePath); byte[] buffer = new byte[1024]; int numRead; MessageDigest md5; try { md5 = MessageDigest.getInstance("MD5"); } catch (NoSuchAlgorithmException e) { return null; } do { numRead = fis.read(buffer); if (numRead > 0) { md5.update(buffer, 0, numRead); } } while (numRead != -1); fis.close(); byte[] md5Bytes = md5.digest(); StringBuilder sb = new StringBuilder(); for (byte b : md5Bytes) { sb.append(Integer.toString((b & 0xff) + 0x100, 16).substring(1)); } return sb.toString(); } private void mergeFileChunks(String filePath, int chunks) throws IOException { File f = new File(filePath); FileOutputStream fos = new FileOutputStream(f, true); byte[] buffer = new byte[1024]; for (int i = 0; i < chunks; i++) { String chunkFilePath = filePath + "." + i; File chunk = new File(chunkFilePath); FileInputStream fis = new FileInputStream(chunk); int numRead; while ((numRead = fis.read(buffer)) > 0) { fos.write(buffer, 0, numRead); } fis.close(); chunk.delete(); } fos.close(); } } ``` 在后端代码中,我们使用了`RandomAccessFile`来实现文件的分片写入和合并,同时在文件合并前使用了`getFileMd5`方法来检查文件的MD5值是否正确。 最后,我们还需要在SpringMVC的配置文件中添加以下配置,以支持大文件上传: ```xml <bean id="multipartResolver" class="org.springframework.web.multipart.commons.CommonsMultipartResolver"> <property name="maxUploadSize" value="209715200" /> <property name="maxInMemorySize" value="4096" /> </bean> ```
阅读全文

相关推荐

大家在看

recommend-type

yolo开发人工智能小程序经验和总结.zip

yolo开发人工智能小程序经验和总结.zipyolo开发人工智能小程序经验和总结.zipyolo开发人工智能小程序经验和总结.zipyolo开发人工智能小程序经验和总结.zip
recommend-type

基于MATLAB的表面裂纹识别与检测

基于MATLAB的表面裂纹识别与检测,该代码可以根据自己需要去识别与检测特定对象的表面裂纹,例如,路面裂纹检测、钢管裂纹检测、平面裂纹检测、种子等农产品表面裂纹检测。
recommend-type

Modbus on AT32 MCU

本应用笔记介绍了如何将FreeMODBUS协议栈移植到AT32F43x单片机方法。本文档提供的源代码演 示了使用Modbus的应用程序。单片机作为Modbus从机,可通过RS485或RS232与上位机相连,与 Modbus Poll调试工具(Modbus主机)进行通讯。 注:本应用笔记对应的代码是基于雅特力提供的V2.x.x 板级支持包(BSP)而开发,对于其他版本BSP,需要 注意使用上的区别。
recommend-type

论文研究-一种面向HDFS中海量小文件的存取优化方法.pdf

为了解决HDFS(Hadoop distributed file system)在存储海量小文件时遇到的NameNode内存瓶颈等问题,提高HDFS处理海量小文件的效率,提出一种基于小文件合并与预取的存取优化方案。首先通过分析大量小文件历史访问日志,得到小文件之间的关联关系,然后根据文件相关性将相关联的小文件合并成大文件后再存储到HDFS。从HDFS中读取数据时,根据文件之间的相关性,对接下来用户最有可能访问的文件进行预取,减少了客户端对NameNode节点的访问次数,提高了文件命中率和处理速度。实验结果证明,该方法有效提升了Hadoop对小文件的存取效率,降低了NameNode节点的内存占用率。
recommend-type

Gephi Cookbook 无水印原版pdf

Gephi Cookbook 英文无水印原版pdf pdf所有页面使用FoxitReader、PDF-XChangeViewer、SumatraPDF和Firefox测试都可以打开 本资源转载自网络,如有侵权,请联系上传者或csdn删除 查看此书详细信息请在美国亚马逊官网搜索此书

最新推荐

recommend-type

Spring+SpringMVC+Hibernate框架集成详解

Spring+SpringMVC+Hibernate 框架集成详解 本文档旨在详细介绍 Spring、SpringMVC 和 Hibernate 框架的集成,旨在帮助开发人员快速了解这三个框架的集成过程。 Spring 框架 Spring 框架是一个 Java 语言的开源...
recommend-type

SpringMVC后端返回数据到前端代码示例

SpringMVC框架,后端开发人员能够方便地将数据发送到前端,以便在网页上展示或进行交互。这里我们将详细探讨两种主要的方式:通过`ModelAndView`对象返回数据到`.jsp`页面,以及通过返回JSON数据到HTML页面。 1. **...
recommend-type

详解SpringMVC使用MultipartFile实现文件的上传

SpringMVC是一个强大的Java web框架,它提供了许多功能,其中包括文件上传的能力。在SpringMVC中,`MultipartFile`接口是处理文件上传的核心组件。本文将深入探讨如何使用`MultipartFile`实现文件上传,以及如何结合...
recommend-type

SpringMVC实现前端后台交互传递数据

SpringMVC实现前端后台交互传递数据 本篇文章主要介绍了SpringMVC实现前端后台传递数据的方法,其中包括使用Controller接收和传递数据的多种方式,以及配置SpringMVC的基本步骤。 1. 使用Controller接收和传递数据...
recommend-type

IDEA实现 springmvc的简单注册登录功能的示例代码

SpringMVC是以请求为驱动的MVC框架,围绕Servlet设计,核心类是DispatcherServlet,它是一个Servlet,顶层是实现的Servlet接口。下面是使用IDEA实现SpringMVC的简单注册登录功能的示例代码。 基本环境搭建 首先,...
recommend-type

Spring Websocket快速实现与SSMTest实战应用

标题“websocket包”指代的是一个在计算机网络技术中应用广泛的组件或技术包。WebSocket是一种网络通信协议,它提供了浏览器与服务器之间进行全双工通信的能力。具体而言,WebSocket允许服务器主动向客户端推送信息,是实现即时通讯功能的绝佳选择。 描述中提到的“springwebsocket实现代码”,表明该包中的核心内容是基于Spring框架对WebSocket协议的实现。Spring是Java平台上一个非常流行的开源应用框架,提供了全面的编程和配置模型。在Spring中实现WebSocket功能,开发者通常会使用Spring提供的注解和配置类,简化WebSocket服务端的编程工作。使用Spring的WebSocket实现意味着开发者可以利用Spring提供的依赖注入、声明式事务管理、安全性控制等高级功能。此外,Spring WebSocket还支持与Spring MVC的集成,使得在Web应用中使用WebSocket变得更加灵活和方便。 直接在Eclipse上面引用,说明这个websocket包是易于集成的库或模块。Eclipse是一个流行的集成开发环境(IDE),支持Java、C++、PHP等多种编程语言和多种框架的开发。在Eclipse中引用一个库或模块通常意味着需要将相关的jar包、源代码或者配置文件添加到项目中,然后就可以在Eclipse项目中使用该技术了。具体操作可能包括在项目中添加依赖、配置web.xml文件、使用注解标注等方式。 标签为“websocket”,这表明这个文件或项目与WebSocket技术直接相关。标签是用于分类和快速检索的关键字,在给定的文件信息中,“websocket”是核心关键词,它表明该项目或文件的主要功能是与WebSocket通信协议相关的。 文件名称列表中的“SSMTest-master”暗示着这是一个版本控制仓库的名称,例如在GitHub等代码托管平台上。SSM是Spring、SpringMVC和MyBatis三个框架的缩写,它们通常一起使用以构建企业级的Java Web应用。这三个框架分别负责不同的功能:Spring提供核心功能;SpringMVC是一个基于Java的实现了MVC设计模式的请求驱动类型的轻量级Web框架;MyBatis是一个支持定制化SQL、存储过程以及高级映射的持久层框架。Master在这里表示这是项目的主分支。这表明websocket包可能是一个SSM项目中的模块,用于提供WebSocket通讯支持,允许开发者在一个集成了SSM框架的Java Web应用中使用WebSocket技术。 综上所述,这个websocket包可以提供给开发者一种简洁有效的方式,在遵循Spring框架原则的同时,实现WebSocket通信功能。开发者可以利用此包在Eclipse等IDE中快速开发出支持实时通信的Web应用,极大地提升开发效率和应用性能。
recommend-type

电力电子技术的智能化:数据中心的智能电源管理

# 摘要 本文探讨了智能电源管理在数据中心的重要性,从电力电子技术基础到智能化电源管理系统的实施,再到技术的实践案例分析和未来展望。首先,文章介绍了电力电子技术及数据中心供电架构,并分析了其在能效提升中的应用。随后,深入讨论了智能化电源管理系统的组成、功能、监控技术以及能
recommend-type

通过spark sql读取关系型数据库mysql中的数据

Spark SQL是Apache Spark的一个模块,它允许用户在Scala、Python或SQL上下文中查询结构化数据。如果你想从MySQL关系型数据库中读取数据并处理,你可以按照以下步骤操作: 1. 首先,你需要安装`PyMySQL`库(如果使用的是Python),它是Python与MySQL交互的一个Python驱动程序。在命令行输入 `pip install PyMySQL` 来安装。 2. 在Spark环境中,导入`pyspark.sql`库,并创建一个`SparkSession`,这是Spark SQL的入口点。 ```python from pyspark.sql imp
recommend-type

新版微软inspect工具下载:32位与64位版本

根据给定文件信息,我们可以生成以下知识点: 首先,从标题和描述中,我们可以了解到新版微软inspect.exe与inspect32.exe是两个工具,它们分别对应32位和64位的系统架构。这些工具是微软官方提供的,可以用来下载获取。它们源自Windows 8的开发者工具箱,这是一个集合了多种工具以帮助开发者进行应用程序开发与调试的资源包。由于这两个工具被归类到开发者工具箱,我们可以推断,inspect.exe与inspect32.exe是用于应用程序性能检测、问题诊断和用户界面分析的工具。它们对于开发者而言非常实用,可以在开发和测试阶段对程序进行深入的分析。 接下来,从标签“inspect inspect32 spy++”中,我们可以得知inspect.exe与inspect32.exe很有可能是微软Spy++工具的更新版或者是有类似功能的工具。Spy++是Visual Studio集成开发环境(IDE)的一个组件,专门用于Windows应用程序。它允许开发者观察并调试与Windows图形用户界面(GUI)相关的各种细节,包括窗口、控件以及它们之间的消息传递。使用Spy++,开发者可以查看窗口的句柄和类信息、消息流以及子窗口结构。新版inspect工具可能继承了Spy++的所有功能,并可能增加了新功能或改进,以适应新的开发需求和技术。 最后,由于文件名称列表仅提供了“ed5fa992d2624d94ac0eb42ee46db327”,没有提供具体的文件名或扩展名,我们无法从这个文件名直接推断出具体的文件内容或功能。这串看似随机的字符可能代表了文件的哈希值或是文件存储路径的一部分,但这需要更多的上下文信息来确定。 综上所述,新版的inspect.exe与inspect32.exe是微软提供的开发者工具,与Spy++有类似功能,可以用于程序界面分析、问题诊断等。它们是专门为32位和64位系统架构设计的,方便开发者在开发过程中对应用程序进行深入的调试和优化。同时,使用这些工具可以提高开发效率,确保软件质量。由于这些工具来自Windows 8的开发者工具箱,它们可能在兼容性、效率和用户体验上都经过了优化,能够为Windows应用的开发和调试提供更加专业和便捷的解决方案。
recommend-type

如何运用电力电子技术实现IT设备的能耗监控

# 摘要 随着信息技术的快速发展,IT设备能耗监控已成为提升能效和减少环境影响的关键环节。本文首先概述了电力电子技术与IT设备能耗监控的重要性,随后深入探讨了电力电子技术的基础原理及其在能耗监控中的应用。文章详细分析了IT设备能耗监控的理论框架、实践操作以及创新技术的应用,并通过节能改造案例展示了监控系统构建和实施的成效。最后,本文展望了未来能耗监控技术的发展趋势,同时