基于SpringBoot和Vue实现分片上传系统

 更新时间:2023年12月08日 11:07:13   作者:懂咖啡的Java实习生  
最近想做一个关于文件上传的个人小网盘,一开始尝试使用了OSS的方案,但是该方案对于大文件来说并不友好,所以开始尝试分片上传方案的探索,接下来小编给大家详细的介绍一下如何基于SpringBoot和Vue实现分片上传系统,需要的朋友可以参考下

最近想做一个关于文件上传的个人小网盘,一开始尝试使用了OSS的方案,但是该方案对于大文件来说并不友好,一个是OSS云服务厂商费用高昂的问题,另外一个是大文件速度较慢。于是看了网络上的帖子以及工作室小伙伴的推荐,开始尝试分片上传方案的探索,目前整个项目已经完成,本人认为使用的技术都是最简单且高效的方法,主要采用自己编写的方案,在应用层比较少使用到第三方的技术,主要用到的技术有Vue+SpringBoot+MySQL+Redis。此次展示分享上传部分,感兴趣的小伙伴们可以点赞评论,我会在后面及时更新!

首先第一步是整个上传过程中最重要的一环,对文件内容而并非标题进行一个md5编码,基于每一个文件一个唯一的字符串,后续所有文件相关的处理都需要使用到该字符串。这里的计算过程中,采取了黑马在知乎上一篇文章的建议,对文件第一个分片和最后一个分片进行全部计算,其他地方采用前中后两个字节进行计算,这样子可以减少计算量,加快我们的编码速度,此步骤据说也有开源的框架可以代替,这样子可靠性也更高,有兴趣的小伙伴可以自己了解,下面附上自己实现的。

    async calculateHash(fileChunks) {
      return new Promise(resolve => {
        const spark = new sparkMD5.ArrayBuffer()
        const chunks = []
        const CHUNK_SIZE = this.CHUNK_SIZE
        fileChunks.forEach((chunk, index) => {
          if (index === 0 || index === fileChunks.length - 1) {
            // 1. 第一个和最后一个切片的内容全部参与计算
            chunks.push(chunk.file)
          } else {
            // 2. 中间剩余的切片我们分别在前面、后面和中间取2个字节参与计算
            // 前面的2字节
            chunks.push(chunk.file.slice(0, 2))
            // 中间的2字节
            chunks.push(chunk.file.slice(CHUNK_SIZE / 2, CHUNK_SIZE / 2 + 2))
            // 后面的2字节
            chunks.push(chunk.file.slice(CHUNK_SIZE - 2, CHUNK_SIZE))
          }
        })
        const reader = new FileReader()
        reader.readAsArrayBuffer(new Blob(chunks))
        reader.onload = (e) => {
          spark.append(e.target.result)
          resolve(spark.end())
        }
      })
    }

在计算完毕之后,我们可以在上传之前可以先做一次检查,返回我们需要得到的信息,包括但不限于文件是否存在于系统中,文件没有上传的话,那么是否有已经上传了的分片,可以返回一个索引数组。如果已经有该文件存在的话则直接进行保存文件信息就好了,后者有利于实现我们的断点续传工作,第二次上传只要上传还没有上传的部分即可,主要是后端实现为主。

    async uploadCheck() {
      let r;
      await axios.get('/api/file//uploadCheck?fileMd5=' + this.key).then(res => {
        r = res.data.flag;
        this.existCheck=[];
        //存在部分分片则返回存在的文件信息
        if (r == false){
          this.existCheck=res.data.data;
        }
      })
      return r;
    }

后端代码分为接口和服务层代码,分别给出:

    /**
     * 文件整体的查重校验
     * @param fileMd5
     * @return
     */
    @GetMapping("/uploadCheck")
    public Result uploadCheck(String fileMd5,HttpServletRequest httpServletRequest){
        String user = JwtUtil.getId(httpServletRequest.getHeader("token"));
        if (fileService.uploadCheck(fileMd5,user)){
            return new Result(true,true);
        }else {
            //查找文件是否有分片上传过到系统中
            Integer arr[] = fileService.existCheck(fileMd5);
            return new Result(false,arr);
        }
    }

上传时候如果在数据库中发现,已经有用户或者本用户在系统中已经成功上传过该文件的话,那么我们可以直接插入数据返回保存完毕即可了,无需真正意义上的上传。不存在则在redis中看一下那些索引已经上传过了,将索引数组返回,前端后续上传跳过即可。

    @Override
    public Boolean uploadCheck(String fileMd5, String userId) {
        //判断文件是否存在
        MyFile myFile = fileMapper.getFileByMd5(fileMd5);
        //如果文件存在直接给用户插入数据记录即可
        if (myFile != null) {
            MyFile newMyFile = new MyFile();
            newMyFile.setId(userId + DateTimeUtil.getTimeStamp());
            newMyFile.setFileName(myFile.getFileName());
            newMyFile.setUser(userId);
            newMyFile.setFileMd5(fileMd5);
            newMyFile.setFileSize(myFile.getFileSize());
            newMyFile.setTime(LocalDateTime.parse(DateTimeUtil.getDateTime(), DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss")));
            Integer num = fileMapper.insert(newMyFile);
            if (num == 1) {
                return true;
            }
        }
        return false;
    }

检查完毕之后我们可以开始上传文件啦!上传过程中我认为依然是前端占了打头的,后端只要接收文件不断磁盘写入就好了,虽然说不建议那么多的io次数,但是实际上测试下来还可以,4M带宽的学生服务器都可以做到20秒左右上传100M,本地的话更加是快的不得了,反而前端如果分片分的太小的话,触发的网络请求数量过多,这时候速度上才容易出事,前端分片不要设置太小的话,io次数的话也可以小一点。

      const formDatas = data.map(({chunk, fileHash, index, filename, chunkSize}) => {
        const formData = new FormData()
        // 切片文件
        formData.append('file', chunk)
        // 大文件hash
        formData.append('fileMd5', fileHash)
        //切片的索引
        formData.append('currentIndex', index)
        // 大文件的文件名
        formData.append('fileName', filename)
        // 分片大小
        formData.append('chunkCount', chunkSize)
        return formData
      })
      let index = 0;
      const max = 6; // 并发请求数量
      const taskPool = []// 请求队列
      let t = this.existCheck.length;
      while (index < formDatas.length) {
        //出现重复的切片,跳过
        if (this.existCheck.includes(index)){
          index++;
          continue;
        }
        const task = axios.post('/api/file/uploadBySlice', formDatas[index])
        //splice方法会删除数组中第一个匹配的元素,参数搭配使用findIndex可以找到第一个匹配的元素的索引
        task.then(() => {
          taskPool.splice(taskPool.findIndex((item) => item === task))
          t=t+1;
          this.percentage = Math.floor((t / formDatas.length * 100) * (1.0))-1
        })
        taskPool.push(task);
        if (taskPool.length === max) {
          // 当请求队列中的请求数达到最大并行请求数的时候,得等之前的请求完成再循环下一个
          await Promise.race(taskPool)
        }
        index++
      }
      await Promise.all(taskPool)
    }

后端代码实现,接口层简单,只展示服务层即可。后端主要负责的工作,包括分片写入磁盘,并且在redis中保存已经上传好的文件索引号。

    /**
     * 上传分片、文件
     *
     * @param file
     * @param fileMd5
     * @param currentIndex
     * @return
     */
    @Override
    public Integer uploadFile(MultipartFile file, String fileMd5, Integer currentIndex) {
        //在redis中查询该分片是否已经存在
        if (redisTemplate.opsForSet().isMember(fileMd5, currentIndex)) {
            return currentIndex;
        }
        // 生成分片的临时路径
        String filePath = tempPath + fileMd5 + "_" + currentIndex + ".tmp";
        //保存文件分片到本地的目标路径
        File targetFile = new File(filePath);
        try {
            RandomAccessFile raf = new RandomAccessFile(targetFile, "rw");
            byte[] data = file.getBytes();
            raf.write(data);
            raf.close();
            //在redis中保存该分片的索引
            redisTemplate.opsForSet().add(fileMd5, currentIndex);
            return currentIndex;
        } catch (IOException e) {
            // 处理异常
            throw new ServiceException("文件上传失败");
        }
    }

那么,如果我们我们上传一次中间不小心刷新或者网络中断后,我们应该如何处理呢?其实在前面的时候我们已经解决了,因为我们上传检查的时候,已经返回了已经上传过的索引号,所以这一次上传的时候自动跳过即可了,在上面前端的上传区域可以看见有跳过的代码设置!

最后文件分片都上传完毕了,我们就是最后一步了,等待前端所有的上传任务执行完毕,我们执行一次发送合并指令即可了,当然在后端其实也可以做,前端就不需要发送合并指令了。

    //发起文件合并请求
    merge() {
      axios.get('/api/file/merge' + '?fileMd5=' + this.key + '&fileName=' + this.filename + '&chunkCount=' + this.fileChunks.length).then((resp) => {
        if (resp.data.flag == true) {
          this.$message({
            message: '文件上传成功',
            type: 'success'
          });
          this.percentage = 100;
          this.query();
          this.uploadRefresh=false;
        }
      })
    }

后端此处代码比较长,但是实际上也比较简单的,主要是做了合并故障的处理,和刚才前端上传故障处理的思路类似,如果出现故障,下一次合并从断点继续就好了,这一次的逻辑从前端搬到了后端来做,也是通过redis来记录。

    /**
     * 合并分片文件
     *
     * @param fileName
     * @param chunkCount
     * @return
     */
    @Override
    public String mergeTmpFiles(String fileMd5, String fileName, Integer chunkCount, String userId) throws IOException {
        //记录本次合并的字节数
        long count = 0;
        //获取分片索引号的起始地址
        int start = 0 ;
        String countKey = fileMd5+"-count";
        if (!redisTemplate.hasKey(countKey)) {
            redisTemplate.opsForHash().put(countKey, "count", "0");
        }else {
            start = Integer.parseInt(redisTemplate.opsForHash().get(countKey, "count").toString());
            start++;
        }
        //记录分片文件的总大小
        for (int i = start; i < chunkCount; i++) {
            //读取分片文件
            String filePath = tempPath + fileMd5 + "_" + i + ".tmp";
            File file = new File(filePath);
            if (!file.exists()) {
                //需要排除redis造成的异常情况
                redisTemplate.opsForSet().remove(fileMd5, i);
                log.info("缺失索引编号", i);
                throw new ServiceException("文件分片缺失");
            } else {
                count += file.length();
            }
            //使用缓冲流读取到内存中
            byte[] data = new byte[(int) file.length()];
            FileInputStream inputStream = new FileInputStream(file);
            inputStream.read(data);
            inputStream.close();
            //保存文件到文件夹中
            file = new File(endPath + fileMd5 + "." + getFileExtension(fileName));
            FileOutputStream outputStream = new FileOutputStream(file, true);
            outputStream.write(data);
            outputStream.close();
            //删除碎片文件
            File temp = new File(filePath);
            temp.delete();
            //记录合并进度
            redisTemplate.opsForHash().put(countKey, "count", i);
        }
        //记录文件保存数据
        MyFile myFile = new MyFile();
        myFile.setId(userId + DateTimeUtil.getTimeStamp());
        myFile.setFileName(fileName);
        myFile.setUser(userId);
        myFile.setFileMd5(fileMd5);
        File file = new File(endPath + fileMd5 + "." + getFileExtension(fileName));
        myFile.setFileSize(file.length());
        myFile.setTime(LocalDateTime.parse(DateTimeUtil.getDateTime(), DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss")));
        fileMapper.insert(myFile);
        //删除各类缓存数据
        redisTemplate.delete(countKey);
        redisTemplate.delete(fileMd5);
        //返回处理结果
        return fileName + "  此次合并:" + count + "字节";
    }

好啦!分片上传,断点上传,秒传等功能已经全部实现啦!合并文件或者故障处理等都已经自己在后端打断点测试过,可靠性较高。在本地跑用的是8核+24G配置,没有出过什么故障,但是上传到本人2核+2G的机器上,超过100M的文件,偶尔合并会出现故障,但是通过合并的故障处理,我们可以让前端如果合并失败的话,再次发起合并请求即可,目前还没有出现过连续合并请求两次都不成功的,而且第二次合并请求也是在断点的基础上进行的,没有白费消耗。

以上就是基于SpringBoot和Vue实现的分片上传系统的详细内容,更多关于SpringBoot Vue分片上传系统的资料请关注脚本之家其它相关文章!

相关文章

  • 使用spring配置文件.xml的头文件

    使用spring配置文件.xml的头文件

    这篇文章主要介绍了使用spring配置文件.xml的头文件问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2024-01-01
  • Java的lambda表达式实现解析

    Java的lambda表达式实现解析

    这篇文章主要为大家详细介绍了Java的lamda表达式实现,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2017-06-06
  • Spring Boot web项目的TDD流程

    Spring Boot web项目的TDD流程

    TDD(Test-driven development) 测试驱动开发,简单点说就是编写测试,再编写代码。这是首要一条,不可动摇的一条,先写代码后写测试的都是假TDD。
    2021-05-05
  • Java和Python现在都挺火,我应该怎么选?

    Java和Python现在都挺火,我应该怎么选?

    这篇文章主要介绍了Java和Python现在都挺火,我应该怎么选?本文通过全面分析给大家做个参考,需要的朋友可以参考下
    2020-07-07
  • Kotlin 单例实例详解

    Kotlin 单例实例详解

    这篇文章主要介绍了Kotlin 单例实例详解的相关资料,需要的朋友可以参考下
    2017-06-06
  • Spring更简单的存储方式与获取方式详解

    Spring更简单的存储方式与获取方式详解

    Spring是一个轻量级的IoC和AOP容器框架,是为Java应用程序提供基础性服务的一套框架,目的是用于简化企业应用程序的开发,它使得开发者只需要关心业务需求,下面这篇文章主要给大家介绍了关于Spring更简单的存储方式与获取方式的相关资料,需要的朋友可以参考下
    2022-06-06
  • java后台如何接收get请求传过来的数组

    java后台如何接收get请求传过来的数组

    这篇文章主要介绍了java后台如何接收get请求传过来的数组问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2023-11-11
  • Java的抽象方法和抽象类实例详解

    Java的抽象方法和抽象类实例详解

    这篇文章主要介绍了Java的抽象方法和抽象类,结合实例形式详细分析了java抽象方法和抽象类的相关原理、使用方法及操作注意事项,需要的朋友可以参考下
    2019-09-09
  • 浅谈Java中各种修饰符与访问修饰符的说明

    浅谈Java中各种修饰符与访问修饰符的说明

    下面小编就为大家带来一篇浅谈Java中各种修饰符与访问修饰符的说明。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2017-01-01
  • java多线程模拟交通灯管理系统

    java多线程模拟交通灯管理系统

    这篇文章主要为大家详细介绍了java多线程模拟交通灯管理系统,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2021-08-08

最新评论