使用纯原生JS实现大文件分片上传
写在前面
前段时间在工作中接触到了文件上传的内容,但业务中实现的功能比较简单,于是我想着能不能使用纯原生的方式实现一个大文件的上传DEMO,从而在本质上学习大文件上传的思路。本教程使用纯原生的html+node.js实现,能快速上手一个简单的大文件上传,深入理解其内部的原理,也能方便在后续的工作中对DEMO进行快速扩展,非常适合想入门学习大文件上传的同学。
效果展示
首先来看看最后的效果。
实现思路
上图是大文件上传的整体流程图,显示了客户端和服务端的交互逻辑,方便大家从宏观上理解大文件上传的过程,但如果按照上面的流程讲解大文件上传入门,很容易被劝退。
下面我们将按照功能点逐步迭代的方式讲解大文件上传,每个功能点都很简单,每实现一个功能点都会极大的增涨我们的信心。大文件上传一共分为分片上传、分片合并、文件秒传、断点续传、上传进度这五个功能点,后面的功能都是在前面的功能基础上迭代完成。如果能实现一个分片上传功能就算是入门了大文件上传了,后面都是在此基础上增加功能而已。
具体实现
分片上传
首先我们来实现一个最简单也最核心的分片上传,这个功能点分为客户端的文件分片、计算hash值、上传分片文件和服务端的创建分片目录并存储分片。客户端和服务端源代码分别存放在BigFileUpload.html
和server.js
文件中。
客户端
为了方便后面能够处理取消上传和上传进度,我们首先对fetch
请求做一个简单的封装。
/** * @description: 封装fetch * @param {Object} FetchConfig fetch config * @return {Promise} fetch result */ const requestApi = ({ url, method = "GET", ...fetchProps }) => { return new Promise(async (resolve, reject) => { const res = await fetch(url, { method, ...fetchProps, }); resolve(res.json()); }); };
下面是分片功能需要的标签元素。
<input type="file" name="file" id="file" multiple /> <button id="upload" onClick="handleUpload()">上传</button> <p id="hash-progress"></p> <p id="total-slice"></p>
首先,我们需要使用slice()
方法对大文件进行分片,并把分片的内容、大小等信息都放入到分片列表中,最后在页面上显示一下分片数量。
// 文件分片 const createFileChunk = (file) => { const chunkList = []; //计算文件切片总数 const sliceSize = 5 * 1024 * 1024; // 每个文件切片大小定为5MB const totalSlice = Math.ceil(fileSize / sliceSize); for (let i = 1; i <= totalSlice; i++) { let chunk; if (i == totalSlice) { // 最后一片 chunk = file.slice((i - 1) * sliceSize, fileSize - 1); //切割文件 } else { chunk = file.slice((i - 1) * sliceSize, i * sliceSize); } chunkList.push({ file: chunk, fileSize, size: Math.min(sliceSize, file.size), }); } const sliceText = `一共分片:${totalSlice}`; document.getElementById("total-slice").innerHTML = sliceText; console.log(sliceText); return chunkList; };
然后, 使用spark-md5 分别计算每个分片的hash值,最后得到整个文件hash值。计算hash值需要比较长的时间,可以在页面上输出计算hash值的进度。
// 根据分片生成hash const calculateHash = (fileChunkList) => { return new Promise((resolve) => { const spark = new SparkMD5.ArrayBuffer(); let count = 0; // 计算出hash const loadNext = (index) => { const reader = new FileReader(); // 文件阅读对象 reader.readAsArrayBuffer(fileChunkList[index].file); reader.onload = (e) => { count++; spark.append(e.target.result); if (count === fileChunkList.length) { resolve(spark.end()); } else { // 还没读完 const percentage = parseInt( ((count + 1) / fileChunkList.length) * 100 ); const progressText = `计算hash值:${percentage}%`; document.getElementById("hash-progress").innerHTML = progressText; console.log(progressText); loadNext(count); } }; }; loadNext(0); }); };
紧接着,需要将分片数据全部上传到服务器,这里需要注意是的分片的hash值是 ${fileHash}-${index}
, 服务端会根据这个hash值创建分片文件。
let fileName = "", fileHash = "", fileSize = 0, fileChunkListData = []; const HOST = "http://localhost:3000"; // ... const handleUpload = async () => { const file = document.getElementById("file").files[0]; if (!file) return alert("请选择文件!"); fileName = file.name; // 文件名 fileSize = file.size; // 文件大小 const fileChunkList = createFileChunk(file); fileHash = await calculateHash(fileChunkList); // 文件hash fileChunkListData = fileChunkList.map(({ file, size }, index) => { const hash = `${fileHash}-${index}`; return { file, size, fileName, fileHash, hash, }; }); await uploadChunks(); }; //上传分片 const uploadChunks = async () => { const requestList = fileChunkListData .map(({ file, fileHash, fileName, hash }, index) => { const formData = new FormData(); formData.append("file", file); formData.append("fileHash", fileHash); formData.append("name", fileName); formData.append("hash", hash); return { formData }; }) .map(async ({ formData }) => { return requestApi({ url: `${HOST}`, method: "POST", body: formData, }); }); await Promise.all(requestList); };
服务端
首先,我们使用原生node.js
启动一个后端服务。
import * as http from "http"; //ES 6 import path from "path"; const server = http.createServer(); server.on("request", async (req, res) => { res.setHeader("Access-Control-Allow-Origin", "*"); res.setHeader("Access-Control-Allow-Headers", "*"); if (req.method === "OPTIONS") { res.status = 200; res.end(); return; } }); server.listen(3000, () => console.log("正在监听 3000 端口"));
接下来,我们就可以在里面添加上传分片的接口。使用multiparty读取到客户端提交的表单数据后,判断切片目录是否存在,不存在就使用 fileHash
值创建一个临时的分片目录,并使用fs-extra 的move
方法存储文件分片到对应的分片目录下。
import * as http from "http"; //ES 6 import path from "path"; import fse from "fs-extra"; import multiparty from "multiparty"; const server = http.createServer(); const UPLOAD_DIR = path.resolve("/Users/sxg/Downloads/", "target"); // 大文件存储目录 server.on("request", async (req, res) => { res.setHeader("Access-Control-Allow-Origin", "*"); res.setHeader("Access-Control-Allow-Headers", "*"); if (req.method === "OPTIONS") { res.status = 200; res.end(); return; } if (req.url === "/") { const multipart = new multiparty.Form(); multipart.parse(req, async (err, fields, files) => { if (err) { console.error(err); res.status = 500; res.end( JSON.stringify({ messaage: "process file chunk failed", }) ); return; } const [chunk] = files.file; const [hash] = fields.hash; const [filename] = fields.name; const [fileHash] = fields.fileHash; const chunkDir = `${UPLOAD_DIR}/${fileHash}`; const filePath = path.resolve( UPLOAD_DIR, `${fileHash}${extractExt(filename)}` ); // 文件存在直接返回 if (fse.existsSync(filePath)) { res.end( JSON.stringify({ messaage: "file exist", }) ); return; } // 切片目录不存在,创建切片目录 if (!fse.existsSync(chunkDir)) { await fse.mkdirs(chunkDir); } // fs-extra 专用方法,类似 fs.rename 并且跨平台 // fs-extra 的 rename 方法 windows 平台会有权限问题 // https://github.com/meteor/meteor/issues/7852#issuecomment-255767835 await fse.move(chunk.path, `${chunkDir}/${hash}`); res.status = 200; res.end( JSON.stringify({ messaage: "received file chunk", }) ); }); } }); server.listen(3000, () => console.log("正在监听 3000 端口"));
到这里为止,我们就已经实现了文件上传最基本的功能,后续只是在此基础上进行迭代。
合并分片
客户端
在上传完文件分片之后,我们就可以对所有文件分片进行合并,这里需要请求一个合并分片的接口,需要传递文件的fileHash
和 filename
。
//上传分片 const uploadChunks = async () => { //... await mergeRequest(fileName, fileHash); }; // 合并分片 const mergeRequest = async (fileName, fileHash) => { await requestApi({ url: `${HOST}/merge`, method: "POST", headers: { "Content-Type": "application/json;charset=utf-8", }, body: JSON.stringify({ filename: fileName, fileHash, }), }); };
服务端
合并切片功能最核心的功能就是根据fileHash
读取对应分片目录下的分片文件列表,并按照分片下标进行排序,避免后面合并时顺序错乱。然后,使用 writeFile
方法创建一个空文件,再使用appendFileSync
依次向文件中添加分片数据,最后删除临时的分片目录。
// 合并切片 const mergeFileChunk = async (filePath, fileHash) => { const chunkDir = `${UPLOAD_DIR}/${fileHash}`; const chunkPaths = await fse.readdir(chunkDir); // 根据切片下标进行排序,否则直接读取目录的获得的顺序可能会错乱 chunkPaths.sort((a, b) => a.split("-")[1] - b.split("-")[1]); await fse.writeFile(filePath, ""); chunkPaths.forEach((chunkPath) => { fse.appendFileSync(filePath, fse.readFileSync(`${chunkDir}/${chunkPath}`)); fse.unlinkSync(`${chunkDir}/${chunkPath}`); }); fse.rmdirSync(chunkDir); // 合并后删除保存切片的目录 };
这里实现一下合并分片的接口,首先需要读取请求中的数据,然后拼接出合并后的文件名称 ${UPLOAD_DIR}/${fileHash}${ext}
,最后调用合并分片方法。
import * as http from "http"; //ES 6 import path from "path"; import fse from "fs-extra"; import multiparty from "multiparty"; const server = http.createServer(); const extractExt = (filename) => filename.slice(filename.lastIndexOf("."), filename.length); // 提取后缀名 //... const resolvePost = (req) => new Promise((resolve) => { let chunk = ""; req.on("data", (data) => { chunk += data; }); req.on("end", () => { resolve(JSON.parse(chunk)); }); }); server.on("request", async (req, res) => { //... if (req.url === "/merge") { const data = await resolvePost(req); const { filename, fileHash } = data; const ext = extractExt(filename); const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`; await mergeFileChunk(filePath, fileHash); res.status = 200; res.end(JSON.stringify("file merged success")); } }); server.listen(3000, () => console.log("正在监听 3000 端口"));
秒传
客户端
实现秒传只需要在文件上传之前请求接口验证一下文件是否存在。
const handleUpload = async () => { //... const { shouldUpload } = await verifyUpload( fileName, fileHash ); if (!shouldUpload) { alert("秒传:上传成功"); return; } //... }; //文件秒传 const verifyUpload = async (filename, fileHash) => { const data = await requestApi({ url: `${HOST}/verify`, method: "POST", headers: { "Content-Type": "application/json;charset=utf-8", }, body: JSON.stringify({ filename, fileHash, }), }); return data; };
服务端
如果文件存在shouldUpload
就返回 false
,否则就返回 true
。
import * as http from "http"; //ES 6 import path from "path"; import fse from "fs-extra"; import multiparty from "multiparty"; const server = http.createServer(); //... server.on("request", async (req, res) => { //... if (req.url === "/verify") { const data = await resolvePost(req); const { fileHash, filename } = data; const ext = extractExt(filename); const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`; if (fse.existsSync(filePath)) { res.end( JSON.stringify({ shouldUpload: false, }) ); } else { res.end( JSON.stringify({ shouldUpload: true, }) ); } } }); server.listen(3000, () => console.log("正在监听 3000 端口"));
断点续传
客户端
断点续传新增了两个按钮,来控制文件上传进度。
/* ... */ <button id="pause" onClick="handlePause()" style="display: none"> 暂停 </button> <button id="resume" onClick="handleResume()" style="display: none"> 恢复 </button> /* ... */
这里需要对requestApi
进行一些改造,添加 abortControllerList
用于存储需要被取消的请求,如果接口请求成功,则将fetch
从 abortControllerList
中移除。
/** * @description: 封装fetch * @param {Object} FetchConfig fetch config * @return {Promise} fetch result */ const requestApi = ({ url, method = "GET", onProgress, ...fetchProps }) => { const controller = new AbortController(); abortControllerList.push(controller); return new Promise(async (resolve, reject) => { const res = await fetch(url, { method, ...fetchProps, signal: controller.signal, }); // 将请求成功的 fetch 从列表中删除 const aCIndex = abortControllerList.findIndex( (c) => c.signal === controller.signal ); abortControllerList.splice(aCIndex, 1); //... }); };
在分片上传也需要做一些改造,将接口中获取到的uploadedList
,从所有分片列表中过滤出去,当已上传的uploadedList
数量加 requestList
的数量等于分片列表fileChunkListData
的数量时才进行分片合并。
let fileName = "", fileHash = "", fileSize = 0, fileChunkListData = [], abortControllerList = []; const HOST = "http://localhost:3000"; //... const handleUpload = async () => { //... const { shouldUpload, uploadedList } = await verifyUpload( fileName, fileHash ); if (!shouldUpload) { alert("秒传:上传成功"); return; } //... await uploadChunks(uploadedList); }; //上传分片 const uploadChunks = async (uploadedList) => { const requestList = fileChunkListData .filter(({ hash }) => !uploadedList.includes(hash)) .map(({ file, fileHash, fileName, hash }, index) => { //... }) .map(async ({ formData, hash }) => { . //... }); //... // 之前上传的切片数量 + 本次上传的切片数量 = 所有切片数量时 //合并分片 if ( uploadedList.length + requestList.length === fileChunkListData.length ) { await mergeRequest(fileName, fileHash); } };
然后,实现一下暂停和恢复的事件处理,暂停是通过调用 AbortController 的 abort()
方法实现。恢复则是重新获取uploadedList
后再进行分片上传实现。
//暂停 const handlePause = () => { abortControllerList.forEach((controller) => controller?.abort()); abortControllerList = []; }; // 恢复 const handleResume = async () => { const { uploadedList } = await verifyUpload(fileName, fileHash); await uploadChunks(uploadedList); };
服务端
断点续传是在秒传接口的基础上实现的,只是需要新增已上传分片列表uploadedList
。
import * as http from "http"; //ES 6 import path from "path"; import fse from "fs-extra"; import multiparty from "multiparty"; const server = http.createServer(); //... // 返回已经上传切片名列表 const createUploadedList = async (fileHash) => fse.existsSync(`${UPLOAD_DIR}/${fileHash}`) ? await fse.readdir(`${UPLOAD_DIR}/${fileHash}`) : []; server.on("request", async (req, res) => { //... if (req.url === "/verify") { const data = await resolvePost(req); const { fileHash, filename } = data; const ext = extractExt(filename); const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`; if (fse.existsSync(filePath)) { res.end( JSON.stringify({ shouldUpload: false, }) ); } else { res.end( JSON.stringify({ shouldUpload: true, uploadedList: await createUploadedList(fileHash), }) ); } } }); server.listen(3000, () => console.log("正在监听 3000 端口"));
上传进度
上传进度只需要改造客户端,首先,新增显示进度的标签。
<p id="progress"></p>
上传进度需要对fetch
请求再做一点改造,这里需要使用getReader()
手动读取数据流,获取到当前上传进度,并添加onProgress
回调。
/** * @description: 封装fetch * @param {Object} FetchConfig fetch config * @return {Promise} fetch result */ const requestApi = ({ url, method = "GET", onProgress, ...fetchProps }) => { //... return new Promise(async (resolve, reject) => { const res = await fetch(url, { method, ...fetchProps, }); const total = res.headers.get("content-length"); const reader = res.body.getReader(); //创建可读流 const decoder = new TextDecoder(); let loaded = 0; let data = ""; while (true) { const { done, value } = await reader.read(); loaded += value?.length || 0; data += decoder.decode(value); onProgress && onProgress({ loaded, total }); if (done) { break; } } //... resolve(JSON.parse(data)); }); };
然后,在上传的时候将已上传进度设置成100,并添加onProgress
回调处理,累计每个分片的进度,得到整体的上传进度。
let fileName = "", fileHash = "", fileSize = 0, fileChunkListData = [], abortControllerList = []; const HOST = "http://localhost:3000"; //... const handleUpload = async () => { //... fileChunkListData = fileChunkList.map(({ file, size }, index) => { //... return { percentage: uploadedList.includes(hash) ? 100 : 0, }; }); //... }; //上传分片 const uploadChunks = async (uploadedList) => { const requestList = fileChunkListData .filter(({ hash }) => !uploadedList.includes(hash)) .map(({ file, fileHash, fileName, hash }, index) => { //... }) .map(async ({ formData, hash }) => { return requestApi({ url: `${HOST}`, method: "POST", body: formData, onProgress: ({ loaded, total }) => { const percentage = parseInt((loaded / total) * 100); // console.log("分片上传百分比:", percentage); const curIndex = fileChunkListData.findIndex( ({ hash: h }) => h === hash ); fileChunkListData[curIndex].percentage = percentage; const totalLoaded = fileChunkListData .map((item) => item.size * item.percentage) .reduce((acc, cur) => acc + cur); const totalPercentage = parseInt( (totalLoaded / fileSize).toFixed(2) ); const progressText = `上传进度:${totalPercentage}%`; document.getElementById("progress").innerHTML = progressText; console.log(progressText); }, }); }); //... };
总结
大文件上传其实很多时候不需要我们自己去实现,因为已经有很多成熟的解决方案。
但深入理解大文件上传背后的原理,更加有利于我们对已有的大文件上传方案进行个性化改造。
在线实现大文件上传的过程中使用到了三个插件,multiparty
、fs-extra
、spark-md5
,如果大家不太理解,需要自己去补充一下相关知识。
以上就是使用纯原生JS实现大文件分片上传的详细内容,更多关于JS大文件分片上传的资料请关注脚本之家其它相关文章!
相关文章
浅谈webpack打包生成的bundle.js文件过大的问题
下面小编就为大家分享一篇浅谈webpack打包生成的bundle.js文件过大的问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧2018-02-02
最新评论