面试官:如何实现大文件切片上传?

公众号:程序员白特,关注我,每天进步一点点~

前端上传文件很大时,会出现各种问题,比如连接超时了,网断了,都会导致上传失败,这个时候就需要将文件切片上传,下面我们就来学习一下如何使用vue实现大文件切片上传吧

大文件为什么要切片上传

前端上传文件很大时,会出现各种问题,比如连接超时了,网断了,都会导致上传失败;

服务端限制了单次上传文件的大小;

项目实际场景

客户端需要上传一个算法包文件到服务器,这个算法包实测 3.7G

nginx配置文件 上传文件大小最大值为100M

切片上传原理

通过file.slice将大文件chunks切成许多个大小相等的chunk

将每个chunk上传到服务器

服务端接收到许多个chunk后,合并为chunks

第一版

先对文件按指定大小进行切片

/**
  * file: 需要切片的文件
  * chunkSize: 每片文件大小,1024*1024=1M
  */
chunkSlice(file, chunkSize) {
   const chunks = [],
       size = file.size,
       total = Math.ceil(size / chunkSize)
   for (let i = 0; i < size; i += chunkSize) {
       chunks.push({
           total,
           blob: file.slice(i, i + chunkSize),
       })
   }
   return chunks
}

处理切片后的文件,后端想要我传给他一个json对象,所以使用readAsDataURL读取文件

这里使用了一个插件spark-md5来生成每个切片的MD5

async handleFile(chunks) {
    const res = []
    for (const item of chunks) {
        const { bytes, md5 } = await this.addMark(item.blob)
        item.blob = bytes
        item.md5 = md5
        res.push(md5)
    }
    return res
},
// 使用FileReader读取每一片数据,并生成MD5编码
async addMark(chunk) {
    return new Promise((resolve, reject) => {
        const reader = new FileReader()
        const spark = new SparkMD5()

        reader.readAsDataURL(chunk)
        reader.onload = function (e) {
            const bytes = e.target.result
            spark.append(bytes)

            const md5 = spark.end()
            resolve({ bytes, md5 })
        }
    })
},

组装数据,包括每一片的排列顺序index,总共切了多少片total,文件IDfileID,每一片的md5编码md5,每一片数据fileData

mergeData(chunks) {
    const fileId = this.getUUID()
    const data = []
    for (let i = 0; i < chunks.length; i++) {
        const obj = {
            fileId,
            fileData: chunks[i].blob,//每片切片的数据
            fileIndex: i + 1,//每片数据索引
            fileTotal: chunks[i].total + '',
            md5: chunks[i].md5,
        }

        data.push(obj)
    }
    return { data, fileId }
},

上传文件,这里使用并发上传文件,提升文件上传速度

const chunks = chunkSlice(file,1024*1024)
this.handleFile(chunks)
const data = this.mergeData(chunks)

for(let i = 0; i < data.length; i++){
    this.uplload(data[i])
}

第一版遇到的问题

文件太大,切片太小,上传接口的timeout太短,并发请求时,全都在pendding,导致请求出错

第一版问题解决

对上传文件接口的timeout修改,调整时长,大一点

限制每次并发的数量,我用的是500个每次

第二版,切片 + web worker

为什么要使用web worker

在生成文件MD5编码时,需要读文件,是一个I/O操作,会阻塞页面,文件太大,导致页面卡死

将耗时操作转移到worker线程,主页面就不会卡住

vue2,使用worker

yarn add worker-loader

vue.config.js 配置

// vue.config.js
chainWebpack(config) {
    config.module.rule('worker')
        .test(/\.worker\.js$/)
        .use('worker-loader')
        .loader('worker-loader')
        // .options({ inline: 'fallback' })// 这个配置是个坑,不要加
},

新建file.worker.js

// file.worker.js
import SparkMD5 from 'spark-md5'

const chunkSlice = (file, chunkSize) => {
    const chunks = [],
        size = file.size,
        total = Math.ceil(size / chunkSize)
    for (let i = 0; i < size; i += chunkSize) {
        chunks.push({
            total,
            blob: file.slice(i, i + chunkSize),
        })
    }
    return chunks
}
const handleFile = async (chunks) => {
    const res = []
    for (const item of chunks) {
        const { bytes, md5 } = await addMark(item.blob)
        item.blob = bytes
        item.md5 = md5
        res.push(md5)
    }
    return res
}
const addMark = (chunk) => {
    return new Promise((resolve, reject) => {
        const reader = new FileReader()
        const spark = new SparkMD5()

        reader.readAsDataURL(chunk)
        reader.onload = function (e) {
            const bytes = e.target.result
            spark.append(bytes)

            const md5 = spark.end()
            resolve({ bytes, md5 })
        }
    })
}
const mergeData = (chunks, fileName, options) => {
    const fileId = getUUID() // 这里更好的方式是读整个文件的 MD5
    const data = []
    for (let i = 0; i < chunks.length; i++) {
        const obj = {
            ...options,
            suffix: '.tar.gz',
            fileId,
            fileName,
            fileData: chunks[i].blob,
            fileIndex: i + 1 + '',
            fileTotal: chunks[i].total + '',
            md5: chunks[i].md5,
        }

        data.push(obj)
    }
    return { data, fileId }
}
const getUUID = () => {
    return ([1e7] + -1e3 + -4e3 + -8e3 + -1e11).replace(/[018]/g, (c) =>
        (c ^ (crypto.getRandomValues(new Uint8Array(1))[0] & (15 >> (c / 4)))).toString(16)
    )
}
const dataSlice = (data, step, fileId) => {
    const total = Math.ceil(data.length / step)
    let index = 1
    for (let i = 0; i < data.length; i += step) {
        const params = {
            type: 'workerFile',
            index,
            total,
            fileId,
            data: data.slice(i, i + step),
        }
        self.postMessage(params)
        index++
    }
}
self.addEventListener('error', (event) => {
    console.log('worker error', event)
})

self.addEventListener('message', async (event) => {
    // 确保接受的是我想要的消息  
    if (!event.data.type) return
    if (event.data.type != 'file') return
    console.log('worker success', event)

    const { file, chunkSize } = event.data
    const chunks = chunkSlice(file, chunkSize)
    const allMD5 = await handleFile(chunks)
    console.log(allMD5)
    // 此处 allMD5 可用来做后续的断点续传
    const { data, fileId } = mergeData(chunks, file.name)
    
    // 这里对处理好的数据进行切片,分片传递给主线程,是由于 Web Worker 试图将大量数据复制到主线程中,会导致内存溢出。
    dataSlice(data, 100, fileId)

})

这个报错一般是在使用 JavaScript Web Worker 时出现的,通常是由于 Web Worker 试图将大量数据复制到主线程中,导致内存溢出所引起的。

主进程使用

// xxx.vue文件
import Worker from '@/utils/worker/file.worker.js'


const worker = new Worker()
worker.postMessage({ type: 'file', file: this.curFile, chunkSize: 1024 * 1024 })

worker.onerror = (error) => {
    console.log('main error', error)
    worker.terminate()
}

const finalData = []
worker.onmessage = async (event) => {
    console.log('main success', event)
    if (event.data.type != 'workerFile') return

    const fileId = mergeWorkerData(finalData, event.data)
    if (fileId) {
        worker.terminate()

        const status = await stepLoad(finalData, 500)

        if (!status) {
            this.$message.error('文件上传失败')
        } else {
            this.$message.success('文件上传成功')

        }

    }
}

mergeWorkerData = (res, params) => {
    res.push(...params.data)
    return params.index == params.total ? params.fileId : false
}

const stepLoad = async (data, step) => {
    const res = []
    for (let i = 0; i < data.length; i += step) {
        res.push(data.slice(i, i + step))
    }
    for (const item of res) {
        const chunkRes = await Promise.all(item.map((v) => this.$api.upload(v)))
        if (chunkRes.some((v) => v.httpCode != 0)) {
            return false
        }

        const isEnd = chunkRes.filter((v) => v.finish)
        if (isEnd.length) {
            return true
        }
    }
}

总结

worker引入脚本或三方库可以使用importScript(),但是我没弄成功,一使用importScript()就会报错,Renference: importScript() xxxxxxxxxxxx,如果你们弄出来了,或者知道为什么,可以在下面留言~

#前端##机械只有转码才有出路吗?##软件开发薪资爆料##2022届毕业生现状#
全部评论
打个压缩包,然后git拉可以吗?(不懂开发
点赞 回复 分享
发布于 2024-06-05 20:34 辽宁
这里还能遇到白特大佬😍
点赞 回复 分享
发布于 2024-06-24 11:57 江苏

相关推荐

测试开发面经12.9一面自我介绍项目经历:围绕了项目经历进行提问,比如&nbsp;具体是做了哪一块,然后就介绍具体做了什么,优化了什么,有具体测试出优化了多少吗。然后根据简历上写的缓存一致性又深入聊了,然后就问我先更新数据库,再删除缓存,这一个是怎么做的,然后如果让我测试这个场景,会怎么设计测试用例。实习经历:然后就围绕实习经历进行提问,怎么找的这个实习,然后就介绍自己印象最深刻的一个项目,以及是怎么测试的,然后就是根据这个不断深挖,深问,问了功能测试是怎么测的,什么是埋点测试和接口测试,具体是怎么做的,怎么决定模拟并发的时候的并发数。游戏经历:根据游戏经历开始问,然后就问最近玩的游戏是什么,或者最想分享的一个游戏是什么,然后我就选择聊了英雄联盟,然后就开始聊了大概十分钟,比如:为什么是觉得想聊英雄联盟?你玩什么位置比较多?为什么喜欢玩打野?你对于打野这个位置的理解是什么?你最喜欢的一个英雄是什么?(我说了蜘蛛)然后就问&nbsp;你开局的思路是什么,你觉得玩蜘蛛是怎么赢游戏的,节奏是怎么样的如果你是设计师,你会如何设计来加强蜘蛛的打团能力。你觉得英雄联盟这游戏是怎么样的一个状态,未来会是怎么样的?你作为策划你会怎么做来让游戏更多人玩?其他问题:你的获奖经历,可以聊聊你蓝桥杯的获奖是怎么样准备的吗?其中遇到了什么困难?你后续有升学的打算吗?你有别的offer吗?反问:后续流程是怎么样的?游戏测试和软件测试有什么不同吗?体验很好,聊得很开心12.12二面:自我介绍然后围绕了实习经历进行非常细致的提问实习经历:介绍实习做了什么?具体什么业务排行榜这个是怎么测试的?封榜的逻辑是怎么设计的?发奖的逻辑是怎么样的,怎么设计测试用例,要考虑哪些?排行榜具体设计到的数据库表是怎么设计的?都有什么字段?之前那个公司的实习的薪资怎么样?转正的待遇如何?工作强度你觉得怎么样?设计测试用例的时候,leader帮你检查的时候主要是检查或者补充什么部分?有遗漏过什么吗?你觉得测试和测开有什么区别?注重的点是什么?你是怎么理解测试这个岗位,以及为什么想要来干测试?你对于自动化测试怎么理解?你会帮你前公司设计哪些提效的测试工具?如何实现?(聊了很久)如果版本大改,页面变动很大,那自动化的代码不能复用了,你如何处理?如何减小影响?游戏经历:喜欢玩什么游戏?(我答了英雄联盟)对于打野的理解怎么安排前期的野区路线和gank路线野核和节奏型打野这两种类型的打野,你觉得什么因素会影响他们的强弱。面试官问的特别细致,也会给出反应和回应,也会给出一些方向的提示,体验很好网易游戏(互娱)2026届实习生培养项目,2月25日震撼启航!️&nbsp;面向26届追梦人,你准备好了吗?如果你是2025年9月至2026年8月间毕业的闪耀新星,这将是你不容错过的舞台!📍招聘城市:广州、杭州、上海招聘岗位:涵盖5大类近40个岗位校招C位提前锁定、SSR级培训资源、一流的实习福利等你来~投递传送门:https://game.campus.163.com/m/home?st=YTE1ZTlhNDUtNmNlMC00ZTI5LWE2ZjUtZGMxNTNhNDhjNzlm内推码:【9QcfNR】内推码可帮助大家优先筛选或直通笔试!!(大家使用这个内推码投递,我才可以帮大家查询进度,跟进流程~) #内推码#&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;#校招#&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;#暑期实习#&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;#内推#&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
点赞 评论 收藏
分享
评论
7
20
分享

创作者周榜

更多
牛客网
牛客企业服务