当前位置: 首页 > news >正文

前端跑模型?WebGPU + Transformer.js 实战:在浏览器里直接运行 Whisper 语音识别,无需后端服务器

😲 前言:为什么 WebAI 是下一个风口?

传统的 AI 应用架构是Client-Server模式。哪怕只是识别一句“你好”,音频也要飞越千山万水传到服务器。
WebAI (WebAssembly + WebGPU)将计算移到了Edge (边缘端)

优势极其残暴:

  1. 零服务器成本:白嫖用户的显卡算力,老板看了直呼内行。
  2. 绝对隐私:数据根本不出浏览器,特别适合医疗、金融等敏感场景。
  3. 零延迟:没有网络 RTT,本地推理,即刻响应。

🏗️ 一、 核心技术栈:浏览器里的“Hugging Face”

我们要用到的神器是Transformer.js
它是 Hugging Face 的 JavaScript 移植版,旨在让 Python 的transformers库在 Node.js 和浏览器中无缝运行。配合 ONNX Runtime 和 WebGPU,它能跑出接近原生的速度。

架构对比图 (Mermaid):

WebAI 前端模式

浏览器沙盒

MediaStream API

调用

加速

直接输出文本

Transformer.js 引擎

用户麦克风

浏览器 (Chrome/Edge)

WebAssembly / WebGPU

Whisper ONNX 模型 (本地缓存)

传统后端 AI 模式

上传音频 (慢/费流量)

下载文本

用户麦克风

后端 Python 服务 (GPU集群)


🛠️ 二、 实战开发:3 步搞定

我们将使用Vite + React(或者纯原生 JS) 来搭建。

1. 安装依赖
npminstall@xenova/transformers

注:@xenova/transformers是目前最流行的维护版本。

2. 关键点:使用 Web Worker (必看!)

在主线程跑 AI 模型会阻塞 UI 渲染,导致页面“卡死”。必须把推理逻辑放在Web Worker中。

**文件:worker.js**

import{pipeline}from'@xenova/transformers';// 单例模式,防止重复加载模型classMyPipeline{statictask='automatic-speech-recognition';staticmodel='Xenova/whisper-tiny';// 使用 tiny 模型,体积小(约40MB)staticinstance=null;staticasyncgetInstance(progress_callback=null){if(self.instance===null){// 加载 pipelineself.instance=awaitpipeline(self.task,self.model,{progress_callback,// 如果浏览器支持 WebGPU,这里可以开启加速// device: 'webgpu',// dtype: 'fp32', // 或 'q8' 量化版});}returnself.instance;}}// 监听主线程消息self.addEventListener('message',async(event)=>{const{audio}=event.data;// 1. 获取模型实例lettranscriber=awaitMyPipeline.getInstance((data)=>{// 回传加载进度self.postMessage({status:'loading',data});});// 2. 开始识别self.postMessage({status:'start'});// Whisper 接受浮点数数组作为音频输入letoutput=awaittranscriber(audio,{top_k:0,do_sample:false,language:'chinese',// 强制中文,也可 autochunk_length_s:30,stride_length_s:5,});// 3. 回传结果self.postMessage({status:'complete',output});});
3. 主界面逻辑 (React 示例)

在主线程,我们需要处理录音,并将音频数据转换为模型能接受的格式(Float32Array)。

**文件:App.jsx**

import { useEffect, useRef, useState } from 'react'; function App() { const [result, setResult] = useState(''); const [status, setStatus] = useState('准备就绪'); const worker = useRef(null); useEffect(() => { // 初始化 Worker worker.current = new Worker(new URL('./worker.js', import.meta.url), { type: 'module', }); worker.current.onmessage = (event) => { const { status, data, output } = event.data; if (status === 'loading') { setStatus(`模型加载中... ${data.file} ${Math.round(data.progress)}%`); } else if (status === 'complete') { setStatus('识别完成'); setResult(output.text); } }; }, []); const startRecord = async () => { setStatus('正在录音...'); const stream = await navigator.mediaDevices.getUserMedia({ audio: true }); const mediaRecorder = new MediaRecorder(stream); const audioChunks = []; mediaRecorder.ondataavailable = (e) => audioChunks.push(e.data); mediaRecorder.onstop = async () => { const audioBlob = new Blob(audioChunks); const arrayBuffer = await audioBlob.arrayBuffer(); const audioContext = new AudioContext(); const audioBuffer = await audioContext.decodeAudioData(arrayBuffer); // 获取左声道数据 (Whisper 只需单声道) const audioData = audioBuffer.getChannelData(0); setStatus('正在推理...'); // 发送给 Worker worker.current.postMessage({ audio: audioData }); }; mediaRecorder.start(); setTimeout(() => mediaRecorder.stop(), 3000); // 录制 3 秒测试 }; return ( <div> <h1>WebAI 语音识别</h1> <p>状态: {status}</p> <button onClick={startRecord}>🎤 点击录音 3 秒</button> <div style={{ marginTop: 20, padding: 10, border: '1px solid #ccc' }}> {result || '等待识别结果...'} </div> </div> ); } export default App;

🚀 三、 性能实测与坑点

当你点击“录音”后,神奇的事情发生了:

  1. 第一次运行时,浏览器会从 Hugging Face 下载whisper-tiny量化模型(约 40MB),保存在 Cache Storage 中。
  2. 后续运行时,无需下载。
  3. 在 M1 MacBook Air 上,识别 3 秒语音仅需200ms左右。
  4. 在带有独显的 Windows PC 上开启 WebGPU 后,速度更是起飞。

⚠️ 避坑指南:

  1. SharedArrayBuffer 问题:ONNX Runtime 多线程需要开启 HTTP 响应头Cross-Origin-Opener-Policy: same-originCross-Origin-Embedder-Policy: require-corp。如果报错,请在 Vite 配置里加上这两个 Header。
  2. 模型大小:推荐使用quantized(量化) 版本的模型,精度损失很小,但体积和内存占用减少一半。
  3. 兼容性:WebGPU 目前在 Chrome/Edge 113+ 上支持最好,Safari 还在追赶中(可回退到 WebAssembly 模式)。

🎯 总结

前端开发的边界正在无限扩张。
昨天我们还在切图、调 CSS,今天我们已经可以在浏览器里跑神经网络了。
WebAI 不是要取代后端 AI,而是通过“混合计算”,把小模型、实时性要求高的任务利用前端算力消化掉,从而为企业实现巨大的“降本增效”。

Next Step:
既然能跑 Whisper,那能不能跑 LLM?
答案是肯定的。去搜一下WebLLM项目,试着把 Llama-3 塞进浏览器,做一个完全离线的 ChatGPT 吧!

http://www.jsqmd.com/news/162079/

相关文章:

  • PyTorch知识蒸馏实战:在CUDA-v2.8中训练小型化模型
  • 【3D点云定位】基于不变 EKF 进行估计3D点云集的点直接用于测量以更新预测状态附 matlab代码
  • jupyter notebook导出PDF:生成PyTorch-CUDA-v2.8实验报告
  • diskinfo监控IOPS:评估PyTorch-CUDA-v2.8数据吞吐能力
  • PyTorch梯度裁剪技巧:防止训练崩溃在CUDA-v2.8中应用
  • 职称材料准备神器——使用Zotero PDF2zh无痛准备SCI中文翻译版本
  • 柯南变声器成真?基于 RVC 实现 Python 实时变声,男声秒变萝莉音
  • PyTorch-v2.8 + CUDA 12:高性能GPU计算的终极解决方案
  • jupyter notebook魔法命令:%timeit测试PyTorch-CUDA-v2.8性能
  • PyTorch-CUDA-v2.8镜像支持WSL2吗?Windows子系统实测
  • AI绘图封神王炸!Z-Image-Turbo图生图最新版!
  • cuda安装后nvidia-smi无显示?PyTorch-CUDA-v2.8内置诊断工具
  • PyTorch模型部署到生产:基于CUDA-v2.8构建API服务
  • PyTorch-CUDA-v2.8镜像支持A100/H100吗?高性能显卡实测反馈
  • anaconda prompt执行pytorch命令失败?换用镜像环境试试
  • GitHub热门项目都在用的PyTorch环境,现在一键就能部署
  • git clone超时解决方法:使用代理拉取PyTorch-CUDA-v2.8代码
  • github actions自动化构建PyTorch-CUDA-v2.8镜像
  • Python 里的“瑞士军刀”:用 Streamlit 搭建一个 AI 辅助的数据清洗工作台,告别 Excel 崩溃
  • github pages搭建文档站:展示PyTorch-CUDA-v2.8使用文档
  • 神州路由器的OSPF路由两种认证
  • 大数据领域 ETL 数据迁移的注意事项
  • Jupyter与SSH双模式支持:PyTorch镜像满足多种开发需求
  • PyTorch-CUDA-v2.8镜像体积优化:减少下载时间提升启动速度
  • 当 AI 学会欺诈:用 Python 训练一个对抗生成网络 (GAN),自动生成绕过人脸识别的“假照片”
  • anaconda配置pytorch环境缓慢?国内镜像加速不如直接用镜像
  • cuda安装驱动不匹配?PyTorch-CUDA-v2.8自动规避版本冲突
  • jupyter notebook扩展推荐:Variable Inspector for PyTorch-CUDA-v2.8
  • github issues提问技巧:关于PyTorch-CUDA-v2.8的问题如何描述
  • SQLAlchemy 2.0 类型注解指南:`Mapped` 与 `mapped_column`