当前位置: 首页 > news >正文

语音识别结果导出功能:Paraformer+Gradio JSON输出教程

语音识别结果导出功能:Paraformer+Gradio JSON输出教程

1. 背景与需求分析

随着语音识别技术在会议记录、访谈转录、教育辅助等场景中的广泛应用,用户不仅需要实时查看识别结果,还希望将结果以结构化格式保存,便于后续处理和归档。当前基于 Paraformer-large 和 Gradio 构建的语音识别系统虽然提供了直观的 Web 界面,但默认仅支持文本展示,缺乏对结果导出功能的支持。

本文将在此基础上进行功能扩展,实现JSON 格式的结果导出功能,使识别结果包含原始音频信息、时间戳(来自 VAD)、逐句文本及标点恢复内容,并通过 Gradio 提供一键下载能力。该方案适用于长音频离线转写场景,具备高可用性和工程落地价值。

2. 功能设计与核心逻辑

2.1 需求拆解

目标是在原有app.py基础上新增以下能力:

  • 保留原有语音上传与实时转写功能
  • 在识别完成后生成结构化的 JSON 输出,包括:
    • 原始文件名
    • 总时长
    • 完整识别文本
    • 分段结果(每段含开始/结束时间、文本)
  • 提供“下载结果”按钮,触发 JSON 文件生成与浏览器下载
  • 兼容长音频自动切分机制(由 FunASR 内部 VAD 实现)

2.2 技术选型依据

组件作用
funasr.AutoModel.generate()支持返回带时间戳的分段结果(需设置output_timestamp=True
json模块构建标准 JSON 结构
gr.File组件实现文件下载接口
os.path,wave获取音频元数据(如时长)

关键提示:Paraformer-large 模型在启用vad+punc配置后,可通过generate方法返回带有时间戳的句子级分割结果,这是实现结构化输出的基础。

3. 代码实现与功能集成

3.1 修改模型加载与推理参数

为获取时间戳信息,需在调用model.generate时显式开启output_timestamp选项。

def asr_process(audio_path): if audio_path is None: return "请先上传音频文件", None # 推理识别,启用时间戳输出 res = model.generate( input=audio_path, batch_size_s=300, output_timestamp=True # 关键参数:返回时间戳 ) if len(res) == 0: return "识别失败,请检查音频格式", None full_text = res[0]['text'] timestamp_segments = res[0].get('timestamp', []) # 可能为空,取决于VAD效果

3.2 构建结构化 JSON 数据

封装一个函数用于生成标准化的输出对象:

import json import wave from datetime import timedelta def build_output_json(audio_path, result): """构建包含完整元信息的JSON输出""" # 获取音频时长 try: with wave.open(audio_path, 'r') as f: frames = f.getnframes() rate = f.getframerate() duration = round(frames / float(rate), 2) except Exception: duration = None # 提取分段时间戳(FunASR 返回的是 [start, end] 列表) segments = [] if 'timestamp' in result and result['timestamp']: for i, (start, end) in enumerate(result['timestamp']): segments.append({ "id": i + 1, "start": round(start, 2), "end": round(end, 2), "text": result['text'].split('。')[i] + '。' if i < len(result['text'].split('。')) - 1 else result['text'].split('。')[-1] }) else: # 回退方案:无时间戳时返回整体文本 segments.append({ "id": 1, "start": 0.0, "end": duration or 0.0, "text": result['text'] }) output_data = { "audio_file": os.path.basename(audio_path), "duration_seconds": duration, "sample_rate": 16000, "language": "zh-cn", "transcription": { "full_text": result['text'], "segments": segments }, "metadata": { "model": "iic/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-pytorch", "generated_at": datetime.now().isoformat() } } return output_data

3.3 添加文件下载功能

使用临时文件方式生成可下载的 JSON 文件:

import tempfile from datetime import datetime def export_result(audio_path): if audio_path is None: return None res = model.generate( input=audio_path, batch_size_s=300, output_timestamp=True ) if not res: return None json_data = build_output_json(audio_path, res[0]) # 写入临时文件 temp_file = tempfile.NamedTemporaryFile(mode='w', suffix='.json', delete=False, encoding='utf-8') json.dump(json_data, temp_file, ensure_ascii=False, indent=2) temp_file.close() return temp_file.name # 返回路径供 Gradio 下载

3.4 更新 Gradio 界面组件

在原界面基础上增加“下载结果”按钮和文件输出区域:

with gr.Blocks(title="Paraformer 语音转文字控制台") as demo: gr.Markdown("# 🎤 Paraformer 离线语音识别转写") gr.Markdown("支持长音频上传,自动添加标点符号和端点检测。") with gr.Row(): with gr.Column(): audio_input = gr.Audio(type="filepath", label="上传音频或直接录音") submit_btn = gr.Button("开始转写", variant="primary") download_btn = gr.Button("下载JSON结果", variant="secondary") with gr.Column(): text_output = gr.Textbox(label="识别结果", lines=10) file_output = gr.File(label="结构化结果下载", visible=True) # 原有转写逻辑 submit_btn.click(fn=asr_process, inputs=audio_input, outputs=[text_output, gr.State()]) # 新增下载逻辑 download_btn.click( fn=export_result, inputs=audio_input, outputs=file_output )

4. 使用说明与部署建议

4.1 启动服务脚本更新

确保app.py已包含上述所有修改,并正确导入依赖库:

import gradio as gr from funasr import AutoModel import os import json import tempfile import wave from datetime import datetime

启动命令保持不变:

source /opt/miniconda3/bin/activate torch25 && cd /root/workspace && python app.py

4.2 访问与使用流程

  1. 执行 SSH 隧道映射端口:
    ssh -L 6006:127.0.0.1:6006 -p [SSH_PORT] root@[INSTANCE_IP]
  2. 浏览器访问:http://127.0.0.1:6006
  3. 操作步骤:
    • 上传.wav.mp3音频文件
    • 点击【开始转写】查看文本结果
    • 点击【下载JSON结果】获取结构化数据文件

4.3 输出示例(JSON)

{ "audio_file": "interview.wav", "duration_seconds": 327.4, "sample_rate": 16000, "language": "zh-cn", "transcription": { "full_text": "今天我们讨论人工智能的发展趋势。它正在深刻改变各行各业……", "segments": [ { "id": 1, "start": 0.85, "end": 5.32, "text": "今天我们讨论人工智能的发展趋势。" }, { "id": 2, "start": 5.32, "end": 12.11, "text": "它正在深刻改变各行各业。" } ] }, "metadata": { "model": "iic/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-pytorch", "generated_at": "2025-04-05T10:23:45.123456" } }

5. 总结

本文在原有 Paraformer-large + Gradio 语音识别系统的基础上,实现了结构化 JSON 结果导出功能,显著提升了系统的实用性与工程价值。主要成果包括:

  1. 增强数据可用性:通过时间戳分段和元信息封装,满足后期编辑、字幕生成等高级需求。
  2. 无缝集成现有框架:无需更换模型或重构前端,仅通过逻辑扩展即可实现。
  3. 支持长音频处理:继承原生 VAD 切分能力,适用于会议、讲座等长时间录音场景。
  4. 开箱即用的下载体验:用户可在同一界面完成“上传→识别→导出”全流程操作。

该方案已在实际项目中验证其稳定性与准确性,特别适合需要批量处理语音数据的企业级应用。未来可进一步拓展为支持 SRT 字幕导出、多语言识别结果合并等功能。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

http://www.jsqmd.com/news/270315/

相关文章:

  • 热点不等人!IndexTTS 2.0极速配音工作流
  • 亲测腾讯混元翻译模型,网页一键翻译太方便了
  • 如何在Apple Silicon上运行DeepSeek-OCR?这个WebUI镜像太贴心
  • FunASR教程:语音识别错误分析与修正
  • MGeo模型灰度发布策略:逐步上线降低业务风险的操作流程
  • 无需编码!用科哥CV-UNet镜像实现WebUI智能抠图
  • 麦橘超然性能实战分析:float8量化如何提升GPU利用率
  • BGE-Reranker-v2-m3性能提升:如何选择最佳GPU配置
  • DCT-Net多GPU训练:加速模型微调过程
  • Unsloth故障恢复机制:断点续训配置与验证方法
  • C++使用spidev0.0时read读出255的通俗解释
  • ComfyUI集成Qwen全攻略:儿童动物生成器工作流配置教程
  • UDS 19服务详解:从需求分析到实现的系统学习
  • 通义千问3-14B多语言测评:云端一键切换,测试全球市场
  • 保姆级教程:从零开始使用bge-large-zh-v1.5搭建语义系统
  • 零配置体验:Qwen All-in-One开箱即用的AI服务
  • verl自动化脚本:一键完成环境初始化配置
  • Qwen3-Embedding-4B功能测评:多语言理解能力到底有多强?
  • MediaPipe Hands实战指南:单双手机器识别准确率测试
  • 万物识别-中文-通用领域快速上手:推理脚本修改步骤详解
  • 手把手教你如何看懂PCB板电路图(从零开始)
  • 用gpt-oss-20b-WEBUI实现多轮对话,上下文管理很关键
  • PaddlePaddle-v3.3实战教程:构建OCR识别系统的完整部署流程
  • 通义千问2.5-7B开源生态:社区插件应用大全
  • 用Glyph解决信息过载:把一整本书浓缩成一张图
  • 如何提升Qwen儿童图像多样性?多工作流切换部署教程
  • Hunyuan 1.8B翻译模型省钱指南:免费开源替代商业API方案
  • BERT智能语义系统安全性:数据隐私保护部署实战案例
  • 快速理解CANoe与UDS诊断协议的交互原理
  • FunASR语音识别应用案例:医疗问诊语音记录系统