Qwen3-Omni-Flash – 阿里通义推出的全模态大模型,支持119种文本语言、19种语音识别语言和10种语音合成语言

发现3天前更新 up博主
24 0

qwen3-omni-flash(qwen3-omni-flash-2025-12-01)是阿里巴巴qwen团队全新发布的全模态大语言模型。可实现文本、图像、音频和视频的无缝输入与同步输出。模型支持119种文本语言交互、19种语音识别语言和10种语音合成语言,确保跨语言场景下的准确响应。模型具备更强的指令遵循能力和更自然流畅的语音表现,致力于为用户提供“声形意合,令出智随”的 AI 交互体验,是目前全模态 AI 领域的前沿产品。

Qwen3-Omni-Flash – 阿里通义推出的全模态大模型,支持119种文本语言、19种语音识别语言和10种语音合成语言t-19

Qwen3-Omni-Flash的主要功能

  • 多模态输入与输出:支持文本、图像、音频和视频等多种输入形式,实时生成高质量的文本与自然语音输出。
  • 音视频交互:模型显著提升音视频指令的理解与执行能力,增强多轮对话的稳定性和连贯性,语音表现更自然流畅。
  • 系统提示(System Prompt)控制:全面开放自定义权限,用户能精细调控模型行为,设定人设风格、口语化偏好及回复长度等。
  • 多语言支持:支持119种文本语言、19种语音识别语言和10种语音合成语言,确保跨语言场景下的准确交互。

Qwen3-Omni-Flash的性能表现

  • 文本理解与生成更强大:在逻辑推理(ZebraLogic +5.6)、代码生成(LiveCodeBench-v6 +9.3、MultiPL-E +2.7)和综合写作(WritingBench +2.2)等任务上大幅提升,复杂指令遵循能力再上新台阶。
  • 语音理解更精准:在语音识别(Fleurs-zh)的字错率显著降低,语音对话评估(VoiceBench)得分提升 3.2 分,语音理解能力提升。
  • 语音生成更自然:多语言语音合成质量全面提升,尤其在中文、多语种上,韵律、语速与停顿更贴近真人对话。
  • 图像理解更深入:在多学科视觉问答(MMMU +4.7、MMMU_pro +4.8)和数学视觉推理(Mathvision_full +2.2)任务上取得飞跃,能更准确地“看懂”图像内容、进行深度分析。
  • 视频理解更连贯:视频语义理解能力(MLVU +1.6)持续优化,结合增强的音视频同步能力,为实时视频对话提供坚实基础。
t-19

Qwen3-Omni-Flash的项目地址

  • 项目官网:https://qwen.ai/blog?id=qwen3-omni-flash-20251201

Qwen3-Omni-Flash的应用场景

  • 智能客服:通过语音、文字和视频等多种方式与用户互动,提供更自然、高效的客户服务体验。
  • 多语言教学:支持多种语言的交互,帮助学生学习不同语言,提供实时语音反馈和语言纠正。
  • 内容创作:快速生成高质量的文章、故事、脚本等内容,支持多种写作风格。
  • 医疗咨询:通过语音和图像交互,为患者提供初步的医疗咨询和健康建议。
  • 会议助手:实时语音转录、多语言翻译和会议内容总结,提高会议效率。
© 版权声明

相关文章

暂无评论

none
暂无评论...