微信扫码
添加专属顾问
我要投稿
阿里Qwen版语音视频聊天模式,全能AI模型Qwen2.5-Omni-7B来袭,每天可试用10次。 核心内容: 1. 阿里Qwen Chat新增实时语音和视频聊天功能 2. Qwen2.5-Omni-7B模型:全能AI,支持文本、音频、图像、视频多种输入 3. Qwen2.5-Omni性能评估:跨模态能力达到SOTA水平
阿里的 Qwen Chat (通义千问聊天) 现在可以直接进行实时语音和实时视频聊聊天了,每天10次
支撑这项新功能的,是刚刚发布的 Qwen2.5-Omni-7B 模型,它是一个 Omni(全能)模型。简单说,就是一个模型能同时理解 文本、音频、图像、视频 多种输入,并且能输出 文本和音频
阿里继续大搞开源,直接将 Qwen2.5-Omni-7B模型基于 Apache 2.0 许可证开源 了!同时,详细的技术报告也已公开,干货满满
这里是所有传送门,方便大家深入研究和上手:
Qwen2.5-Omni 实现这种全能能力的关键,在于其设计的 「Thinker-Talker」(思考者-说话者) 架构。这个设计非常巧妙,让模型能 同时思考和说话:
关键点在于,Talker 并非独立工作,它能直接获取 Thinker 产生的高维表示,并且 共享 Thinker 全部历史上下文信息。这使得 Thinker 和 Talker 构成了一个紧密协作的 单一整体模型,可以进行端到端的训练和推理。这种设计是实现低延迟、高流畅度语音交互的核心
研究团队对 Qwen2.5-Omni 进行了全面评估,结果相当亮眼:
跨模态能力 SOTA: 在需要整合多种模态信息的任务上(如 OmniBench 基准测试),Qwen2.5-Omni 达到了当前最佳水平(State-of-the-Art)
单模态能力不俗: 与同等规模的单模态模型(如 Qwen2.5-VL-7B、Qwen2-Audio)以及一些强大的闭源模型(如 Gemini-1.5-pro)相比,Qwen2.5-Omni 在各项单模态任务上也展现出强大的竞争力。具体包括:
*语音识别:Common Voice
*语音翻译:CoVoST2
*音频理解:MMAU
*图像推理:MMMU, MMStar
*视频理解:MVBench
*语音生成: Seed-tts-eval 及主观自然度评估
可以说,Qwen2.5-Omni 在保持全能的同时,并没有牺牲在各个垂直领域的能力
总结:
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-17
llama.cpp Server 引入路由模式:多模型热切换与进程隔离机制详解
2025-12-17
小米MiMo-V2-Flash开源:3090亿参数大模型能否改写AI行业规则!
2025-12-17
ollama v0.13.4 发布——全新模型与性能优化详解
2025-12-17
n8n 悄悄发布了 v2.1.
2025-12-16
阿里重磅开源 0.5B TTS + 0.8B ASR,支持跨语种音色克隆、说唱识别!
2025-12-15
智谱手机 Agent 开源一周,iOS 版就来了
2025-12-15
OpenEvals下一代AI模型评估标准
2025-12-15
AutoGLM:推倒那面墙
2025-10-20
2025-11-19
2025-10-27
2025-10-27
2025-10-03
2025-09-29
2025-10-29
2025-11-17
2025-09-29
2025-11-07
2025-11-12
2025-11-10
2025-11-03
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17