微信扫码
添加专属顾问
我要投稿
阿里Qwen版语音视频聊天模式,全能AI模型Qwen2.5-Omni-7B来袭,每天可试用10次。 核心内容: 1. 阿里Qwen Chat新增实时语音和视频聊天功能 2. Qwen2.5-Omni-7B模型:全能AI,支持文本、音频、图像、视频多种输入 3. Qwen2.5-Omni性能评估:跨模态能力达到SOTA水平
阿里的 Qwen Chat (通义千问聊天) 现在可以直接进行实时语音和实时视频聊聊天了,每天10次
支撑这项新功能的,是刚刚发布的 Qwen2.5-Omni-7B 模型,它是一个 Omni(全能)模型。简单说,就是一个模型能同时理解 文本、音频、图像、视频 多种输入,并且能输出 文本和音频
阿里继续大搞开源,直接将 Qwen2.5-Omni-7B模型基于 Apache 2.0 许可证开源 了!同时,详细的技术报告也已公开,干货满满
这里是所有传送门,方便大家深入研究和上手:
Qwen2.5-Omni 实现这种全能能力的关键,在于其设计的 「Thinker-Talker」(思考者-说话者) 架构。这个设计非常巧妙,让模型能 同时思考和说话:
关键点在于,Talker 并非独立工作,它能直接获取 Thinker 产生的高维表示,并且 共享 Thinker 全部历史上下文信息。这使得 Thinker 和 Talker 构成了一个紧密协作的 单一整体模型,可以进行端到端的训练和推理。这种设计是实现低延迟、高流畅度语音交互的核心
研究团队对 Qwen2.5-Omni 进行了全面评估,结果相当亮眼:
跨模态能力 SOTA: 在需要整合多种模态信息的任务上(如 OmniBench 基准测试),Qwen2.5-Omni 达到了当前最佳水平(State-of-the-Art)
单模态能力不俗: 与同等规模的单模态模型(如 Qwen2.5-VL-7B、Qwen2-Audio)以及一些强大的闭源模型(如 Gemini-1.5-pro)相比,Qwen2.5-Omni 在各项单模态任务上也展现出强大的竞争力。具体包括:
*语音识别:Common Voice
*语音翻译:CoVoST2
*音频理解:MMAU
*图像推理:MMMU, MMStar
*视频理解:MVBench
*语音生成: Seed-tts-eval 及主观自然度评估
可以说,Qwen2.5-Omni 在保持全能的同时,并没有牺牲在各个垂直领域的能力
总结:
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-03
Claude Code——智能路由与切换工具
2026-02-03
作为投资方,我们试了试Kimi K2.5
2026-02-03
暴涨11.7k Star!复刻Manus上下文工程的开源Skills,Claude code等多个平台即插即用
2026-02-03
ollama v0.15.4 更新:OpenClaw全面上线,优化集成流程与工具解析能力大升级!
2026-02-03
阶跃星辰 Step 3.5 Flash 上线!更快更强更稳的 Agent 大脑,开源!
2026-02-02
一分钟部署OpenClaw+QQ,国内最爽的一键启动!
2026-02-02
这家字节系AI初创,推出首个开源Agent Skills Builder!对话Refly.AI李锦威:大多数Agent都停留在专业用户层面,没有做到真正的普惠
2026-02-02
OCR又出宠OpenDoc,速度超MinerU6倍
2025-11-19
2026-01-27
2025-12-22
2025-12-10
2025-11-17
2026-01-12
2025-11-07
2025-12-23
2026-01-29
2026-01-06
2026-01-28
2026-01-26
2026-01-21
2026-01-21
2026-01-20
2026-01-16
2026-01-02
2025-12-24