微信扫码
添加专属顾问
我要投稿
国产AI智谱GLM-4.5V视觉模型开源即屠榜,42项测试41项刷新纪录,多模态能力惊艳全场。 核心内容: 1. GLM-4.5V在图像识别、场景推理等六大核心场景的突破性表现 2. 开源即登顶HuggingFace榜单的技术参数与架构亮点 3. 配套开发者工具与真实案例演示(含前端复刻/证件识别等)
国产 AI 大模型公司智谱真的杀疯了。
上个月,他们开源的 GLM-4.1V-Thinking 荣登 HuggingFace Trending 第一,模型已获得累计超过 13 万次下载。
上周,又开源发布了令人惊艳的 GLM-4.5 和 GLM-4.5-Air 旗舰模型。
现在,基于 GLM-4.5-Air 沿用 GLM-4.1V-Thinking 的结构,训练出了更大更强的视觉模型 GLM-4.5V。
也直接给开源了,42 个榜单里,41个 SOTA。
01
直接看效果
02
项目简介
全球 100B 级效果最佳的开源视觉推理模型 GLM-4.5V(总参数 106B,激活参数 12B),已经在 GitHub 与 Hugging Face 开源。
GitHub: https://github.com/zai-org/GLM-VHugging Face: https://huggingface.co/zai-org/GLM-4.5V
上面是真实场景的体验,GLM-4.5V 虽然在多模态榜单上屠榜,在真实场景下的表现和可用性也堪称一绝。
覆盖了不同场景的视觉内容处理能力,包括:
图像推理(场景理解、复杂多图分析、位置识别)
视频理解(长视频分镜分析、事件识别)
GUI 任务(前端复刻、桌面操作辅助)
复杂图表与长文档解析
Grounding 能力(精准定位视觉元素)
为了让开发者快速体验到它的能力,还同步开源了一个桌面助手应用,它能实时的截屏、获取屏幕信息,并基于 GLM-4.5V 的多模态能力让很多有意思的场景落地。
开源链接:https://huggingface.co/spaces/zai-org/GLM-4.5V-Demo-App
AI 正在学会像人一样,把看到的、听到的、读到的信息揉在一起理解世界,变得更“通感”。
这种能综合处理多种信息并思考的能力,是迈向真正“聪明”AI 的关键,其中多模态 AI 是重要基石。这不仅仅是技术进步,更可能带来深远的文明影响。
快去亲自上手试试吧,有啥好玩的 Case 可以直接丢评论区。
体验地址:https://chat.z.ai
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-29
如何评测 AI 智能体:试试字节开源的扣子罗盘
2025-08-29
HiMarket 正式开源,为企业落地开箱即用的 AI 开放平台
2025-08-28
美团 M17 团队开源 Meeseeks 评测集:揭秘大模型的 “听话”能力
2025-08-28
我摊牌了,PDF的终结者出现了!这个开源神器,让你的RAG项目吞吐能力暴增10倍!
2025-08-28
面壁开源多模态新旗舰MiniCPM-V 4.5,8B 性能超越 72B,高刷视频理解又准又快
2025-08-28
1.9K Star 微软开源TTS王炸!90分钟超长语音合成,4人对话自然切换!
2025-08-27
初探:从0开始的AI-Agent开发踩坑实录
2025-08-27
ollama v0.11.7发布:深度集成DeepSeek-V3.1与Turbo云端推理模式解析
2025-07-23
2025-06-17
2025-08-20
2025-06-17
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-29
2025-07-12