微信扫码
添加专属顾问
我要投稿
实测对比多款开源大模型,发现Gemma3:27b表现最佳,而GPT-OSS:20b推理逻辑存在明显缺陷。 核心内容: 1. 四款开源大模型在数值比较任务中的表现对比 2. 本地部署模型并集成到Shell环境的实用技巧 3. 自定义helpme函数实现多模型快速切换的方法
可以看到 gemma3:27b 完胜啊,回答清晰,逻辑清楚。
gpt-oss 推理逻辑有点问题,注意看,他说 ,9.11 只比 9.00 小 0.11。很明显是大 0.11 吧。不过他结论倒是对的。
完美,逻辑清晰。
也能够清晰的拆解出比较整数部分和小数部分,还算清晰。
也能够说出,就是思考太啰嗦了。不过他考虑了日期的情况,考虑得还全面。
我的本地就部署了这么多模型了,你可能很好奇,为什么我可以
helpme d 问一个问题
就可以让 deepseek-r1:14 模型就会回答我问题了呢?因为我在本地写了一个 shell 脚本,把他注册到我的shell 环境中啦,脚本如下。
# 自定义的 AI 助手函数
functionhelpme() {
# 临时禁用 glob 扩展,避免中文标点符号被当作通配符
setopt local_options
setopt no_glob
# 检查是否有参数
if [[ $# -eq 0 ]]; then
echo"用法: helpme [g|o|d] <你的问题>"
echo" g - 使用 gemma3:27b"
echo" o - 使用 gpt-oss:20b"
echo" d - 使用 deepseek-r1:14b"
echo" q - 使用 qwen3:30b"
echo""
echo"示例: helpme g 如何使用 Docker?"
echo"示例: helpme o 什么是机器学习?"
echo"示例: helpme d 解释一下这段代码"
echo"示例: helpme q 写一个快速排序"
return 1
fi
local model=""
local first_arg="$1"
# 根据第一个参数选择模型
case"$first_arg"in
"g")
model="gemma3:27b"
shift
;;
"o")
model="gpt-oss:20b"
shift
;;
"d")
model="deepseek-r1:14b"
shift
;;
"q")
model="qwen3:30b"
shift
;;
*)
# 如果第一个参数不是 g/o/d/q,则默认使用 gpt-oss,并且不移除第一个参数
model="gpt-oss:20b"
;;
esac
# 检查是否还有问题内容
if [[ $# -eq 0 ]]; then
echo"请输入你的问题。"
echo"用法: helpme [g|o|d|q] <你的问题>"
return 1
fi
# 将剩下的所有参数作为问题
local question="$*"
# 提示用户,并调用 Ollama
echo"🤖 正在向 $model 请教: $question"
echo"---"
ollama run "$model""$question"
}
这样,我就可以在本地方便调用我的模型啦,平常在 shell 命令中直接问。比如我忘记了怎么创建软链接了,我可以直接
helpme d 建立软连接的命令是啥?
然后直接在命令行下就给我巴拉巴拉了,我都不用切到其他地方去了。岂不是很爽 YY?
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-29
如何评测 AI 智能体:试试字节开源的扣子罗盘
2025-08-29
HiMarket 正式开源,为企业落地开箱即用的 AI 开放平台
2025-08-28
美团 M17 团队开源 Meeseeks 评测集:揭秘大模型的 “听话”能力
2025-08-28
我摊牌了,PDF的终结者出现了!这个开源神器,让你的RAG项目吞吐能力暴增10倍!
2025-08-28
面壁开源多模态新旗舰MiniCPM-V 4.5,8B 性能超越 72B,高刷视频理解又准又快
2025-08-28
1.9K Star 微软开源TTS王炸!90分钟超长语音合成,4人对话自然切换!
2025-08-27
初探:从0开始的AI-Agent开发踩坑实录
2025-08-27
ollama v0.11.7发布:深度集成DeepSeek-V3.1与Turbo云端推理模式解析
2025-07-23
2025-06-17
2025-08-20
2025-06-17
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-29
2025-07-12