微信扫码
添加专属顾问
 
                        我要投稿
经常有一些朋友问我本地运行大模型的电脑需要什么样的配置。其实一些常用大模型的运行需要的硬件并不像我们想象的那样高不可攀。不要被那些复杂的技术术语所吓倒,关键在于亲自动手尝试。
"不试,怎么知道呢?" 这句话道出了真理。今天,我将为大家带来三款看似不起眼的纯CPU本地推理Llama3的实测数据,希望它们的表现能给大家对硬件的选择提供一点参考,即使是老旧的硬件也可能在大模型本地推理中发挥出色的作用。
首先,让我们来认识一下今天的三位选手:
一号选手:这是一款陪伴了我十年的SONY笔记本,搭载的是i5 3337U低电压处理器。这款处理器曾是超极本的标配,以其低功耗、低性能和长续航而闻名。记得这台笔记本当年我花掉了一万多,那时我的工资还不到两千。如今,它在二手市场上已难觅踪影。今天,就让我们看看这台老将是否还能发挥余热。
二号选手:这是一台办公室配置的办公电脑,搭载了i5 10400处理器。虽然它已经有些年头,但与新一代的i3 12代处理器相比,它可能只能被按在地上摩擦。在个人电脑市场,性价比更高的12100处理器无疑是更好的选择,它在性能上轻松超越了我们的二号选手。
三号选手:最后,我有一款洋垃圾E5-2686处理器。虽然它被称为“垃圾”,但在体格上,它与前两位选手完全不是一个量级。特别是在大模型推理方面,它拥有多核心的碾压性优势,这一点无需多言。
现在,让我们直接进入正题,展示这些CPU在大模型推理中的实测数据。
i5 3337U:
耗时三分五秒,输出170个字,图上统计181是因为我把我的提问也复制过去了,大概就是每秒一个字的样子。
跑是跑起来了,步子确实有点小,十年前的CPU意料之中。
i5 10400:
用时1分38秒输出210个字,这个速度还是有点慢,如果跑个2B3B的小模型实用性就有那么一点点了,如果i3 12100出手肯定比这个速度快得多。i3 12100才几多钱?llama3 8b轻松拿捏。
E5-2686:
18核36线程不白给,34秒输出215个字,完全满足本地使用的需求,就他的价格,没有任何喷他的理由
今天就到这里,See you ~~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-29
KnowFlow 无缝衔接 Dify,分块支持添加父标题、Title 切块支持自定义标题层级切割、图片理解新增支持上下文
2025-10-28
邪修榨干元宝AI录音笔:白天工作,晚上陪聊
2025-10-27
免费又好用的AI录音笔都出来了,这下哪还有理由不学习?
2025-10-24
Aiops探索:我用Dify结合k8s的api做了一个非常简单的Aiops智能体
2025-10-24
阿里夸克AI眼镜开售:叠加补贴后3699元,它能打破AI眼镜的魔咒吗?
2025-10-23
Dify平台集成阿里云AI安全护栏,构建AI Runtime安全防线
2025-10-13
Dify + 飞书组合拳:企业级 AI 安全大脑落地全指南,助力安管效率提升 300%
2025-09-23
专访Plaud中国区CEO:我们只做“必须做”和“不做要死”的事
 
            2025-09-19
2025-09-02
2025-10-13
2025-09-02
2025-10-24
2025-08-25
2025-09-05
2025-09-02
2025-08-22
2025-08-28