免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

开源「伯乐Skill」,让你和Agent同时进化成AI热点懂王!

发布日期:2026-05-11 17:47:27 浏览次数: 1516
作者:卡尔的AI沃茨

微信搜一搜,关注“卡尔的AI沃茨”

推荐语

伯乐Skill帮你精准筛选AI信息源,告别信息过载,让Agent高效获取高质量内容。

核心内容:
1. 伯乐Skill的核心功能:智能判断信息源的长期价值与接入方式
2. 支持九类信源与22个默认源,提供开箱即用的AI热点网页
3. 通过7天观察期与内容过滤,确保信息源的独特性和稳定性

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家
来不及前情回顾了,

这次我开源的伯乐Skill,

它的作用不是广撒网,抓全网AI新闻,不只是把我四五年累积下来的150+个信息源打包做了一个网页,再给你推荐一个新的信息流入口。

每个人的信息需求不一样,阅读习惯也不一样。

伯乐做的是更上游的事,

它能判断一个信息源,它的内容值不值得长期追更,会不会跟你现有信息流有内容重复,如果值得,应该怎么接进来最稳定?

我以前踩过的坑巨巨巨多,同个信息源是走RSS,走公开API,走Skill,走飞书文档,还是读网页自带的feed,用Jina兜底读静态页面,还是复用登录态,走付费API的话要如何限制更新频率,以及Agent邮件订阅日报等等等等。

千里马(信息源)常有,而伯乐不常有。

我也尝试过把所有的源都做成RSS格式,或者把所有的源通过Agent读取,精简,做成纯文字,也就是当时我认为的无噪音形式,后面发现这直接就是一个舍近求远。

不同的网页能够稳定获取信息的方式不同,强行通过某个规则进行转换,非要让他们都走同一条路,本质上就是一个为难我们自己理解,也为难Agent执行的事。

🔗 伯乐Skill华丽登场:github.com/LearnPrompt/ai-news-radar

那接下来我来介绍一下伯乐的看马三绝招!


 伯乐Skill能做什么?

它是从我三个月前开源的ai-news-radar,一个24小时更新的AI热点网站的项目衍生出来的,敢说24小时更新是因为上线之后就可以不依赖大模型稳定获取双语版本和去重,用Gtihub Action可以每30分钟更新一次。


Image

🔗 learnprompt.github.io/ai-news-radar/

第二版追加了更明确的阅读分层,

想要开箱即食的可以直接看伯乐Skill生成的网页,里面除了有信息,信息来源,双语翻译,还加了分类,时间轴,原始链接和信源健康状态检查。

但有些源还是非常特殊的,

稳定的X需要我们接入API Key,一些日报没有公开归档,需要用Agent邮箱订阅,或者要复用我们的登录态才能够获取。这时候都可以通过伯乐Skill配置。

这次支持的信源类型提升到了九类,默认版本的信息源也到了22个,


Image

我把我日常订阅150个左右的信息源的原生网站,在不依赖任何RSS或脚本解析的前提下,交给伯乐去学习判断,

让它判断能稳定获取信息源的方式是什么,

让它根据这个方式去做一个7天观察期,观察它是否能够长期获得稳定的AI信息,

让它做URL,标题,正文的内容过滤,7天跟现有信息源差异大于65%才会保留,

举几个具体例子就很清楚了,

比如最近我收藏了AI HOT,


Image

🔗 aihot点virxact点com

这个站有一个非常好的设计,它不只是给了个可视化网页,还专门做了Agent接入,里面提供了三条路,Skill,RSS和REST API。

所以Agent要读取AI HOT,正确的做法就不是打开网页,在页面上硬扒文本。

伯乐Skill不需要我明确告诉他这个网页已经有这三种方式了,它会先从首页开始读取这个网站的所有路径,找到最佳接入点,


Image

既然已经给了RSS和API,那就优先走结构化,

精选内容走/feed.xml。

全部内容走/feed/all.xml。

日报走/feed/daily.xml。

开发者要更细的筛选,就走/api/public/items或者/api/public/daily,根据我们平时信息阅读的习惯来调整信息密度。

这就是伯乐看了那么多千里马学会的第一招。

抓之前,先判断这个网站自己有没有更稳定更适合Agent的入口。


再比如Info Flow,


Image

伯乐Skill会把它归到聚合源这一层。它不是官方一手源,但可以提供很好的广度。

处理方式也不应该把整个页面当成一篇文章读完,而是识别它页面里公开的feed列表,再逐个读取子feed。

这样如果某个子feed坏了,就跳过,不会让一个坏源拖垮整条线。


Image

伯乐Skill输出的这个可视化网页ai news rader会保留信息源的时间轴,分区和条数。

这就是伯乐看马的第二招,

筛选信息源的时候会保留第一手层,

比如OpenAI,Anthropic,Google DeepMind,Google AI Blog。

也会保留能提供稳定的过滤路线的聚合层,

比如TechURLs,Buzzing,Info Flow。

这两层的角色是不一样的。

一手源负责信息可信度。

聚合源负责信息广度。


再比如Follow Builders,

它本身是一个Skill,会追踪X上的创业者,产品经理和工程师,也会追踪博客和播客,我们可以让Agent安装这个 Skill,来获取文字版的更新。


Image

🔗 github点com/zarazhangrui/follow-builders

伯乐Skill在收录的过程中就会判断,

Follow Builders输出的是一个JSON文件。所以我们在可视化的时候,可以直接读取GitHub把这个JSON文件可视化,不需要额外模型额度来运行这个skill。

然后就是,伯乐在这个基础上优化了我们原有的X API策略。因为它发现从这个信息源调用X API的时候是有很多诀窍的,包括但不限于:

  1. 1.只看过去24个小时的内容,保留备份去重
  2. 2.每个账号最多保留3条新的Tweets
  3. 3.去掉无效的转发的以及回复

能有效降低成本,满额返回125条顶上天了也就是是$0.625/天,5块不到。


Image

这就是伯乐看马的第三招,

选好马的同时,把别人的养马技术也学到手。


 为什么要写这个Skill 

因为我自己在信息源上踩过太多坑。

第一个阶段,我特别执着RSS。

看到一个好博客,订阅。

看到一个Newsletter不错,订阅。

看到一个聚合站每天更新很多,也先加进去。

那时候我的想法就是,只要把所有好东西都塞进RSS里,就不会错过任何重要信息了。

结果很快就被信息淹没了。


Image

真正的问题是,当你把一切都塞进去以后,它就不再是信息系统,它变成了垃圾场。

每天几千条,几万条更新躺在那里,还没点开就已经开始信息焦虑了。

而且大量内容是重复的。

一个模型发布,官方博客发一遍,聚合站转一遍,Newsletter讲一遍,X上再来十几个人点评一遍,其实就是在不同地方反复看到同一件事。

第二个阶段,两年前我开始用AI做预处理。

去重,过滤,总结,把链接放到后面,只留下文字,让大家像读一份干净日报一样阅读。

这个思路也不是错的。

如果只是浏览,它确实舒服。


Image

老粉应该还记得科技抢鲜看

但我做了半年之后,发现它有一个更要命的缺点。要判断一个东西值不值得深挖,那你不能只看被AI处理过的文字。

你必须知道它来自哪里。

这条信息是官方发布,还是二手转述?还是聚合站搬运?是开发者本人写的博客,还是营销号转了第三四遍的版本?

原始来源不是可有可无的链接。

它是一条信息的身份证。

第三个阶段,我开始做AI News Radar。

也就是一个公开的24小时AI更新雷达。

普通用户直接打开页面,不需要任何前置条件,就能看到最近24小时AI,模型,开发者工具和技术生态里发生了什么。但跑了两个月以后,我又发现一个问题。

固定站点最多只能成为起点,

不能成为所有人的终点。

因为每个人的信息需求不一样。

有人只想看模型更新,有人只想看开发者工具,有人关心论文和产品发布,有人有自己一套运行了很多年的RSS批量列表。

你给所有人同一个页面,

TA就一定会想在这个基础上加一点自己的东西,

再删掉一点自己不喜欢的东西。

所以第四个阶段就来了。

伯乐Skill,

它不是再折腾出一个更大的聚合站,

真正的问题是今天有某个佬开发了自己的所有信息源,明天又有佬A,佬B,大佬 C,你是要选择全盘接收他们发出来的500个源,还是在这500个源里面挑出合适的方式,根据自己的阅读习惯,保留适合自己的10个?

这才是伯乐Skill的价值。


 怎么用?

如果你只是想看结果,可以直接打开24小时更新的AI News Radar,我会持续迭代我觉得有用的信息。

🔗 learnprompt.github.io/ai-news-radar/

如果你想自己改,欢迎fork仓库。

🔗 github.com/LearnPrompt/ai-news-radar

如果你已经有一堆自己的RSS,Newsletter,GitHub项目,X账号和飞书资料,

最简单的方法是把下面这句话丢给你的Agent。

安装伯乐Skill(github.com/LearnPrompt/ai-news-radar),再问我要信息源清单,目标是部署一个不需要服务器,能用GitHub Actions自动更新的AI日报网站。

以前我觉得,

每天看到的信息越多越安全。

真正有安全感的不是信息量,是判断力。

AI让获取信息的成本越来越低。

选择信息源,保留原始来源,

判断哪些值得长期追,

这些事情更重要。

千里马常有,新闻很多,更新很多,热点很多。

真正缺的是一个能帮你看马的人。

现在这个伯乐,

我先给大家做出来了。

如果你也被信息源折磨过,

我的建议是先别急着再订阅一大堆新的,

先让伯乐看看。

@ 作者 / 卡尔


最后,感谢你看到这里👏如果喜欢这篇文章,不妨顺手给我们点赞|在看|转发|评论 📣

如果想要第一时间收到推送,不妨给我个星标🌟

如果你有更有趣的玩法,欢迎在评论区聊聊🤝

更多的内容正在不断填坑中……

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询