先看这一周真正涨起来的是什么

这一周值得看的项目,集中在三类更底层的能力。

GitHub Trending 里最硬的三条线索分别指向 agent 运行层、端侧推理运行时和语音交互层。它们都更接近产品真正会反复碰到的基础问题。

这也是它们比普通热榜项目更值得跟的原因。热度会回落,工程约束不会。

Hermes Agent:开源 agent 开始争运行层

这一周拿到 14811 个新星。 这个项目最重要的是交付面很整。 README 直接把目标写成会陪着用户一起长大的 agent。 仓库已经交出本地和云端模型、持久记忆、MCP 集成和 40 多个工具。 这说明开源 agent 的竞争点正在下移。 竞争焦点已经从提示词人设,转到安装、工具接入、记忆和模型切换这层运行面。 如果一层运行面先被做顺了,后面的工作流和产品形态才有机会稳定下来。

LiteRT-LM:端侧推理开始进入产品栈

这一周它新增 1844 个星。 它交付的是一套端侧推理运行时。 README 明确写了 Android、iOS、Web、Desktop 和 IoT。 它也写清了 GPU、NPU、多模态输入和工具调用支持。 模型列表覆盖 Gemma 3、Gemma 3n、Gemma 4、Llama 3.2 和 Llama 3.1。 项目还点名已经用于 Chrome 内建 AI、Chromebook Plus 和 Pixel Watch 3。 这背后的信号很简单。 端侧 AI 现在更缺统一工程入口,把多端推理真正做成一套工程栈。 对 agent 团队,这意味着一部分低延迟、隐私敏感、需要离线兜底的任务会继续往设备侧回流。

PersonaPlex:语音代理开始往产品控制面收口

这一周它新增 2382 个星。 项目基于 Kyutai Moshi,核心方向是实时全双工语音代理。 README 里强调的不只是对话延迟,还包括角色指令、音色约束、grounding、在线交互服务和离线评测。 这条线索值得看,是因为语音层终于开始处理产品里真正麻烦的问题。 声音怎么稳住,角色怎么控制,长对话怎么评估,实时服务怎么接进系统,这些都比再降一点延迟更重要。

这一周留下来的结论

三条线索放在一起,指向的是同一件事。 开源社区正在把注意力压回运行层,应用包装的热度开始退到后面。 Hermes Agent 争的是 agent 运行面,LiteRT-LM 争的是设备运行时,PersonaPlex 争的是实时语音交互层。 这才是本周 GitHub 趋势里真正有价值的发现。