👋 欢迎来到楠楠老爹的博客!

  • 🌟 记录、分享个人在计算机技术方面的收获与体会 🌟
  • 🌟 不定期发布 AI 相关的业界洞见以及落地实践 🌟

如何基于 .wit 文件生成 rust 代码

IronClaw 采用 wasm 沙箱隔离作为其安全机制,IronClaw 宿主和沙箱之间的交互接口是在 .wit 文件中定义的,例如 channel.wit of IronClaw。 这篇文章回答一个问题:如何基于定义好的 wit 文件生成 rust 代码? wit-bindgen 是 Bytecode Alliance 开发的官方工具,它能将 .wit 文件中定义的接口转换为 Rust 代码。它主要有两种使用方式: 在 build.rs 构建脚本中使用命令行工具 或在代码中使用 wit-bindgen 库的宏 方法一:在 build.rs 中使用 CLI 工具(wit-bindgen-cli) 这种方式在构建时生成一次绑定文件(例如 bindings.rs),之后可以作为常规 Rust 模块引入。 1. 添加依赖 在 Cargo.toml 中,将 wit-bindgen-cli 添加到 build-dependencies,并把生成的 bindings.rs 包含在 lib.rs 中: # Cargo.toml [package] # ... build = "build.rs" [lib] # 声明生成的 bindings 模块 path = "src/lib.rs" [build-dependencies] wit-bindgen-cli = "0.28.0" // src/lib.rs // 声明由 build.rs 生成的 bindings 模块 mod bindings; pub use bindings::*; 2. 编写构建脚本 (build.rs) 在项目根目录下创建 build.rs,使用 wit_bindgen_cli::generate! 宏处理 .wit 文件。 ...

April 15, 2026 · 2 min · Carl Cui

从零到生产:基于 Claude Code 的 AI Agent 10 步构建法

译者:Carl Cui 这篇文章来自作者 Reza Rezvani,文章分享了一个基于 Claude Code 原生功能构建 AI Agent 的方案,完全摒弃了 LangChain 等外部框架。作者的实际经验表明,使用简单的 Markdown 文件和 YAML 配置就能构建强大的 AI 代理系统,利用 Claude Code 的内置功能。这个方法简化了开发流程,降低了维护成本,适合在生产环境中部署。 六个月前,我深陷在 LangChain 编排框架中:自定义 ReAct 循环,JSON schema 验证器和一个手工构建的记忆系统,通过三个我已经不再完全理解的 Python 脚本粘合在一起。 然后我删除了所有这些。 Claude Code:如何构建你的 agent | 使用 Gemini 生成 注意: 我使用 AI 进行研究协助。这里描述的 agent 配置、生产工作流和生产上下文来自我每天在工程和运营中运行的系统。 不是因为它没用。它其实挺有用的。但每次我想改变 agent 的行为时,我都在编辑 Python 类、重新部署容器和调试序列化错误。这个系统既强大也脆弱。 替代它的东西简单得令人尴尬:带 YAML frontmatter 的 Markdown 文件,保存在 Claude Code 已经监视的目录中。不需要框架,没有构建步骤,没有部署管道,就只是些文件而已。 现在网上广为流传的那份 How to Build AI Agents from Scratch 的 cheat sheet 并没有错。其中 10 个步骤分别是:定义角色、设计 I/O、调整行为、添加推理、构建 multi-agent 逻辑、添加记忆、输出结果、包装在 UI 中、评估和监控。这些是正确的步骤。但对于 Claude Code,每一步都有原生的解决方案,不需要依赖 LangChain、CrewAI 或 OpenAI Swarm。 ...

April 15, 2026 · 4 min · Reza Rezvani

Google 的 Gemma 4 为开源 AI 带来变革

作者:Sumit Pandey 译者:Carl Cui Apache 2.0 许可证,在笔记本电脑上运行,性能超越 20 倍于其规模的模型。 说实话。在 Gemma 2 之后我就没再关注 Gemma 了。不是因为它不好,而是我感觉它很难同中国开源巨头(例如 DeepSeek、Qwen)发布的模型相媲美。Gemma 曾经是那种你在 Kaggle 上试过一次就忘记的模型。今天,Google 彻底改变了这一局面。 图片由 ChatGPT 生成。 Gemma 4 于 2026 年 4 月 2 日发布。Hugging Face 的 CTO Julien Chaumond 用火焰表情符号发布了相关消息,称之为“突发新闻”。当托管全球所有开源模型的平台 CTO 说 Google 重新入局时,你必须关注。 让我来解析发生了什么,为什么这很重要,以及这些基准测试是否站得住脚。 Gemma 4 是什么? Gemma 4 是 Google DeepMind 最新的开源权重模型系列。基于 Gemini 3 的研究和技术构建,后者是 Google 的专有前沿模型。 四种模型尺寸。四个部署目标: E2B(有效 2B 参数):可在手机、树莓派、Jetson Nano 上运行。是的,没开玩笑。 E4B(有效 4B 参数):稍大的边缘模型。仍可在手机上运行。 26B MoE(混合专家,4B 激活参数):尽管总参数量为 25.2B,但推理时仅激活 3.8B 参数。运行速度几乎与 4B 参数模型一样快。 31B Dense(稠密模型):旗舰型号。在 Arena AI 文本排行榜所有开源模型中,目前排名第三。 所有四个模型都能处理图像和视频。较小的 E2B 和 E4B 模型还支持原生音频输入:设备端语音识别,无需云端处理。边缘模型的上下文窗口可达 128K token,大型模型可达 256K token。这相当于将整个代码库放入单个提示中。 ...

April 14, 2026 · 4 min · Carl Cui

2026 年 AI Agent 必备的 10 个 CLI 工具

译者:Carl Cui AI 工具领域的每个人在 2025 年都在构建 MCP 服务器。MAP 协议(Model Context Protocol)是 Anthropic 在 2024 年底提出的,出发点是建立一个通用标准,用来连接 AI agent 与外部工具、服务:给模型一个结构化的 schema,它就可以调用任何东西。 2026 年年初,一项研究在基于 MCP 的代理和基于 CLI 的代理之间做了 75 次比较测试,测试内容相同。CLI 在每个效率指标上都比 MCP 表现要好,它在 token 上的开销能低 10 ~ 32 倍。 CLI 可靠性大约达到了 100%,而 MCP 只有 72%。Perplexity 公开宣布从他们的 agent 架构中移除了对 MCP 的支持,理由是 token 开销和可靠性问题。Anthropic 自己的内部研究发现,让模型编写 shell 脚本而不是调用 MCP 工具,可以将 token 使用量减少 98.7%。 根本问题在于:MCP 会将整个 schema 都扔进你的上下文窗口中。每个工具的定义、每个参数的说明、每次任务执行前的认证流程……全都给你塞过来。搞上三四个 MCP 服务器,你就在 agent 做任何有用的事情之前消耗了 150,000 个 token。 MCP 炒作周期刚刚碰壁了吗? ...

April 14, 2026 · 4 min · Carl Cui

AI 应用开发集成平台 - Composio

1. Composio 是什么 在智能应用的开发中,让 AI 与外部应用交互常是复杂的一步,开发者需要逐一处理每个软件的 API 文档、复杂的 OAuth 认证和繁琐的令牌刷新。Composio 的核心价值在于将所有这些复杂性“一键封装”,让开发者只需一次接入,即可为自己的 agent 赋予操作海量应用的能力。它是一个专为 AI agent 设计的“万能工具集”和“连接中枢”。 你可以把它理解成 AI 界的“乐高”,Composio 为 AI agent 提供了海量的标准化积木(即各种 SaaS 服务的连接工具),让 agent 能轻松地执行发送邮件、更新表格、创建代码仓库等任务。 1.1 主要功能 Composio 提供下面这些主要功能: 庞大的工具库 - 支持超过 250+ 软件和系统,横跨主流办公、协作、开发与数据平台 开箱即用 - 内置 OpenAI、LangChain 等几乎所有主流 AI 开发框架的插件,能与现有工作流无缝集成 MCP 协议支持 - 全面支持 Model Context Protocol,让不同框架的 AI 模型能用标准化的“语言”发现并调用各种工具 平台托管:平台统 - 管理所有第三方工具的 OAuth、API Key 认证流程和自动刷新,代理无需直接接触敏感凭证 全链路安全管理 - 提供 SOC 2 Type II 等企业级安全认证,具备基于角色的权限控制 RBAC、审计日志等特性 ...

April 13, 2026 · 2 min · Carl Cui

Kimi 团队修复了 AI 模型十年未变的结构缺陷

译者:Carl Cui 国产 Kimi 模型的开发团队发现,ChatGPT、Claude、Gemini 和你所使用的其他所有 AI 模型,都存在结构性缺陷。 来自:Avi Chawla via X 我先抛一个可能有点奇怪的问题:ChatGPT、Gemini、Claude、Grok、Llama 和 DeepSeek,这些架构的最深层有什么共同之处?它们都基于一个 2015 年做出的设计决策,而且直到现在,还没有人真正地质疑过这个决策。 2026 年 3 月 16 日,Kimi(月之暗面 LLM)背后的团队,发表了一篇题为 “Attention Residuals” 的论文,指出了现代所有 AI 模型中存在的一个结构性缺陷。 这不是什么基准测试的小把戏、新的数据集,或者更大的GPU集群。这关乎基础架构的改进。 这件事我们一直没碰,因为它一直运行得还可以。Elon Musk 转发了它。Andrej Karpathy,OpenAI 的联合创始人,评论说这篇论文“让我们意识到我们没有完全认真对待 Attention is All You Need 这个标题。” 当 Karpathy 这个级别的研究人员对一篇技术论文做出这样的评价时,就值得我们去了解 Kimi 团队到底发现了什么。 无人质疑的基础设施 你需要对当前 AI 模型如何运作有一个大致的了解,才能理解 Kimi 团队发现了什么。 像 ChatGPT 或 Claude 这样的模型不是单次的计算,它是由连续的处理步骤堆叠而成的,称为层,有时有几十层,有时有几百层。当你向这些模型发送消息时,它会先通过第一层,这一层处理原始的文字。第二层开始识别词语之间的关系。第三层识别结构。到了第十层,模型就能理解意图。到了第五十层,它就能用抽象的方式来推理意义。每一层都增加了深度。每一层都建立在之前的基础上。理论上,模型越深,它的思考就越复杂。 问题在于堆叠层数会带来的训练问题:当模型出错时,一个修正信号需要反向穿过整个堆叠,从最深的层一路回到第一层,来更新每一层的行为。但这个信号在传播过程中会减弱。让它穿过十层,它仍然足够强以发挥作用。但让它穿过一百层,它到达顶层时已经非常微弱,几乎无法推动任何改变。这种现象被称为梯度消失问题 the vanishing gradient problem,以前它对实际可以构建的神经网络的深度构成了重大限制。 2015 年,何恺明和他的同事们设计了一个巧妙的解决方案。他们实现了一个“捷径”,让原始输入可以直接跳过一层,和后续层的输出直接组合,而不是要求每一层都转换输入的数据。这个捷径称为残差连接 residual connection,因为它效果太好,成了后来所有神经网络的标准构件。你今天使用的每个模型,无一例外都依赖于它。 ...

April 11, 2026 · 1 min · Novy Baf

AI 模型加速发展:从架构创新到生态重构的 2026 年 3 月全景报告

模型发展太快了:今天做出的架构和供应商承诺,六个月后可能就过时了。现在能力突出的模型,很多都来自开源项目,还有越来越多国际公司在竞争。这个领域也开始提出更深层的问题:预测 token 可能不是通向高性能 AI 的唯一路径。第一个稳定的 JEPA 模型的问世,就表明了替代架构正在成为真正的竞争者;NVIDIA 的新模型结合了 Mamba 和 Transformer 层,也指向了同样的方向。 相关事件 以下汇总了 2026 年 3 月份以来值得关注的模型有关事件: Yann LeCun 和他的团队创建了 LeWorldModel,这是第一个使用他的联合嵌入预测架构(JEPA)且训练稳定的模型。他们的目标是创造出不仅仅预测词语的模型;而是能理解世界以及它是如何运作的模型。 NVIDIA 发布了 Nemotron 3 Super,这是他们最新的开放权重模型。它是一个混合专家模型,拥有 120B 参数,其中 12B 参数在任何时候都处于活动状态。更有趣的是它的设计:它结合了 Mamba 和 Transformer 层。 Gemini 3.1 Flash Live 是一个新的语音模型,旨在支持实时对话。在生成输出时,它会避免出现停顿,并使用类似人类的语调。 Cursor 发布了 Composer 2,这是其 IDE 的下一代版本。Composer 2 显然整合了 Kimi K2.5 模型。据报道,它在一些主要编码基准测试中击败了 Anthropic 的 Opus 4.6,而且成本显著降低。 Mistral 发布了 Forge 系统,这个系统能让组织能够基于自己的私有数据来构建“前沿级”模型。Forge 支持预训练、后训练和强化学习。 Mistral 还发布了 Mistral Small 4,这是其最新的旗舰多模态模型。Small 4 是一个 119B 混合专家模型,每个 token 使用 6B 参数。它是完全开源的,具有 256K 上下文窗口,并针对最小化延迟和最大化吞吐量进行了优化。 ...

April 9, 2026 · 1 min · Carl Cui

IronClaw 折腾日记 - 接入飞书

IronClaw 已经在本地迷你主机上运行一段时间了,之前主要是把 IronClaw 接入到本地或者云端免费的 LLM,通过处理日常琐碎事务来感受各种 LLM 的能力——所有对话都是通过 IronClaw 自带的管理面板完成的。出于安全考虑,我一直没有接入像飞书、Telegram 这样的 IM 即时通讯软件,因为这得将本地服务通过 tunnel 暴露在公网上。 如果你不了解 IronClaw,可以参考我之前写的文章 钢铁版 OpenClaw - IronClaw 安全机制解析。简单地说 IronClaw 就是安全版的 OpenClaw,或者说是安全版的 AI 小助手。 目前 IronClaw 支持两种方式接入 IM:轮询方式和 tunnel 方式。 前者不需要将本地服务暴露在公网上:由 IronClaw 周期性地向 IM 服务器发起请求,一次性拉取所有 DM 私信然后本地处理。这样做实时性很差,因为你通过 IM 发出的消息,不能立即到达 IronClaw,而是需要等待 IronClaw 下一次轮询。如果为了提高实时性,把周期设置的很短,又可能触发服务限速,并且大部分时间你不会跟这个 AI 小助手聊天,因此大部分的轮询都是没必要的。 最理想的接入方式是后者,即通过 tunnel 的方式。 这段时间,我想让自己的 AI 小助手变得方便些,比如人不在电脑前面的时候,让 IronClaw 帮忙查信息,这就不得不考虑接入 IM 了。 以下是将飞书接入 IronClaw 的过程。 1. 创建飞书应用 访问 飞书开放平台,登录后点击“开发者后台” -> “创建企业自建应用” 填写应用名称、描述,选择图标,点击“创建” 创建应用后在左侧菜单点击“添加应用能力” -> 找到“机器人” -> 点击“添加” ...

April 8, 2026 · 4 min · Carl Cui

NotebookLM:给学习开个 AI 外挂

1. 什么是 NotebookLM NotebookLM 是谷歌推出的一款基于用户资料的 AI 辅助研究/学习工具。它不能像通用聊天机器人那样直接回答所有问题,而是需要用户先上传自己的资料,例如 PDF、网站、视频、音频、文档等等,然后它基于这些资料快速总结、整理笔记,变身成为用户最关注领域的个性化 AI 专家。这一切是基于 Gemini 的多模态理解能力实现的。 与其他 AI 辅助的记事应用不同,NotebookLM 的优势在于以来源为依据。用户可以放心地使用 NotebookLM 的回答,因为它会严格参考上传的来源,从而降低 AI 生成不实信息的风险。 除用户控制来源外,NotebookLM 还有下面这些优势: 信息整合效率:NotebookLM 可理解、整合海量文字,并显著加快从中挖掘分析洞见的过程 个性化学习:NotebookLM 会根据用户的具体需求和内容,为用户营造高度个性化的学习和研究环境 并且,NotebookLM 还能根据上传的资料生成不同内容,例如播客风格的音频概览、幻灯片等等,激发用户的灵感,辅助打造创意项目。 2. 如何使用 NotebookLM 安卓和苹果用户可以下载 NotebookLM 应用: 电脑用户目前需要通过浏览器使用 NotebookLM: NotebookLM 目前支持 4 种使用方案,免费的试用版本即可满足大部分人的需求。 Plus、Pro 和 Ultra 版本会限制地区,国内用户肯定是受到限制的。 3. NoteBookLM 使用场景 在日常工作中,用户可以这样使用 NotebookLM: 开工前的文档审核助理 - 开始工作前,上传会议记录、报告等资料,让 NotebookLM 帮助分析并为全天工作做好准备 促进高效研究的得力助手 - NotebookLM 不仅能节省“搜索答案”的时间,还能根据来源帮助厘清概念、辅助撰写邮件、准备提案,并汇总相关分析洞见 助力学习和规划的智能伙伴 - 关键概念、定义和事实会自动转化为抽认卡,NotebookLM 也会根据上传的资料生成测验,完成测验后生成动态报告,辅助用户应对会议或考试 进行每日复盘和规划的贴心管家 - NotebookLM 可梳理当日笔记要点,并生成待办事项清单等材料 ...

April 7, 2026 · 1 min · Carl Cui

把 OpenClaw 塞进笼子:NVIDIA NemoClaw 架构解析

“NVIDIA 皮衣教主” 黄仁勋 在 2026 年 GTC 大会上宣布了项目 NemoClaw,该项目在 Github 开源,目前有 2.2K fork,18.3 stars。NemoClaw 也是带 Claw 的,这个项目和“巨星” OpenClaw 有什么关系,是远房亲戚还是碰瓷的?接下来,我们一起了解这个项目。 1. 和 OpenClaw 的关系 OpenClaw 被黄仁勋称赞为“人类历史上最受欢迎的开源项目”,不过其安全问题常被人诟病: Meta 禁止员工在公司设备上运行它 漏洞 CVE-2026–25253,CVSS 8.8 允许通过恶意网页执行远程代码 攻击者会通过在文档或者邮件中嵌入命令诱导 agent 遵循外部指令 由 NVIDIA 与 OpenClaw 创始人 Peter Steinberger 合作开发的 NemoClaw,它的出现不是为了取代 OpenClaw,而是打算解决 OpenClaw 的痛点问题,尝试将 OpenClaw 转变为一款安全、适于企业的 AI agent,即提供一个安全、可信且易于部署的运行时环境来运行 OpenClaw。 NemoClaw 的核心价值在于安全隔离和运维便利性。 截至目前,2026 年 4 月初, NemoClaw 还处在 Alpha 阶段,尚未达到生产环境就绪状态。 2. NemoClaw 安装 安装 NemoClaw 需要满足下面这些软件依赖: Linux - NemoClaw 依赖于 Linux 内核提供的安全特性 Container runtime - NemoClaw 提供基于容器的运行时隔离环境 OpenShell - 另一个由 NVIDIA 发起的开源项目,提供底层的沙箱隔离能力 满足依赖后,执行下面的命令即可安装 NemoClaw,简单直接: ...

April 4, 2026 · 3 min · Carl Cui