NotebookLM:给学习开个 AI 外挂

1. 什么是 NotebookLM NotebookLM 是谷歌推出的一款基于用户资料的 AI 辅助研究/学习工具。它不能像通用聊天机器人那样直接回答所有问题,而是需要用户先上传自己的资料,例如 PDF、网站、视频、音频、文档等等,然后它基于这些资料快速总结、整理笔记,变身成为用户最关注领域的个性化 AI 专家。这一切是基于 Gemini 的多模态理解能力实现的。 与其他 AI 辅助的记事应用不同,NotebookLM 的优势在于以来源为依据。用户可以放心地使用 NotebookLM 的回答,因为它会严格参考上传的来源,从而降低 AI 生成不实信息的风险。 除用户控制来源外,NotebookLM 还有下面这些优势: 信息整合效率:NotebookLM 可理解、整合海量文字,并显著加快从中挖掘分析洞见的过程 个性化学习:NotebookLM 会根据用户的具体需求和内容,为用户营造高度个性化的学习和研究环境 并且,NotebookLM 还能根据上传的资料生成不同内容,例如播客风格的音频概览、幻灯片等等,激发用户的灵感,辅助打造创意项目。 2. 如何使用 NotebookLM 安卓和苹果用户可以下载 NotebookLM 应用: 电脑用户目前需要通过浏览器使用 NotebookLM: NotebookLM 目前支持 4 种使用方案,免费的试用版本即可满足大部分人的需求。 Plus、Pro 和 Ultra 版本会限制地区,国内用户肯定是受到限制的。 3. NoteBookLM 使用场景 在日常工作中,用户可以这样使用 NotebookLM: 开工前的文档审核助理 - 开始工作前,上传会议记录、报告等资料,让 NotebookLM 帮助分析并为全天工作做好准备 促进高效研究的得力助手 - NotebookLM 不仅能节省“搜索答案”的时间,还能根据来源帮助厘清概念、辅助撰写邮件、准备提案,并汇总相关分析洞见 助力学习和规划的智能伙伴 - 关键概念、定义和事实会自动转化为抽认卡,NotebookLM 也会根据上传的资料生成测验,完成测验后生成动态报告,辅助用户应对会议或考试 进行每日复盘和规划的贴心管家 - NotebookLM 可梳理当日笔记要点,并生成待办事项清单等材料 ...

April 7, 2026 · 1 min · Carl Cui

把 OpenClaw 塞进笼子:NVIDIA NemoClaw 架构解析

“NVIDIA 皮衣教主” 黄仁勋 在 2026 年 GTC 大会上宣布了项目 NemoClaw,该项目在 Github 开源,目前有 2.2K fork,18.3 stars。NemoClaw 也是带 Claw 的,这个项目和“巨星” OpenClaw 有什么关系,是远房亲戚还是碰瓷的?接下来,我们一起了解这个项目。 1. 和 OpenClaw 的关系 OpenClaw 被黄仁勋称赞为“人类历史上最受欢迎的开源项目”,不过其安全问题常被人诟病: Meta 禁止员工在公司设备上运行它 漏洞 CVE-2026–25253,CVSS 8.8 允许通过恶意网页执行远程代码 攻击者会通过在文档或者邮件中嵌入命令诱导 agent 遵循外部指令 由 NVIDIA 与 OpenClaw 创始人 Peter Steinberger 合作开发的 NemoClaw,它的出现不是为了取代 OpenClaw,而是打算解决 OpenClaw 的痛点问题,尝试将 OpenClaw 转变为一款安全、适于企业的 AI agent,即提供一个安全、可信且易于部署的运行时环境来运行 OpenClaw。 NemoClaw 的核心价值在于安全隔离和运维便利性。 截至目前,2026 年 4 月初, NemoClaw 还处在 Alpha 阶段,尚未达到生产环境就绪状态。 2. NemoClaw 安装 安装 NemoClaw 需要满足下面这些软件依赖: Linux - NemoClaw 依赖于 Linux 内核提供的安全特性 Container runtime - NemoClaw 提供基于容器的运行时隔离环境 OpenShell - 另一个由 NVIDIA 发起的开源项目,提供底层的沙箱隔离能力 满足依赖后,执行下面的命令即可安装 NemoClaw,简单直接: ...

April 4, 2026 · 3 min · Carl Cui

7 种可以满足日常事务的本地 LLM 模型

译者:Carl Cui 开源模型现在可以处理大量日常工作,对于很多像编码、写作、自动化和 AI Agent 的任务来说,本地部署的 LLM 可以替代云端 LLM。并且,每一次发给云端 LLM 的请求都会离开你的电脑,经公共网络发送到云端服务器。对于专有代码库、敏感的原型或者受监管的行业来说,这是不可接受的。本地运行推理服务可以避免数据外流,对于很多团队来说,数据主权本身就值得考虑本地 LLM。 目前,Claude Code 重度用户每月需要支出 100 ~ 200 美元。按照当前的 API 费率,通过 Cline 或 Kilo Code 使用 Claude Sonnet 4.6,每小时大约需要 3 ~ 8 美元。如果你正在运行代理群、大量迭代或者大量子任务,把其中那些日常的任务交给本地模型可以节省大量开支。 除了介绍 7 种本地可以部署的模型,作者也介绍了如何配置 Claude Code 和 Codex,匹配的 Nvidia 和 Mac 硬件,以及部署的注意事项、故障说明和有关的利弊权衡,比如处理延迟、资源需求、API 兼容性、生成代码的可靠性和指令遵循质量等等。 硬件匹配表 本地能够运行的模型受限于拥有的硬件。如果你使用的是 MacBook Air,评估一个 70B 模型是没有意义的。 大多数模型在 Q4_K_M 量化后可以维持其 MMLU 跑分,与全精度相比,分数差距在 1 到 3 分以内。不过,这种退化程度因任务而异,像多步数学推理这样的专业任务,退化程度可能超过 5%。建议从 Q4_K_M 开始。如果你在目标任务上感觉精度不够,可以切换到 Q5_K_M。 1. Qwen3 - 适合编码和多语言 AI Agent 大小:1.7B,7B,14B,32B,72B,235B MoE 硬件:RTX 4060 → Mac M4 → Workstation 本文列出的模型中,Qwen3-7B 的 HumanEval 跑分(76.0)是所有 8B 参数下模型中最高的,比 Llama 3.3 的 72.6 高出 3.4 分。在四个主要语系中,Qwen3 7B 的多语言支持能力最强,在中、日、韩语方面表现尤为突出,在英语方面的表现也很强劲。 ...

April 1, 2026 · 4 min · Carl Cui

从 AI 恐慌谈注意力漩涡:如何保持理性思考

1. 前言 最近读到一篇文章 Software, in a Time of Fear,这是作者 Ed Lyons 写的一篇随笔,以登山为比喻,描述了他从攀登艰难山路的过程中学到的经验教训,探讨如何在 AI 时代的恐慌中保持清醒。作者不否认 AI 会淘汰一部分人,但是他认为 AI 对软件开发者的威胁被严重夸大了,大量的恐慌其实是来自“注意力漩涡”——那些靠贩卖焦虑吸引流量的网红和社交媒体,而不是来自真实的一手经验。 作者经常带自己的孩子们爬山,有一年打算去比弗山 Beehive 之前在网上查看了很多评论,结果作者越看越不敢尝试。因为评论里害怕的人和为了吹嘘自己的人都在渲染一种 Beehive 很危险的感觉。最终去过之后,作者发现其实 Beehive 没那么糟糕。作者把 Beehive 比作注意力漩涡。 2. 什么是注意力漩涡 心理学上,注意力漩涡是一个比喻性的概念,用来描述一种注意力被持续卷入、难以自拔,最终导致心智资源耗尽的状态,就像水中的漩涡一样,你的注意力被某种力量持续牵引、卷入,在其中不断消耗。生活中,我们每个人都会遇到各种各样的注意力漩涡。 2.1 算法制造的注意力漩涡 互联网平台会通过算法机制,根据你的停留时间、完播率、互动行为实时调整推荐,系统性地捕获、延长、加深用户的注意力投入,让用户在不知不觉中被卷入、消耗,难以自主退出: 本想看一眼朋友圈,结果刷了半小时还停不下来 本想放松一下看个短视频,结果一个接一个,放下手机时更累了 你以为你在主动选择看什么,实际上你看的内容都是被算法挑选出来的 无论哪种形态,算法制造的漩涡,你几乎不需要做什么就被引入其中,比如一个红点或者一条推送。 2.2 人际关系中的注意力漩涡 生活中,大家肯定碰到过“操弄”注意力漩涡的“高手”,他们可能出现在你的家庭、职场、社交圈中,你与他们相处后,总觉得疲惫、困惑,甚至开始怀疑自己。他们也许并不坏,但你总感觉自己的注意力、情绪、判断力在被某种看不见的力量牵引。 分化大师 - 在 A 面前说 B 的坏话,在 B 面前讲 A 的不是,他们不直接处理矛盾,而是把自己的负面情绪传导给第三方。你永远不知道他们对你的真实态度,因为他们对不同的人说着不同的话。当所有人都在互相不满,并且因此缺乏直接、真诚的联系时,他们就成了关系网络中不可绕过的枢纽。 美化大师 - 这类人总是将与自己相关的一切包装得光鲜亮丽,将无关或对立的一切贬得一文不值。比如对自己或亲人的成就严重夸大,一个普通的学历会被说成“出类拔萃”,一段微小的经历会被描述成“辉煌成就”。反过来,他们不喜欢的人或事,则会被描绘得极其糟糕。他们无法接受“人就是普通的,事就是平常的”这样的“灰色现实”,要求周围人的注意力也留在这个叙事中,为之鼓掌或为之愤怒。 紧急制造者 - 这类人频繁使用“现在”“马上”“立刻”等词汇,总是制造“现在必须处理”的假象。无论事情是否真正紧急,他们都能让你产生“如果不立刻回应就会出大事”的错觉,让你来不及判断,只能被动响应。 立场强制者 - 在他们的世界里,任何问题都必须站队。不站在他们那边,就是反对;保持中立,就是背叛。中立在他们看来是一种威胁,因为它意味着你不受他们控制。他们会不断测试你的立场,并通过各种方式迫使你表态,例如“你到底是帮谁”,或者“你说是不是这样”。 无论表现形式如何,这些手段都有几个共同点: 制造依赖:让你觉得需要他们才能理解情况、做出判断 消耗认知:把你的注意力从“重要的事”转移到“他们的事”上 扭曲现实:让你逐渐分不清“他们说的”和“实际发生的” 情感绑架:让你为他们的情绪负责,而不是为自己的生活负责 用“漩涡”这个词,强调的是外部存在一种结构性的力量在捕获你的注意力,而不是你“意志力不够”。识别这些手段,不是为了贴标签或对抗,而是为了让自己在关系中保持清醒:我的注意力是我的资源,只有我自己有权决定它投向哪里。 2.3 漩涡中的人会经历什么 注意力漩涡不是简单的“分心”或“走神”,它总不经意间影响你,消耗你的认知,妨碍你进行独立思考。而且危害往往是累积性、结构性的,不易察觉,却深刻影响着一个人的生活质量、关系健康和自我存在感。 ...

March 31, 2026 · 1 min · Carl Cui

从 7000 个无名之辈的菲尔兹级突破谈可靠智能体集群设计

译者:Carl Cui 在 2024 年年中,The Innovation Game 上线。 The Innovation Game(简称 TIG)是一个基于区块链技术的现代项目,它协调大约 7000 个独立的、不可信的贡献者,针对那些具有重要科学价值的问题,迭代改进其算法。TIG 将这些问题作为挑战发布,例如 SAT 求解、车辆路径规划、二次背包问题、向量搜索和神经网络优化器设计等问题,贡献者提交解决这些问题的算法,算法测试者则被激励采用最高效的算法进行工作量证明,从而形成一种抗干扰的机制,用以奖励表现最优的算法。本质上,TIG 为算法开发创造了一个全新的经济框架。 这些贡献者之间无需相互信任。没有哪个中心机构规定什么才是好的,不过经过独立贡献者 476 次增量提交后,TIG 现在提出的二次背包问题的解决方案,已经超过了 Hochbaum 等人 2025 年在 European Journal of Operational Research 上发表的算法的质量。 TIG 这种协调机制几乎与当今最先进的 multi-agent 框架中采用的设计模式相同,通过分析 TIG,我们可以了解未来集群智能 swarm intelligence 的发展趋势。 1. Generator-Verifie 模式 在 agentic system 设计中,最老且最可靠的模式是将 Generator 和 Verifie 解耦:一个 agent 发起提议,另一个 agent 评估该提议。这种设计随处可见,比如 AlphaCode 的生成再过滤流程,比如宪法 AI 的批评修改循环,比如任何写代码然后运行测试的 coding agent。 TIG 在社会层面上实现了这一模式: 贡献者(Generator)将算法实现提交到一个开源仓库 算法测试者(Verifiers)针对实际问题运行这些算法并报告结果 贡献者获得的奖励与其算法的采用率成正比,即有多少算法测试者真正选择使用他们的算法。 ...

March 30, 2026 · 2 min · Carl Cui

性能实测:多台 Mac 本地运行 80B 大模型

作者:Manjunath Janardhan 译者:Carl Cui 通常,本地部署 LLM 时需要给 LLM 找一个配置足够好的机器,那么有没有办法反其道而行之?如果你有一堆闲置的设备,能不能把它们的 CPU, GPU 和内存资源整合起来,运行一个它们单独无法处理的模型?作者 Manjunath Janardhan 借助开源工具 exo 在自己的两台 Mac 设备上把 Qwen3-Next-80B 运行了起来,可以达到每秒 70 ~ 80 个 token。 Mac Mini 的设置和负载快照,图片由 Manjunath Janardhan 制作 1. exo 是什么 exo 是一个由 Exo Labs 维护的开源项目,一句话概括:它将你所有的设备连接成个人 AI 集群,让你能够运行任何单台机器都无法容纳的模型。exo 的主要功能如下: 自动设备发现 - 运行 exo 的设备可以在网络上自动相互发现,无需手动配置 支持基于 Thunderbolt 的 RDMA - 在支持的硬件(M4 Pro/Max)上,能够在设备之间实现 99%的延迟降低 拓扑感知自动并行 - exo 根据可用 RAM、CPU、GPU 资源以及节点之间的网络延迟,确定将模型在多个设备之间分割的最佳方式 Tensor 并行 - exo 支持模型分片,在 2 台设备上可加速 1.8 倍,在 4 台设备上可加速 3.2 倍 MLX 支持 - exo 使用 MLX 作为推理后端,并使用 MLX 分布式 进行分布式通信 多 API 兼容性 - 兼容 OpenAI Chat Completions API、Claude Messages API、OpenAI Responses API 和 Ollama API,现有的工具和客户端可以无缝迁移 自定义模型支持 - 从 HuggingFace hub 加载自定义模型,以扩展可用模型范围 支持 54+ 个模型 - 从小型 Llama 模型到 671B DeepSeek 变体 2. Mac Mini M4 + MacBook Pro M4 Max 通过 exo,我配对了两台机器: ...

March 30, 2026 · 3 min · Carl Cui

本地 LLM 部署:硬件配置指南

作者:MayhemCode 译者:Carl Cui 今天这篇文章是搬运过来的,发表于 2025 年 12 月 17 日,那时候由 AI 引发的硬件通胀已经持续了几个月。到现在,2026 年 3 月底,消费级硬件的价格不仅没有回落,反而在全面涨价的基础上看不到回调的希望。虽然内存价格出现了小幅回调,但是相比 2025 年 9 月,现在的内存价格依然处于历史极高水平:2025 年 9 月份,一根 16G 的 DDR5 台式机内存价格大概在 200 ~ 390 元,现在大约需要 1100 ~ 1600 元。OpenClaw 的火爆,进一步推动了本地部署 LLM 的需求,对于“不想交数据、不想交钱,或者不想等网络”的那群人,本地部署 LLM 永远是一个绕不开的话题。 1. 为什么自托管 AI 是未来 完全依赖云 API 才能使用 AI 的“苦”日子正在结束。以前每月需要 100 美元的 ChatGPT 或 Claude 订阅现在可以在你自己的硬件上运行。本地部署 LLM 可以带来更好的隐私保护、零持续成本,和对模型的完全控制。 现在开源的大语言模型,特别是 Llama 3、DeepSeek R1 和 Mistral,已经足够处理真实工作。问题在于,你需要知道哪些硬件能把它们跑起来。这篇文章教大家怎么选择高性价比硬件,不管你准备搭建预算有限的家庭实验室还是高性能的 Proxmox 服务器。 译者注:2025 年 12 月到现在,硬件和 LLM 已经出现了很多变化,文章部分内容稍显过时,推荐的配置也是基于当时国外的行情,不过对 LLM 硬件的讲解比较全面,值得一读。 ...

March 29, 2026 · 5 min · MayhemCode

IronClaw 折腾日记 - 接入智谱 AI 国内版大模型

之前写过一篇名为 IronClaw 安全机制解析 的文章,简单介绍了 IronClaw 的安全机制。当时 IronClaw 还处在 v0.18.0 版本,在它支持的 LLM 列表里只有 DeepSeek 一家是国内的(见下图)。写这篇文章的时候,IronClaw 来到了 v0.21.0 版本。 分析项目提交历史,从 0.18.0 到 0.21.0,IronClaw 这 4 个版本是在 9 天内陆续发布的,项目处在一个加速迭代的过程中。 除了持续的安全加固,IronClaw 扩展性也在增强,其中 v0.19.0 版本新增了两家 LLM 提供商,Z.AI 和 MiniMax,这两家都来自国内。因为看到 IronClaw 支持了 Z.AI,加上智谱会给国内新注册用户赠送资源包,本着免费至上的精神,抱着白嫖的态度,我开始了折腾,目标是搞一个接入 GLM 模型的 AI 助手,辅助处理一些琐碎杂务。 然后就开始一路踩坑,一直忙到凌晨才柳暗花明。这篇文章记录一下主要过程,略去了走过的一些弯路。 1. 我以为很简单,直接就能搞定 IronClaw 在 v0.19.0 支持的 Z.AI 是智谱 AI 国际版本的 API,要在 https://z.ai/manage-apikey/apikey-list 申请 API Key。 智谱 AI 国际版本网站打开就是“暗系装修风格”,直到现在我也没找到切换开关,基本可以确定网站只有一种风格。网站整体 UI 设计(下图),给我感觉就是两个字:简陋。或者说简约,😓。注册之后没有找到赠送的资源包,最低档套餐需要付费。收费加简陋,我一度以为自己进到了“钓鱼网站”。在用 AI 可以很轻易生成现代站点的今天,不敢相信这是一家 LLM 模型公司的站点。 小心谨慎地申请好 API Key,本地编译 IronClaw,配置智谱 AI 国际版本的 API,然后运行 IronClaw,最后通过 IronClaw 自带的 Gateway 页面对话,一切顺利。 ...

March 26, 2026 · 2 min · Carl Cui

2026年 AI 实际将取代哪些工作

作者:Tanmay Bansal 译者:Carl Cui 译者之前翻译整理过 Wes McKinney 一篇 关于 AI Agent 的文章。和 Wes McKinney 那篇相比,Tanmay Bansal 这篇文章的思考深度差了不少。Wes 用了具体的代码库规模数据、自己的亲身经历、以及《人月神话》的理论来支撑其论点;而这篇文章更像是把流行观点重新包装了一遍。译者会在结尾第 9 节讨论这篇文章深度不足的地方。以下开始至第 8 节是文章内容。 大多数人认为 AI 将取代程序员、设计师和作家。这种说法有失偏颇。第一批悄然消失的工作更容易预测,而且隐蔽性很强。一不留神,你现在可能就在做着这样的工作。 这不是一个关于未来的理论警告。这已经在发生了,只是你还没有注意到。 1. 普遍观点 随便刷刷哪个技术论坛或者社交动态,都能感觉到那种恐惧。大家都觉得语言模型和 coding copilot 的到来,意味着工程部门和创新部门要被取代了。人们看到 AI 能写出过得去的代码,或者能生成文章,立刻就得出结论:那些正在做这些事情的人已经过时了。 表面上看这说得通:我们看到一台机器输出文字,就把它和“作家”这个职位联系起来;我们看到它输出一个 React 组件,就把它和“开发者”联系起来。 但这忽略了 AI 在现实世界中的实际应用情况。 2. 真实规律 这里的核心观点:人工智能取代的不是工作,而是取代那些可预测、可重复、也容易评估的任务。 The upcoming job scenario with AI: Image by Tanmay Bansal 仔细看看软件行业和现代知识密集型工作,你会发现其中有很多工作的产出其实只是把一些高度可预测的输出拼接了起来。这正是自动化首先冲击的领域。 3. 实际上正在被取代的工作 让我们分析一下那些正在悄然消失的工作类别。 3.1 中间层知识工作 想想那些纯粹为了喂算法或填写公司报告而生成的海量内容:基础的 SEO 文章生成、每周指标的总结,或是初级市场研究报告的汇总。 我自己管理着一份技术简报,从数据中可以看到:读者渴望独特的洞见,但网络上充斥着泛泛的总结。那些专门生产这些泛泛总结的工作,其产出高度结构化且易于验证,正在迅速减少。 3.2 协调与“胶水“角色 企业环境中充斥着纯粹用于将信息从 A 点传送到 B 点的角色。例如,做会议记录、根据 Slack 线程更新 Jira 工单、为高层管理人员格式化状态报告以及起草内部沟通摘要。 ...

March 24, 2026 · 2 min · Tanmay Bansal

AI Agent 与人月神话:工具变了,软件工程的本质约束没变

作者:Wes McKinney 译者:Carl Cui 作者 Wes McKinney 是专注于分析计算领域的工程师和创业者,pandas 的创始人,《Python for Data Analysis》的作者。曾创立 Voltron Data 和 Ursa Labs,现任 Posit 首席架构师。作者的这篇文章从《人月神话》的核心观点出发,讨论了 AI Agent 给软件工程所带来的影响。 和很多人一样,我发现 AI 严重影响了我的睡眠。以前我会在凌晨四点或四点半短暂醒来喝口水或上个厕所,现在却很难再次入睡。以前我每晚能睡七八个小时,现在能睡六个小时就不错了。我基本上已经不再抗争了:现在当我在早上 5:07 辗转反侧,脑子里全是喂给 AI coding agent 的想法时,我就直接起床开始新的一天。 在我的工程师和数据科学家朋友圈里,大家都在讨论我们作为人类的竞争优势还能持续多久。当 agent 开始自己产生更好的想法时,拥有好想法(而且要多)还重要吗?现在感觉,人类专家的参与是从 agent 那里获得良好结果的必要条件。那这种状态,直到某个想法在我们睡觉时可以被 agent 转化为能运行、有品味的软件之前,还能持续多久?这是否会是一种温和淘汰,让我们愉快地交出控制权,还是别的什么? 目前,我感觉自己还是被需要的。我不把自己现在这种工作方式描述为“vibe coding”,因为这听起来像是以一种贬义的“轻松搞定”的方式来构建 AI 垃圾软件项目。我一直在构建像 roborev 这样的工具,为我的并行 agent 会话带来严格性和持续监督,并对 agent 的工作进行严格审查。这种全新的工作方式让人不得不思考软件工程的未来。 我职业生涯中引用最多的书大概是 Fred Brooks 的《人月神话》,其中著名的 Brooks 定律认为“向一个已经延期的软件项目增加人手只会让它更晚”。最近我发现自己在思考这本书的教训是否适用于这个 agentic 开发的新时代。一个才华横溢的开发者指挥一群 AI agents,能否更快更好地构建复杂软件?短期的生产力提升是否会带来长期的项目成功?还是我们会遇到同样的问题?范围蔓延 scope creep、架构漂移 architectural drift 和沟通成本 coordination overhead,这些已经困扰软件团队几十年的问题。 1. 重读《人月神话》 Brooks 的核心论点之一是:少数精英组成的小团队胜过大量普通人组成的大团队。这能使得系统设计具有高度的概念完整性,就好像“一个人设计了它,即使是很多人参与了构建”。 Agentic 工程似乎放大了这些问题,因为其所构建软件的质量仅取决于参与其中的人类的水平:他们负责策划和完善 spec、对功能说“是或否”,以及控制不必要的代码和架构复杂性。《人月神话》中的一个比喻是“泥潭”:“每个人都能看到野兽在里面挣扎,看起来任何一只都能轻易逃脱,但泥潭把它们都困住了。”现在,我们有了一个新的“泥潭”,“agentic 泥潭”,我们的并行 Claude Code 会话和 git worktree 需要应付虚拟同事导致的代码膨胀和偶然复杂性。你可以系统地重构,但 agentic 代码库不可避免地会比任何人工构建的更大、更臃肿。这是前所未有的技术债务,以机器的速度累积。 ...

March 24, 2026 · 2 min · Wes McKinney