<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Radar on 楠楠自瑜</title>
    <link>https://cnutshell.net/tags/radar/</link>
    <description>Recent content in Radar on 楠楠自瑜</description>
    <generator>Hugo -- 0.157.0</generator>
    <language>zh-cn</language>
    <lastBuildDate>Thu, 09 Apr 2026 11:22:40 +0800</lastBuildDate>
    <atom:link href="https://cnutshell.net/tags/radar/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>AI 模型加速发展：从架构创新到生态重构的 2026 年 3 月全景报告</title>
      <link>https://cnutshell.net/llm/llm-in-2026-03/</link>
      <pubDate>Thu, 09 Apr 2026 11:22:40 +0800</pubDate>
      <guid>https://cnutshell.net/llm/llm-in-2026-03/</guid>
      <description>&lt;p&gt;模型发展太快了：今天做出的架构和供应商承诺，六个月后可能就过时了。现在能力突出的模型，很多都来自开源项目，还有越来越多国际公司在竞争。这个领域也开始提出更深层的问题：预测 token 可能不是通向高性能 AI 的唯一路径。第一个稳定的 JEPA 模型的问世，就表明了替代架构正在成为真正的竞争者；NVIDIA 的新模型结合了 Mamba 和 Transformer 层，也指向了同样的方向。&lt;/p&gt;
&lt;h2 id=&#34;相关事件&#34;&gt;相关事件&lt;/h2&gt;
&lt;p&gt;以下汇总了 2026 年 3 月份以来值得关注的模型有关事件：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;Yann LeCun 和他的团队创建了 &lt;a href=&#34;https://arxiv.org/abs/2603.19312&#34;&gt;LeWorldModel&lt;/a&gt;，这是第一个使用他的联合嵌入预测架构（JEPA）且训练稳定的模型。他们的目标是创造出不仅仅预测词语的模型；而是能理解世界以及它是如何运作的模型。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;NVIDIA 发布了 &lt;a href=&#34;https://developer.nvidia.com/blog/introducing-nemotron-3-super-an-open-hybrid-mamba-transformer-moe-for-agentic-reasoning/&#34;&gt;Nemotron 3 Super&lt;/a&gt;，这是他们最新的开放权重模型。它是一个混合专家模型，拥有 120B 参数，其中 12B 参数在任何时候都处于活动状态。更有趣的是它的设计：它结合了 Mamba 和 Transformer 层。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;a href=&#34;https://arstechnica.com/ai/2026/03/the-debut-of-gemini-3-1-flash-live-could-make-it-harder-to-know-if-youre-talking-to-a-robot/&#34;&gt;Gemini 3.1 Flash Live&lt;/a&gt; 是一个新的语音模型，旨在支持实时对话。在生成输出时，它会避免出现停顿，并使用类似人类的语调。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Cursor 发布了 &lt;a href=&#34;https://cursor.com/blog/composer-2&#34;&gt;Composer 2&lt;/a&gt;，这是其 IDE 的下一代版本。Composer 2 显然&lt;a href=&#34;https://news.smol.ai/issues/26-03-20-not-much&#34;&gt;整合了 Kimi K2.5 模型&lt;/a&gt;。据报道，它在一些主要编码基准测试中&lt;a href=&#34;https://thenewstack.io/cursors-composer-2-beats-opus-46-on-coding-benchmarks-at-a-fraction-of-the-price/&#34;&gt;击败了 Anthropic 的 Opus 4.6&lt;/a&gt;，而且成本显著降低。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Mistral 发布了 &lt;a href=&#34;https://mistral.ai/news/forge&#34;&gt;Forge&lt;/a&gt; 系统，这个系统能让组织能够基于自己的私有数据来构建“前沿级”模型。Forge 支持预训练、后训练和强化学习。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Mistral 还发布了 &lt;a href=&#34;https://mistral.ai/news/mistral-small-4&#34;&gt;Mistral Small 4&lt;/a&gt;，这是其最新的旗舰多模态模型。Small 4 是一个 119B 混合专家模型，每个 token 使用 6B 参数。它是完全开源的，具有 256K 上下文窗口，并针对最小化延迟和最大化吞吐量进行了优化。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
