<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>思维链 on 朝花夕拾</title>
        <link>https://example.org/tags/%E6%80%9D%E7%BB%B4%E9%93%BE/</link>
        <description>Recent content in 思维链 on 朝花夕拾</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>en-us</language>
        <lastBuildDate>Tue, 17 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://example.org/tags/%E6%80%9D%E7%BB%B4%E9%93%BE/index.xml" rel="self" type="application/rss+xml" /><item>
            <title>FutureX: Enhance End-to-End Autonomous Driving via Latent Chain-of-Thought World Model</title>
            <link>https://example.org/post/robotics/e2e/future-x/</link>
            <pubDate>Tue, 17 Mar 2026 00:00:00 +0000</pubDate>
            <guid>https://example.org/post/robotics/e2e/future-x/</guid>
            <description>&lt;h2 id=&#34;核心贡献-提出了隐式思维链世界模型让端到端自动驾驶模型具备了三思而后行的深度推理能力&#34;&gt;&lt;strong&gt;核心贡献&lt;/strong&gt;: 提出了隐式思维链世界模型，让端到端自动驾驶模型具备了&amp;quot;三思而后行&amp;quot;的深度推理能力&#xA;&lt;/h2&gt;&lt;hr&gt;&#xA;&lt;h1 id=&#34;futurex-隐式思维链世界模型驱动的端到端自动驾驶&#34;&gt;FutureX: 隐式思维链世界模型驱动的端到端自动驾驶&#xA;&lt;/h1&gt;&lt;hr&gt;&#xA;&lt;h2 id=&#34;一核心痛点现在的自动驾驶模型都是直肠子&#34;&gt;一、核心痛点：现在的自动驾驶模型都是&amp;quot;直肠子&amp;quot;&#xA;&lt;/h2&gt;&lt;p&gt;各位乘客请系好安全带！今天我们要深入了解一款拥有&amp;quot;老司机思维&amp;quot;的自动驾驶大模型——&lt;strong&gt;FutureX&lt;/strong&gt;。&lt;/p&gt;&#xA;&lt;p&gt;这篇论文解决了一个自动驾驶界的痛点：&lt;strong&gt;现在的端到端（E2E）模型很多都是&amp;quot;条件反射式&amp;quot;&lt;/strong&gt;——看到什么画面，立刻给出方向盘和油门指令。这种&amp;quot;直肠子&amp;quot;在简单路况还行，遇到复杂路况（比如前车突然变道、路口有行人探头）就容易抓瞎，因为它们&lt;strong&gt;不会预测未来&lt;/strong&gt;。&lt;/p&gt;&#xA;&lt;p&gt;人类老司机是怎么开车的？遇到复杂路况，我们会在脑子里&amp;quot;推演&amp;quot;：&amp;ldquo;如果我现在加速，左边的车会不会挤过来？如果我变道，后面的车刹不刹得住？&amp;rdquo;&lt;/p&gt;&#xA;&lt;p&gt;&lt;strong&gt;FutureX 的核心魔法，就是赋予了AI这种&amp;quot;脑补&amp;quot;和&amp;quot;三思而后行&amp;quot;的能力！&lt;/strong&gt; 它提出了一个极其巧妙的&lt;strong&gt;隐式思维链世界模型（Latent Chain-of-Thought World Model）&lt;/strong&gt;。&lt;/p&gt;&#xA;&lt;hr&gt;&#xA;&lt;h2 id=&#34;二整体架构本能反应-vs-深度思考&#34;&gt;二、整体架构：本能反应 vs. 深度思考&#xA;&lt;/h2&gt;&lt;p&gt;FutureX 的处理流程分为两个阶段：&lt;/p&gt;&#xA;&lt;h3 id=&#34;第一阶段产生直觉initial-trajectory-proposal&#34;&gt;第一阶段：产生&amp;quot;直觉&amp;quot;（Initial Trajectory Proposal）&#xA;&lt;/h3&gt;&lt;p&gt;跟传统的自动驾驶一样，传感器（摄像头/激光雷达）的输入经过&lt;strong&gt;场景编码器（Scene Encoder）&lt;/strong&gt;，提取出当前时刻的隐状态（Current Latent $z_t$）。接着，策略网络（Policy Network）凭借直觉，先给出一个&lt;strong&gt;初始轨迹&lt;/strong&gt; $w_t$（包含未来 $T$ 步的位置和航向角）。&lt;/p&gt;&#xA;&lt;h3 id=&#34;第二阶段聪明的大脑门卫auto-think-switch&#34;&gt;第二阶段：聪明的&amp;quot;大脑门卫&amp;quot;（Auto-think Switch）&#xA;&lt;/h3&gt;&lt;p&gt;AI如果每时每刻都在深度思考，车载芯片会被烧干的！所以 FutureX 引入了一个**&amp;ldquo;自动思考开关&amp;rdquo;** $\mathcal{G}(\cdot)$。&lt;/p&gt;&#xA;&lt;p&gt;它会看着当前的隐状态 $z_t$，评估一下当前场景的&amp;quot;难度得分&amp;quot; $d_t$（在0到1之间）：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;&lt;strong&gt;Instant（直觉模式）&lt;/strong&gt;：难度低（比如空旷大直道），直接采用刚才的初始轨迹 $w_t$，省时省力。&lt;/li&gt;&#xA;&lt;li&gt;&lt;strong&gt;Thinking（思考模式）&lt;/strong&gt;：难度高，立刻唤醒&amp;quot;世界模型&amp;quot;，开始进行深度推演！&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;h4 id=&#34;技术细节开关怎么训练的&#34;&gt;技术细节：开关怎么训练的？&#xA;&lt;/h4&gt;&lt;p&gt;作者定义了一个**&amp;ldquo;提升率 $r_t$&amp;rdquo;**：&#xA;$$r_t = \frac{e_{init} - e_{ref}}{e_{init} + \varepsilon}$$&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;$e_{init}$：初始轨迹与人类专家轨迹的 L1 误差&lt;/li&gt;&#xA;&lt;li&gt;$e_{ref}$：经过思考后修正轨迹的 L1 误差&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;如果模型经过思考后，预测的轨迹比不思考的初始轨迹&lt;strong&gt;误差降低超过 25%&lt;/strong&gt;（阈值 $\alpha = 0.25$），这个场景的标签就被打上 $g_t = 1$（需要思考），否则为0。用交叉熵损失 $\mathcal{L}_{auto}$ 来训练这个开关。&lt;/p&gt;&#xA;&lt;hr&gt;&#xA;&lt;h2 id=&#34;三核心方法在脑海中沙盘推演latent-cot-reasoning&#34;&gt;三、核心方法：在脑海中&amp;quot;沙盘推演&amp;quot;（Latent CoT Reasoning）&#xA;&lt;/h2&gt;&lt;p&gt;一旦进入&amp;quot;思考模式&amp;quot;，FutureX 最核心的&lt;strong&gt;隐式思维链世界模型（Latent World Model, $\mathcal{W}$）&lt;/strong&gt; 就启动了！&lt;/p&gt;&#xA;&lt;p&gt;注意，它不像 ChatGPT 那样用文字思考，而是在高维度的**&amp;ldquo;隐空间（Latent Space）&amp;rdquo;**中思考。&lt;/p&gt;&#xA;&lt;h3 id=&#34;具体怎么做-切蛋糕&#34;&gt;具体怎么做？—— &amp;ldquo;切蛋糕&amp;rdquo;！&#xA;&lt;/h3&gt;&lt;p&gt;它把初始长轨迹 $w_t$（总长度为 $T$）均匀切分成 $K$ 段子轨迹（Sub-trajectories）。然后，世界模型开始一步步做&amp;quot;What-if（如果&amp;hellip;会怎样）&amp;ldquo;的沙盘推演：&lt;/p&gt;&#xA;&lt;ol&gt;&#xA;&lt;li&gt;&lt;strong&gt;第一步推演&lt;/strong&gt;：基于当前状态 $z_t^{(0)}$，如果我执行了第一段子轨迹 $w_t^{(1)}$，未来的世界会变成什么样？模型预测出未来的隐状态 $z_t^{(1)}$。&lt;/li&gt;&#xA;&lt;li&gt;&lt;strong&gt;第二步推演&lt;/strong&gt;：基于刚才预测的 $z_t^{(1)}$，如果我接着执行第二段子轨迹 $w_t^{(2)}$，世界又会变成什么样？得到 $z_t^{(2)}$。&lt;/li&gt;&#xA;&lt;li&gt;以此类推……&lt;/li&gt;&#xA;&lt;/ol&gt;&#xA;&lt;p&gt;最终，模型得到了一串包含时空动态信息的**&amp;ldquo;思想链&amp;rdquo;**：$Z_{CoT} = {z_t^{(0)}, z_t^{(1)}, &amp;hellip;, z_t^{(K)}}$。这串数据完美捕捉了&amp;quot;自车行为&amp;quot;和&amp;quot;环境变化&amp;quot;的交互关系。&lt;/p&gt;&#xA;&lt;hr&gt;&#xA;&lt;h2 id=&#34;四修正路线总结反思trajectory-refinement&#34;&gt;四、修正路线：总结反思（Trajectory Refinement）&#xA;&lt;/h2&gt;&lt;p&gt;脑补完了未来，接下来就是拿这些&amp;quot;想法&amp;quot;来指导行动了。&lt;/p&gt;&#xA;&lt;p&gt;FutureX 有一个&lt;strong&gt;总结网络（Summarizer Network, $\mathcal{S}$）&lt;/strong&gt;。它把推演出来的所有&amp;quot;思想节点（$Z_{CoT}$）&amp;ldquo;和初始轨迹 $w_t$ 放在一起综合考量。&lt;/p&gt;&#xA;&lt;p&gt;就像老司机反思：&amp;ldquo;我原本想一脚油门过去（初始轨迹），但我脑补了一下发现左边那辆车可能会别我（隐式思想链），那我还是往右偏一点、减点速吧。&amp;rdquo;&lt;/p&gt;&#xA;&lt;p&gt;于是，总结网络会输出一个轨迹的**&amp;ldquo;偏移量（offsets）&amp;rdquo;&lt;strong&gt;，加在初始轨迹上，得到了最终安全、顺滑的&lt;/strong&gt;修正轨迹 $w_t^{ref}$**。&lt;/p&gt;&#xA;&lt;hr&gt;&#xA;&lt;h2 id=&#34;五训练方法三根教鞭共同发力&#34;&gt;五、训练方法：三根&amp;quot;教鞭&amp;quot;共同发力&#xA;&lt;/h2&gt;&lt;p&gt;怎么把这个复杂的系统训练出来？核心是三个 Loss 函数：&lt;/p&gt;&#xA;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;损失函数&lt;/th&gt;&#xA;          &lt;th&gt;作用&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;轨迹损失 $\mathcal{L}_{traj}$&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;用 L1 loss 比较预测轨迹和人类专家真实轨迹的差距。思考模式用修正轨迹算，直觉模式用初始轨迹算。&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;隐状态一致性损失 $\mathcal{L}_{lat}$&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;世界模型能准确预测未来的关键！要求模型&amp;quot;脑补&amp;quot;出来的未来状态 $\hat{z}_t^{(k)}$，必须和真实世界到达那一刻时传感器提取出的真实状态 $z_t^{(k)}$ 尽可能一致。&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;自动思考损失 $\mathcal{L}_{auto}$&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;训练那个判断&amp;quot;要不要思考&amp;quot;的门卫开关。&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;&#xA;&lt;hr&gt;&#xA;&lt;h2 id=&#34;六实战成绩分数飙升&#34;&gt;六、实战成绩：分数飙升！&#xA;&lt;/h2&gt;&lt;p&gt;论文在最权威的闭环仿真平台 &lt;strong&gt;NAVSIM&lt;/strong&gt; 和 &lt;strong&gt;CARLA&lt;/strong&gt; 上进行了极限测试：&lt;/p&gt;&#xA;&lt;h3 id=&#34;navsim-榜单table-1&#34;&gt;NAVSIM 榜单（Table 1）&#xA;&lt;/h3&gt;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;模型&lt;/th&gt;&#xA;          &lt;th&gt;PDMS 分数&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;World4Drive&lt;/td&gt;&#xA;          &lt;td&gt;85.1&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;FutureX-Auto（纯视觉）&lt;/td&gt;&#xA;          &lt;td&gt;89.2&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;FutureX-All（TransFuser）&lt;/td&gt;&#xA;          &lt;td&gt;&lt;strong&gt;90.6&lt;/strong&gt;&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;&#xA;&lt;p&gt;无论是只用摄像头（基于LTF），还是用摄像头+激光雷达（基于TransFuser），加入了 FutureX 框架后，&lt;strong&gt;PDMS 直接暴涨 5.4 和 6.2 分！&lt;/strong&gt;&lt;/p&gt;&#xA;&lt;h3 id=&#34;实时性table-5-延迟消融实验&#34;&gt;实时性（Table 5 延迟消融实验）&#xA;&lt;/h3&gt;&lt;p&gt;自动驾驶最怕&amp;quot;思考太久车已经撞了&amp;rdquo;。实验表明，把轨迹切分成4段（$N=4$）时，FutureX 只比基础模型多花 &lt;strong&gt;17.0 毫秒&lt;/strong&gt; 的推理时间，完全满足真实世界的实时性要求！&lt;/p&gt;&#xA;&lt;hr&gt;&#xA;&lt;h2 id=&#34;七深度讨论与-world4drive-的对比&#34;&gt;七、深度讨论：与 World4Drive 的对比&#xA;&lt;/h2&gt;&lt;h3 id=&#34;两种不同的设计哲学&#34;&gt;两种不同的设计哲学&#xA;&lt;/h3&gt;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;特性&lt;/th&gt;&#xA;          &lt;th&gt;World4Drive&lt;/th&gt;&#xA;          &lt;th&gt;FutureX&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;策略&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;多线评估（择优录取）&lt;/td&gt;&#xA;          &lt;td&gt;单线修正（深度润色）&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;方式&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;并行推演 K 种意图，用 Selector 选最优&lt;/td&gt;&#xA;          &lt;td&gt;顺着初始轨迹做思维链推演，用 Summarizer 修正&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;优势&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;从根本上避免&amp;quot;一开始就走错路&amp;rdquo;&lt;/td&gt;&#xA;          &lt;td&gt;&amp;ldquo;Refinement&amp;quot;的精度比&amp;quot;Selection&amp;quot;更高&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;分数&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;85.1&lt;/td&gt;&#xA;          &lt;td&gt;&lt;strong&gt;90.6&lt;/strong&gt;&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;&#xA;&lt;h3 id=&#34;为什么单线修正反而更好&#34;&gt;为什么单线修正反而更好？&#xA;&lt;/h3&gt;&lt;p&gt;这是一个&lt;strong&gt;极其反直觉&lt;/strong&gt;的问题！在非凸优化问题中，采样确实是对抗局部最优的经典武器。但为什么 FutureX 这种看起来容易&amp;quot;钻牛角尖&amp;quot;的局部修正流派，反而跑赢了全局采样流派？&lt;/p&gt;&#xA;&lt;h4 id=&#34;真相一初始轨迹不是盲目猜测而是强力先验&#34;&gt;真相一：初始轨迹不是&amp;quot;盲目猜测&amp;rdquo;，而是&amp;quot;强力先验&amp;quot;&#xA;&lt;/h4&gt;&lt;p&gt;FutureX 的初始轨迹 $w_t$ 是由像 TransFuser 这样已经训练得极其成熟的 Baseline 网络生成的。这些 SOTA 模型在海量专家数据的喂养下，它们的&amp;quot;直觉&amp;quot;已经非常接近全局最优了。绝大多数时候，它们已经落在了那个&amp;quot;全局最优解的深谷&amp;quot;里，只是离谷底还有几厘米的偏差。&lt;/p&gt;&#xA;&lt;h4 id=&#34;真相二采样空隙sampling-gap的无情折损&#34;&gt;真相二：&amp;ldquo;采样空隙（Sampling Gap）&amp;ldquo;的无情折损&#xA;&lt;/h4&gt;&lt;p&gt;World4Drive 的困境：假设它采样了 10 种意图。在复杂的路口，可能最优的切入角度是 15.5 度，但采样出来的只有 10 度和 20 度。即便世界模型推演出 15.5 度最好，Selector 也选不出来，因为它只能从已有的 $K$ 个里挑。&lt;/p&gt;&#xA;&lt;p&gt;FutureX 的优势：Summarizer 网络输出的是&lt;strong&gt;连续空间的坐标偏移（Offsets）&lt;/strong&gt;。它不是在做&amp;quot;选择题&amp;rdquo;，而是在做&amp;quot;微积分&amp;rdquo;。它可以在连续的空间里丝滑地移动坐标。&lt;/p&gt;&#xA;&lt;h4 id=&#34;真相三评价未来比修正未来更难训练&#34;&gt;真相三：&amp;ldquo;评价未来&amp;quot;比&amp;quot;修正未来&amp;quot;更难训练&#xA;&lt;/h4&gt;&lt;ul&gt;&#xA;&lt;li&gt;&lt;strong&gt;World4Drive（评价流）&lt;/strong&gt;：需要世界模型和裁判网络对任何乱七八糟的采样轨迹都能给出一个准确的评分。如果模型没见过某种奇怪的走法，评分就会失真（OOD问题）。&lt;/li&gt;&#xA;&lt;li&gt;&lt;strong&gt;FutureX（修正流）&lt;/strong&gt;：任务目标极其聚焦。它只看&amp;quot;我这一条路走下去会有什么后果&amp;rdquo;。CoT 得到的不是冷冰冰的分数，而是一串带有丰富语义的隐状态序列 $Z_{CoT}$。这种&lt;strong&gt;时序上的因果反馈&lt;/strong&gt;，比一个单一的&amp;quot;得分&amp;quot;包含的信息量大得多。&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;h3 id=&#34;延迟对比为什么-futurex-更慢&#34;&gt;延迟对比：为什么 FutureX 更&amp;quot;慢&amp;quot;？&#xA;&lt;/h3&gt;&lt;p&gt;虽然大家都在隐空间里玩推演，但**推演的&amp;quot;姿势&amp;quot;**完全不同：&lt;/p&gt;&#xA;&lt;h4 id=&#34;world4drive批处理流快&#34;&gt;World4Drive：批处理流（快）&#xA;&lt;/h4&gt;&lt;p&gt;它推演 $K$ 种未来时，这 $K$ 个意图&lt;strong&gt;全部是从当前时刻 $t_0$ 出发的&lt;/strong&gt;。对于显卡来说，这只是把 Batch Size 从 1 变成了 $K$。显卡可以在&lt;strong&gt;同一个前向传播周期&lt;/strong&gt;里，一把推算出这 $K$ 种方案的结局。&lt;/p&gt;&#xA;&lt;h4 id=&#34;futurex思维链流慢&#34;&gt;FutureX：思维链流（慢）&#xA;&lt;/h4&gt;&lt;p&gt;它的推演是**自回归（Autoregressive）**的：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;先算第一段子轨迹，得到状态 $z_t^{(1)}$&lt;/li&gt;&#xA;&lt;li&gt;&lt;strong&gt;必须等 $z_t^{(1)}$ 算出来后&lt;/strong&gt;，才能把它塞回模型，去算第二段&lt;/li&gt;&#xA;&lt;li&gt;这就形成了 $K$ 次&lt;strong&gt;串行依赖&lt;/strong&gt;&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;另外，FutureX 的世界模型是由&lt;strong&gt;一叠 Transformer 层&lt;/strong&gt;构成的，比 World4Drive 的轻量级 MLP 更厚重。&lt;/p&gt;&#xA;&lt;hr&gt;&#xA;&lt;h2 id=&#34;八总结&#34;&gt;八、总结&#xA;&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;FutureX 打破了端到端自动驾驶&amp;quot;只见树木不见森林&amp;quot;的局限，通过引入&amp;quot;自动切换&amp;quot;的&amp;quot;隐式思维链世界模型&amp;quot;，让AI学会在脑海中试错，从而在现实中开得更稳、更安全！&lt;/strong&gt;&lt;/p&gt;&#xA;&lt;h3 id=&#34;形象比喻&#34;&gt;形象比喻&#xA;&lt;/h3&gt;&lt;ul&gt;&#xA;&lt;li&gt;&lt;strong&gt;World4Drive&lt;/strong&gt; 是在茫茫大海上扔了 10 个救生圈，看哪个飘得近。&lt;/li&gt;&#xA;&lt;li&gt;&lt;strong&gt;FutureX&lt;/strong&gt; 是已经划着船到了岸边，然后用望远镜（世界模型）看清了暗礁，最后精准地推了一下舵。&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;&lt;strong&gt;目前的榜单告诉我们：现在的 AI 划船技术已经够好了，它们现在更缺的是那副望远镜。&lt;/strong&gt;&lt;/p&gt;&#xA;&lt;hr&gt;&#xA;&lt;h2 id=&#34;相关论文&#34;&gt;相关论文&#xA;&lt;/h2&gt;&lt;ul&gt;&#xA;&lt;li&gt;[[World4Drive]] - 多线评估的对比论文&lt;/li&gt;&#xA;&lt;li&gt;[[TransFuser]] - 基础 Backbone&lt;/li&gt;&#xA;&lt;li&gt;[[LTF]] - 基础 Backbone&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;</description>
        </item></channel>
</rss>
