作者 | 本一
编辑 | 德新
智驾芯片下半场
北京车展,黑芝麻智能展台上,一块开发板正在跑千问大模型。没有通过云端 API 调用,是端侧在进行实时推理。
基于A2000的千问VLM大模型交互演示
|图片来源:大蒜粒拍摄
大语言模型跑在一颗还没正式量产的车规级芯片上,对话响应流畅得让人一时间忘了这不是一台服务器。旁边的屏幕上,同一颗芯片搭载的自研一段式端到端算法正在做城市 NOA 演示:一键出发,穿越路口、变道、绕行,直达终点。
这颗芯片叫华山 A2000。
对黑芝麻智能来说,A2000 不是产品线上的又一次常规迭代。A1000 用了五年时间证明“国产智驾芯片能量产上车”,武当 C1200 用舱驾一体方案打开了中端市场。
但 A2000 要回答的是一个完全不同量级的问题:在智驾芯片的高端牌桌上,黑芝麻能不能坐下来和高手们一起打牌?
一家芯片公司的生存术
2020 年对黑芝麻而言,是一个特殊的窗口年。
中国车企集体向智能化转型,但供应链还没准备好。全球缺芯危机让车企开始认真考虑本土替代的问题。
黑芝麻智能的 A1000 系列就是在这个窗口期进入密集的量产阶段。作为国内首款支持 L2+ 级辅助驾驶的车规级芯片平台,先后进入了比亚迪、吉利、东风、一汽、上汽、江汽的供应链体系,以及合作的 Tier 1 供应商,博世、安波福、大陆集团、德赛西威,同样十分有分量。
华山A1000芯片|图片来源:大蒜粒拍摄
A1000 导入量产车型的速度有多快呢?
领克 08 的高速 NOA 方案基于 A1000 开发,当时从项目启动到量产落地只花了 12 个月的时间。这已经不是一个“能不能做”的问题,而是一个“多快能做完”的问题。芯片公司在车企端最难建立的信任,这往往不是「技术参数」主导的,而要靠「工程交付能力」说话。
2023 年,黑芝麻推出武当 C1200 家族,切入舱驾一体赛道,希望用一颗芯片同时跑座舱和智驾的功能。两年的时间过去了,东风天元智舱 Plus 平台搭载了武当 C1296,成为首个本土量产的舱驾一体方案,首批搭载车型东风奕派 007 已经量产上车,2026 到 2027 年还有更多车型陆续上市。
搭载了武当C1296芯片的东风天元智舱 Plus 平台
|图片来源:黑芝麻智能
2025 年黑芝麻智能营收增长 73.4%。
2026年,随着 A1000 进入成熟期、武当系列放量、以及并购 Eeasy Tech 补齐低端产品线后带来的增量,黑芝麻的全系芯片产品年出货量有望从百万级跨越到千万级。
2024 年港股上市,2026 年完成中国 AI 芯片领域首个并购,节奏不算慢。
但这些都是「能上车」的故事。A2000 要讲的,是「在高端市场也能打」的故事。
一颗为「未来模型」设计的芯片
芯片行业存在着一条残酷的时间定律:一颗车规级 AI 芯片从定义、设计、流片到量产,通常至少需要 3 到 4 年。这意味着今天量产的芯片,它的核心架构早在 3 - 4 年前就锁定了。
A2000 的架构定义是在 2021 年前后定下来的。那时候,端到端的智驾还是学术论文里的概念,VLA(视觉-语言-动作)模型和世界模型更是几乎不存在于现实的工程讨论中。
但单记章和黑芝麻的芯片团队当时就判断:下一代智驾的核心不再是传统的「感知 - 规划 - 控制」的架构,而是大模型直接处理从感知到动作的全链路流程。A2000 需要为这种行业的新范式做准备。
图片来源:黑芝麻智能
当初黑芝麻团队的判断,在今天已经成为行业共识。
理想从端到端切换到 VLA 路线,小鹏内部迭代到了二代 VLA 方案,地平线的 HSD 也在走端到端路径。
单记章在今年 4 月的智能电动汽车高层论坛上说得更直接:「VLA 配合世界模型,有望使自动驾驶能力超越人类驾驶员。世界模型可以推演未来 5 到 10 秒内各个目标的交互轨迹,这不是简单的算力堆叠能解决的,而是架构级别的重构。」
所以 A2000 到底重构了什么?很简单:四款芯片,一个技术底座。
A2000 家族包含四个型号:A2000N(200TOPS,座舱 AI 和极致性价比城市 NOA)、A2000L(400TOPS,高阶城市NOA)、A2000U(700TOPS,全场景通识智驾)、A2000X(1000TOPS旗舰,面向L3/L4和Robotaxi)。
图片来源:黑芝麻智能
四款芯片基于同一技术架构,区别只在算力档位。支持芯片间高速互联,多芯组合可以把算力推到数千 TOPS,为 L4 预留了扩展接口。
4 月 24 日,北京车展的媒体发布会上,黑芝麻发布基于 FAD 2.0 开放平台打造的「FAD 天衍」L3级自动驾驶平台。它基于两颗 A2000U 芯片(单颗700TOPS),通过高速互联实现双芯片互为冗余,单域控制器即满足 ASIL-D 等级要求。FAD 2.0 开放平台 2026 年初面世,由华山 A2000 家族高算力计算平台、配套软件 SDK、山海 AI 工具链、端到端/VLA 参考模型及第三方算法模型组成,是面向全场景通识智驾打造的准量产级开放平台。
值得一提的是,FAD 天衍面向 2027 年 7 月即将实施的《智能网联汽车自动驾驶系统安全要求》国家强制标准做了预埋,感知、规划、控制模块均部署双冗余或异构算法,两套算法可同时运行并实时比对。
德赛西威华山双 A2000 FAD 天衍L3自动驾驶域控制器
|图片来源:大蒜粒拍摄
「L3 是从人为主到机器为主的转变点」,单记章说,所以黑芝麻的团队专门做了这个平台。A样已经在跑,开发板 ready,A2000 的量产故事不只是「芯片可用」,从域控平台到法规层面适配的准备也已经到位了。
一个芯片家族产品想要覆盖从座舱到 Robotaxi 的全智能驾驶场景,听起来野心不小。算力数字本身其实不重要,A2000 在架构层面做的几件事,才是最值得关注的。
1. 九韶 NPU:不拼纸面算力,拼实际效能
芯片行业有一个公开的秘密:标称算力和实际跑模型时的有效算力之间,往往有不小的差距。其中一个常见的原因是,芯片存在多核同步开销的问题,也就是说多个计算核心协同工作时,光是「对齐步调」就会消耗大量时间和能量。
图片来源:黑芝麻智能
A2000 搭载的九韶 NPU 采用了一种叫做「Unique AI运算设计」的架构,能够消除这种同步开销,让标称算力尽可能等于实际算力:「同等算力下功耗更低、精度不减、吞吐最高」,不追求纸面上 TOPS 数字最大,而是追求同样 TOPS 下跑模型跑得最快、最省电。
当然精度支持也更关键。九韶 NPU 全链路支持 INT4、INT8、FP8、FP16、FP32 混合精度,FP16 模型不需要量化就能直接运行。
大模型不同层对精度的需求天然不同。Transformer 的 Attention 层通常需要 FP16 保底,感知 Backbone 可以用 INT8,大语言模型的部分层可以 INT4 量化。如果芯片只针对某一种精度优化(比如偏向 INT8),部署大模型时就需要额外的量化工程,量化又意味着精度损失和开发时间。A2000 的全精度原生支持,让算法团队训练好的模型可以更直接地部署到车上。
九韶 NPU 同时对 Transformer 类模型做了硬件级加速。不是加速矩阵乘法(所有 NPU 都会这么做),而是对 reshape、transpose、grid_sample 这些「非计算类算子」做了硬加速,并且调整了指数运算单元与 MAC 运算单元的比例。
这些看起来不起眼的算子,恰恰是 Transformer 推理链路中会被卡住的性能瓶颈。计算单元算完了,但数据还卡在重排和变换上。
2. 近存计算:解决「数据搬不动」的问题
芯片算力够了,但数据从外部内存搬到计算单元的速度跟不上,计算单元空转等数据。这是业内俗称的「内存墙」,是当前所有高算力芯片面临的共性瓶颈。
A2000 的解法是设计了近存计算架构:内置带宽高达 8TB/s 的百 MB 级专用高速片上缓存,让数据尽量留在芯片内部,不需要频繁搬到外部内存再搬回来。效果是延迟更低、功耗更低,同等算力的实际效能更高。
在自动驾驶场景中,延迟不是一个抽象的性能指标,它直接和人的安全息息相关。系统响应快几毫秒,可能就是刹车踩得住、踩不住的区别。九韶 NPU 管「算得高效」,近存计算管「喂得够快」,两者配合的核心目标只有一个:让纸面算力和实际表现之间的差距尽可能缩小。
3. 山海工具链:芯片再好,开发者用不起来就是空谈
这是整个 A2000 故事中最不性感但可能是最关键的部分。
芯片行业有一个铁律:开发者生态决定芯片命运。英伟达在智驾芯片市场的统治力,与其说来自 Orin 或 Thor 的硬件性能,不如说来自 CUDA 生态和完整工具链:几乎所有智驾算法公司都在 CUDA 上开发,迁移到任何非英伟达平台都意味着底层算子重写和模型重新调优。
黑芝麻显然清楚这一点。A2000 配套的山海 AI 工具链针对算法迁移做了几件针对性的调优:分钟级编译(传统芯片编译动辄数小时,调参迭代效率天差地别)、原生支持 Triton 算子自动化编译(降低算法工程师手动适配的工作量)、开箱即用的 Model Zoo 和性能分析工具。
工具链好不好用,不是看参数表来验证的,而是看有没有人在上面跑通了模型。
车展现场千问 VLM 大模型跑在 A2000 上实时运行,至少说明工具链已经能支撑主流大模型的端侧部署。而黑芝麻在 A1000 时代经过多个量产项目对工具链的反复打磨,为山海工具链的不断进化打好了基础。
A2000 应该坐在哪张牌桌上?
在中国这么卷的智能驾驶市场,A2000 在竞争格局中到底坐在什么位置?
目前具备量产能力或明确量产计划的高阶智驾芯片,主要玩家有英伟达(Thor)、华为(昇腾/MDC)、地平线(征程 6P,以及刚发布的星空系列和规划中的征程 7)、高通(8775P)。可供车企选择的产品阵营看似丰富,但仔细看会发现每个选项都有「附加条件」。
英伟达 Thor 是性能标杆,1000 TOPS 理论算力,生态最成熟。但在当前地缘环境下,国际芯片的供应链稳定性始终是扎在主机厂心里面的一根刺。
华为的昇腾系列和 MDC 平台技术能力不容置疑,但资源更多向鸿蒙智行合作伙伴倾斜。选择华为的软硬件一体方案,往往意味着车企需要让渡一部分研发自主权。
地平线刚在车展前发布了星空 6P 舱驾融合芯片和整车智能体操作系统咖咖虾,拿到十多家车企合作意向,战略方向明确走向「芯片+软件+方案」的整合闭环。这条路效率和体验上有天然优势,但对于自研意愿强烈的车企,它们更需要的是一个开放的算力底座。
FAD 2.0 开放平台|图片来源:黑芝麻智能
A2000 的定位恰恰弥补了这个产品空档:一个开放的、高阶智驾专用的第三方芯片平台。
而且它还手握一张额外的王牌:A2000 已获准在全球范围内销售和应用,是目前国内唯一具备全球市场准入资质的高算力智驾芯片。随着比亚迪、吉利、奇瑞大规模进入东南亚、中东、南美等国际市场,搭载 A2000 的车型可以直接跟着出海,不存在合规障碍。
黑芝麻 CMO 杨宇欣对此的判断很直接:「未来占据市场主流的,仍会是第三方独立的芯片供应商。行业越成熟,分工边界越清晰。」
他回顾了 2020 年行业重构初期的混战:车企干 Tier 1 的活,芯片公司干方案公司的活,所有人都在拼命拓展边界。但现在,产业正在重新走向分工协作。
「做一家第三方独立的芯片供应商」,黑芝麻的承诺已经吸引到了一批合作伙伴。
在L4/Robotaxi赛道,百度萝卜快跑与黑芝麻达成战略合作,共建无人驾驶生态圈。
北京车展发布会上,黑芝麻又与如祺出行现场签约,如祺计划今年在核心城市新增约 1000 台 Robotaxi,目标 2026 年 Q4 到 2027 年 Q1 推出基于 A2000 本土化芯片打造的新一代 Robotaxi 车型。杨宇欣在签约现场还宣布,今年基于 A2000 算力的 Robotaxi 试运行车辆计划在中国道路上开始运行。
如祺出行 Robotaxi 车型|图片来源:黑芝麻智能
两家头部 Robotaxi 运营方先后选择 A2000,对黑芝麻在 L4 赛道的卡位不是小事。
高阶智驾层面。元戎启行和黑芝麻建立了资本加业务的双重纽带,联合打造「芯片+算法」方案,元戎在城市 NOA 第三方供应商市场的单月市占率接近 40%;国汽智控斩获了首个 A2000 量产方案定点,对接某头部车企的 L2+ 至 L3 级智驾项目,2026 年内量产;卓驭在高阶辅助驾驶方向与黑芝麻展开合作。Nullmax 基于武当 C1236 做 8 到 15 万元价位段的主流市场方案;千问 Qwen 的 VLM 大模型已完成 A2000 端侧适配,车展现场已经实时跑起来了。
从 L4 场景(萝卜快跑,如祺出行)到高阶智驾(元戎、卓驭、国汽智控)到主流市场(Nullmax)到大模型生态(千问),A2000 的合作版图已经不是停留在纸面上的「战略签约」,而是有真实的方案开发和量产进度在推进。
图片来源:黑芝麻智能
第二曲线:从智能汽车到智能万物
如果说 A2000 是黑芝麻在智驾芯片高端市场的进攻牌,那么具身智能就是它面向未来的第二条曲线。
2025 年,黑芝麻的具身智能业务贡献了近 1 亿元营收,毛利率 48.7%。对于一个起步不到两年的新业务线来说,这条增长曲线足够陡峭。
不过有趣的是黑芝麻在机器人赛道的打法。
它没有简单复制汽车芯片「卖芯片」的业务模式,而是推出了 SesameX 多维具身智能计算平台,提供从底层通信协议、核心计算模组、操作系统、中间件到算子库的「软硬一体」方案。
Sesame X 多维具身智能计算平台|图片来源:黑芝麻智能
为什么要这么做?
杨宇欣的解释很务实。「现在机器人一个月给我几千片的量,我当然做更完整的系统更划算,对客户也是,双赢。等到机器人出货量达到一个月十几万片甚至更多,商业模式自然会变成只卖芯片。随着量的变化,我们的边界会变化。」
这背后还有一层更深的商业逻辑。机器人行业的碎片化程度远超汽车,送餐机器人、四足狗、人形机器人、工业机械臂,每个品类的形态和需求天差地别。
杨宇欣说了一句很有画面感的话:「中国的汽车产业发展了很多年,芯片公司起步晚,相当于我一岁的时候要跟一个15岁的人打交道,是仰视的。但机器人不一样,我们跟中国的机器人产业是从一岁开始共同成长的。」
黑芝麻具身智能业务合作伙伴|图片来源:黑芝麻智能
车展现场也能看到黑芝麻具身布局的最新进展:云深处绝影 X30 四足机器人、联想六足机器人搭载 SesameX 平台展出,电力巡检、应急救援、工业检测等场景的商用落地已经在推进中。
加上并购 Eeasy Tech 补齐的低端算力段(2T-10T,覆盖行车记录仪、DMS、消费机器人),黑芝麻目前的产品线从行车记录仪到 Robotaxi 再到机器人,是国内端侧 AI 场景覆盖面最广的芯片企业之一。
展台上还有个展示的概念产品,挺有意思的。
大模型上车今年太火了,黑芝麻也祭出了自己的「小龙虾」UI-agent。
你说「帮我用高德导航去北京最大的城市公园」,它自动打开高德、输入目的地、发起导航,全程模拟用户手动点击操作,不需要碰屏幕。
这不是啥哄人的 demo,而是跑在武当 C1200 上的真机演示。当然它也不是要展示什么智驾能力,而是芯片在 AI agent 方向上的可能性。当端侧算力足够强,车机交互可以从「你说一句它做一步」变成「你说一句它帮你从头到尾全部做完」。
「小龙虾」UI-agent Demo|图片来源:大蒜粒拍摄
争分夺秒的量产窗口期
A2000的真正考验还没有到来。黑芝麻官方预计 2026 年达到量产水平,2027 年真正开始规模上车。留给它的市场窗口期其实并不宽裕。英伟达 Thor 已经在给客户送样,地平线征程 6P 已经量产、星空 6P 刚拿下十几家车企合作意向,征程 7 也在规划中。
但换个角度看,这颗芯片在 3 到 4 年前定义架构的时候,VLA 和世界模型还不存在。它是目前市场上少数从设计之初就面向下一代 AI 范式的量产高算力车规级芯片。在智驾模型急速迭代的今天,一颗芯片能不能支撑未来 2 到 3 年的模型演进,可能比它标注的 TOPS 数字更重要。
智驾芯片的终局不在于谁的算力最高,而在于谁能成为车企信得过、用得起、不被锁定的长期合作伙伴。A2000 给出的答案是:开放平台、独特架构、成熟工具链以及不做算法、不与客户竞争的承诺。
这个答案是不是够好,在接下来的 12 到 18 个月里,我们会看到市场给出的真实反馈。至少在这次车展上,A2000 已经从开发版走到了真实的道路上。