IT之家 12 月 30 日消息,黑芝麻智能今日宣布推出其专为下一代 AI 模型设计的高算力芯片平台 —— 华山 A2000 家族。
华山 A2000 家族包括 A2000 Lite、A2000 和 A2000 Pro 三款产品,分别针对不同等级的自动驾驶需求:
A2000 Lite 专注于城市智驾
A2000 支持全场景通识智驾
A2000 Pro 为高阶全场景通识智驾设计
A2000 家族的芯片集成了 CPU、DSP、GPU、NPU、MCU、ISP 和 CV 等多功能单元,实现了高度集成化和单芯片多任务处理的能力;新一代 ISP 技术,具备 4 帧曝光和 150dB HDR,在隧道和夜间等场景下表现更好,提升了图像处理能力。
此外,A2000 家族单芯片数据闭环的设计,使得数据在智驾功能正常运行的同时能够实现全车数据的脱敏、压缩、编码和存储。
A2000 家族算力最大是“当前主流旗舰芯片的 4 倍”,原生支持 Transformer 模型。A2000 家族的灵活扩展性,允许多芯片算力的扩展,以适应不同级别的自动驾驶需求,产品组合全面覆盖从 NOA 到 Robotaxi 应用场景。
此外,华山 A2000 家族芯片不仅能用于智能汽车领域,还能够支持机器人和通用计算等多个领域。值得一提的是,A2000 芯片能够满足机器人的“大小脑”需求,推动机器人产业从原型开发阶段迈向大规模量产。
IT之家从公告获悉,黑芝麻智能推出了自研 NPU 新架构 —— 黑芝麻智能“九韶”,九韶是黑芝麻智能为满足自动驾驶技术需求而推出的 AI 芯片的计算核心,支持新一代通用 AI 工具链 BaRT 和新一代双芯粒互联技术 BLink。
九韶 NPU 采用了大核架构,支持智驾大模型的实时推理,支持包括 INT8 / FP8 / FP16 在内的混合精度,集成了针对高精度精细量化和 Transformer 的硬加速,能够简化开发者在量化和部署过程中的工作。
此外,九韶 NPU 还具备低延时和高吞吐的三层内存架构,包括大容量高带宽的 NPU 专用缓存、核心模块片内共享缓存,以及对称的双数据通路和专用 DMA 引擎。提升了性能和有效带宽,降低了对外部存储带宽的依赖。
为了发挥九韶 NPU 的潜力,黑芝麻智能研发了新一代通用 AI 工具链 BaRT。BaRT 支持多种流行框架和模型的转换,原生兼容 PyTorch 的推理 API,支持 Python 编程部署。这使得开发者能够更加便捷地利用九韶架构进行 AI 模型的开发和部署。
BaRT 的另一个优势是支持业界主流的 Triton 自定义算子编程,允许开发者使用 Python 语言编写 Triton 自定义算子,这些算子可以被自动化编译成硬件加速代码,从而进一步加速开发者 AI 模型的部署。
为了满足不同等级自动驾驶的算力需求,新一代双芯粒互联技术 BLink 支持 Cache 一致性互联的高效 C2C(Chip-to-Chip)技术,能够扩展支持更大规模模型的算力需求,为算法长期演进做好准备。
通过 BLink 技术,A2000 家族芯片能够实现软件单 OS 跨片部署,支持高带宽 C2C 一致性连接,满足 NUMA 跨芯片访存要求,简化软件开发和部署的难度。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。