Deepseek-R1 引爆海内外 AI 界 —— 其开源协议下接近人类专家水平的推理能力,让企业级 AI 应用真正进入 "智力无需妥协" 时代。但动辄数百万的硬件投入、复杂的集群部署、高昂的运维成本,让很多企业对本地化部署望而却步。
趋境科技以突破性的技术创新,推出 AI 大模型推理软硬一体工作站,让推理门槛降低 10 倍,实现 AI 私有化部署的极致性价比,打造高效、安全且经济的业界标杆级解决方案。
产品四大革新重新定义企业级 AI 部署
仅用传统部署方案成本的 10%,获得顶尖大模型的能力
传统方案需数百万的硬件投入,趋境科技通过自研推理框架 + 异构算力优化,将 DeepSeek-R1 / V3 满血版的部署成本压缩至数十万级。单台塔式工作站即支持 671B 参数模型的流畅推理。
在工作站中,还能够同时对外提供 Qwen 2.5 72B、Qwen 2.5 32B 以及 671B DeepSeek R1 三个模型的服务。而且在三个服务同时开启的情况下,运行 671B DeepSeek-R1,也能够达到 286 token / s 的预填充和 14 token / s 的生成速度,比开源版本的 llama.cpp 最高快 28 倍。
开箱即用,简单部署,无需进机房
工作站采用液冷散热与软硬一体设计,让工作站安静无噪、无需专业机房,甚至可置于办公室角落。企业从开箱到上线仅需几小时,彻底摆脱传统私有云部署的复杂调试与运维负担。
异构算力释放极致性能
采用业界首创的推理架构,在单张 4090 显卡上实现业界 5 倍以上的推理效率。即使面对 DeepSeek-R1 满血版的复杂任务,也能稳定支撑,尤其对于需要处理上万级 Token 上下文的长序列任务(比如大规模代码库分析)来说,这相当于是从“分钟级等待”瞬间迈入“秒级响应”,CPU 的算力潜能得到彻底释放,让中小团队以“轻量级”硬件获得“智算中心级”的推理能力。
国产芯片兼容生态闭环
趋境 AI 大模型推理软硬一体工作站还深度整合英伟达、昇腾等多种芯片,实现从指令集到应用层的全栈优化。
业界首创的技术支撑
以 DeepSeek-R1 为代表的强稀疏化 MoE 模型需要全新的私有化架构设计,趋境科技通过底层架构创新,开创软硬协同的“智算”新范式:
全系统异构协同:通过算力划分和高性能算子,将来自存储、CPU、GPU、NPU 的算力高效融合,充分释放全系统的存力和算力,提升大模型推理性能,实现系统级能效跃升。
以存换算:利用存储空间,为大模型加入处理缓存记忆的能力,面对全新的问题也可以从历史相关信息中提取可复用的部分内容,与现场信息进行在线融合计算,进而降低计算量。突破传统计算瓶颈,让存储带宽转化为有效算力。
“AI 民主化不是降低智力标准,而是重构技术边界。我们让每个勇于创新的团队,都能平等获得这个时代最顶尖的 AI 生产力。”—— 趋境科技
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。