日前, 香橙派官方发布 OrangePi AIpro (20T) 运行 Deepseek-R1 蒸馏模型实操指南, 帮助用户通过先进算力和硬件架构实现高效的端侧智能。
OrangePi AIpro (20T) 是香橙派联合昇腾 AI 打造的高算力开发板, 根植于昇腾 AI 技术, 集 AI 计算、ISP、图形输出等功能于一体, 释放高达 20 TOPS 的 AI 算力。可配 24GB 运行内存, 汇聚了 MIPI DSI、双 MIPI CSI、USB3.0、Type-C、双 HDMI2.0、双 2.5G 以太网、支持 SATA / NVMe SSD 2280 的 M.2 插槽等各类流行的接口。OrangePi AIpro (20T) 依托昇腾 AI 基础软硬件能力的基础, 融合大模型与训推一体化优势, 实现端边云全场景无缝部署, 是构建昇腾计算产品、使能上层软件和应用的底座, 有高算力、高能效等特性。
该产品广泛应用于 AI 边缘计算、深度视觉与视频流分析、自然语言处理、智能机器人 (如小车、机械臂)、无人机、云计算、AR / VR、智能安防及家居等 AIoT 全领域, 引领行业智能化转型。
基于昇腾硬件底座、昇腾异构计算架构 CANN、昇思 Mindspore AI 框架以及 MindlE 推理引擎, 用户可以通过 OrangePi Alpro (20T) 开展面向金融、教育、政务、智能制造、智能家居、智慧交通等行业的人工智能应用开发。
OrangePi AIpro (20T) 运行 Deepseek-R1 蒸馏模型
据了解,DeepSeek-R1 专为数学、代码生成和复杂逻辑推理任务设计, 通过大规模强化学习 (RL) 提升推理能力, 还摒弃监督微调 (SFT), 采用纯强化学习 (GRPO 算法) 训练基座模型。同时,DeepSeek-R1 提供了高效模型蒸馏技术, 可将大规模模型能力迁移至更小、更高效的版本, 优化模型性能、开源应用。经蒸馏后的 DeepSeek-R1 模型支持部署于端侧, 大幅降低计算资源需求, 显著提升端侧设备的 AI 推理效率。
除 OrangePi AIpro (20T) 之外, 迅龙软件也发布了 OrangePi AI Studio、OrangePi 5Plus 运行 Deepseek-R1 蒸馏模型的实操指南。迅龙软件表示, 未来将继续加大研发投入, 携手行业伙伴, 推动不同算力等级的开发板与 DeepSeek 等优质模型相结合, 进一步降低端侧 AI 的门槛, 为客户创造更大的 AI 价值。
实操指南
DeepSeek-R1-Distill-Qwen-1.5B1) 下载最新的 desktop 版本镜像。
2) 执行以下命令启动推理。
3) 第一次启动会自动下载模型, 具体时间视网络环境而定, 模型会被下载到“~/orange-pi-mindspore/Online/17-DeepSeek-R1-Distill-Qwen-1.5B/.mindnlp/model/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B/”文件夹内。
4) 推理代码默认在启动的时候会检查相关的依赖, 此时如果网络环境不好, 会导致无法启动。如果不是第一次启动, 且模型已经下载完成, 可以按照下图所示, 修改 tokenizer 和 model 参数, 将路径改成本地绝对路径, 这样就可以离线启动了。
5) 等待一会, 会出现一个 ip, 复制到开发板上的浏览器的地址栏访问。
6) 启动后, 可在页面下方消息输入框“Type a message…”中输入任何问题, 或者点击下方 Examples 中设置好的问题, 然后点击右侧的“Submit”按钮,Qwen 模型将对此进行回答。
7) 第一次回答需要较长时间加载, 大约需要 1 分钟, 请耐心等待。回答将显示在上方聊天框中。
8) 如果出现 Error, 可以点击“retry”按钮重新发送上一条消息, 并让模型重新回答; 点击“undo”按钮可撤回上一条消息; 点击“clear”按钮将清空聊天框中的对话。
9) 输出结果如下图所示:
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。