最近国产大模型 DeepSeek 的爆火, 不少开发者通过 Ollama 工具将其部署在本地服务器上。但你知道吗? 近九成 Ollama 服务器因配置疏忽, 直接暴露在公网“裸奔”! 通过网络空间测绘平台发现, 截止 2025 年 3 月 1 日, 共有 14,359 台裸奔在互联网, 其中中国境内占比最高, 攻击者可随意窃取模型、滥用算力, 甚至让服务器沦为“挖矿肉鸡”。
如何快速堵住漏洞? 别让辛苦训练的 AI 模型为他人做嫁衣。腾云悦智安全实验室为你提供 5 大必做防护措施, 手把手教你从“裸奔”到“铁桶”!
一、漏洞描述: 未授权的身份认证
Ollama 是一款开源的大型语言模型 (LLM) 本地化运行框架, 支持 DeepSeek-R1 等 1700 + 模型的高效部署与管理。近期安全研究显示, 其默认配置存在严重安全风险: 服务端口 (11434) 暴露公网且无身份认证机制时, 攻击者可远程调用高危 API 接口进行未授权操作。
腾云悦智安全实验室已对该漏洞成功复现
二、风险速览: 你的服务器可能正在被“白嫖”!
模型资产遭窃: 攻击者可调用 / api / push 接口, 将私有模型直接导出到远程服务器, 核心 AI 资产秒变他人囊中之物。
算力疯狂被薅: 未授权接口可被恶意调用模型推理功能,GPU 资源被占满, 轻则服务瘫痪, 重则云服务器账单暴涨。
系统沦为跳板: 利用路径遍历漏洞 (如 CVE-2024-37032), 攻击者可覆盖系统文件并执行任意代码, 进一步入侵内网。
三、紧急措施: 立即封锁公网暴露!
步骤一: 关闭“敞开的大门”
本地服务用户: 在启动 Ollama 时添加环境变量, 仅允许本机访问:
bash
OLLAMA_HOST=127.0.0.1 ollama serve
必须公网开放时, 通过防火墙限制 11434 端口仅允许可信 IP 访问, 拒绝 0.0.0.0 全开放。
步骤二: 升级! 升级! 升级!
Ollama 旧版本存在远程代码执行 (CVE-2024-37032)、路径遍历 (CVE-2024-45436) 等高危漏洞。立即执行:
bash
ollama update #升级至最新 0.1.34 + 版本
注:0.1.34 以下版本必须升级, 否则服务器分分钟被黑。
四、核心加固: 给 API 加把“双重锁”!
第一把锁: 反向代理 + 密码认证
用 Nginx 为 Ollama 添加 Basic Auth 认证, 示例配置如下:
nginx
location / {
proxy_pass http://localhost:11434;
auth_basic "Ollama Admin";
auth_basic_user_file /etc/ nginx/.htpasswd; #生成密码文件:htpasswd -c .htpasswd admin
allow 192.168.1.0/24; #限制内网 IP 段
deny all;
}
重启 Nginx 后, 访问需输入账号密码 + IP 白名单, 双重保险。
第二把锁:HTTPS 加密防监听
申请免费 SSL 证书 (如 Let’s Encrypt),Nginx 配置强制 HTTPS:
nginx
server {
listen 443 ssl;
ssl_certificate /path/to/fullchain.pem;
ssl_certificate_key /path/to/privkey.pem;
#其余配置同上
}
杜绝数据在传输中被窃取, 尤其涉及敏感模型参数时。
五、长效防护: 安全运维指南
修改默认服务端口: 将服务端口修改为非常用的 TCP 端口, 减低被扫描风险。
日志监控: 定期检查 Nginx 访问日志, 封禁异常 IP (如频繁尝试爆破密码的地址)。
模型来源审核: 仅从 DeepSeek 官网或可信渠道拉取模型:
bash
ollama run deepseek-r1:14b #官方认证模型
定期漏洞扫描: 使用各类漏扫软件或人工进行漏洞发现。
只需半小时完成上述操作, 即可让 Ollama 服务器从“高危裸奔”进阶为“企业级防护”。
腾云悦智科技 (深圳) 有限责任公司, 是中国领先的云计算与人工智能综合服务提供商, 创立于 2019 年 1 月, 专注于为企业客户提供专业的公有云、私有云、混合云等云计算及大数据、人工智能等专业技术服务。
悦智安全实验室为您提供专业安全风险评估与加固服务, 深度检测隐患漏洞, 构建全维度防护体系, 让潜在威胁无处藏身, 为您的数字资产打造铜墙铁壁级安全保障。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。