设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

英特尔发布 OpenVINO 2025.0:新增图像生成场景与 DeepSeek 蒸馏模型支持

2025/2/15 13:26:28 来源:IT之家 作者:清源 责编:清源
感谢IT之家网友 有鲫雪狐 的线索投递!

IT之家 2 月 15 日消息,IT之家从英特尔开发人员专区获悉,2025 年首个 OpenVINO 版本(2025.0)于 14 日正式发布,本次更新聚焦性能提升、更多生成式 AI 模型的支持,并针对英特尔神经处理单元(NPU)推出关键优化。

官方表示:OpenVINO 2025.0 版本正式支持 FLUX.1 图像生成模型(含 Dev 与 Schnell 变体),可在英特尔 CPU / GPU 上通过 GenAI 流水线运行。开发者现可通过 Optimum-Intel 导出 Flux 模型,并结合 Text2ImagePipeline 生成图像。针对 Flux 模型对精度变化非常敏感的特点,我们进行了深度优化,确保图像生成性能与准确度兼得。

例如,INT8 量化版 FLUX.1-dev 模型在应用 Yarn 风格 LoRA 前后的对比如下(提示词:"albert einstein, yarn art style",初始种子 = 420,迭代次数 = 20):

此次还加入了 Image2Image 与 Inpainting 的支持。

  • Image2Image:以图像 + 文本为输入生成新图像,提升结果可控性;

  • Inpainting:通过掩码图像替换输入图像的指定区域,支持局部内容再生。

    两种流水线均兼容 LoRA 适配器,满足定制化需求。

本次新版本在 LLMPipeline API 中引入了对提示词查找解码的预览支持,这是对推测解码的简化,它在输入提示词本身中用直接查找机制取代了传统的草稿模型。这有助于在具有高相似性的请求的情况下显著减少生成延迟。例如,通过对一组文档的问答可以观察到性能优势,因为答案将根据作为提示词本身一部分的文档来生成。

英特尔称目前正在努力支持和验证最新模型,包括 Mistral-7B-Instruct-v0.2、Qwen2.5,“当然我们也支持基于 LLama 和 Qwen 架构的 DeepSeek 蒸馏模型。”

此外,2025.0 版本首次实现 NPU 加速支持,开发者可通过 PyTorch 的 torch.compile 接口调用英特尔 NPU 算力。OpenVINO 已经在 CPU 和 GPU 上得到支持,并且在性能方面非常接近原生 OpenVINO 推理。如下为启用方式:

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:英特尔人工智能

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知