IT之家 12 月 14 日消息,距离 POINT1.0 的发布已经过去两个月的时间,腾讯今天宣布推出 POINTS1.5。
IT之家注意到,POINTS1.5 仍然沿用了 POINTS1.0 中使用的经典的 LLaVA 架构,由一个 vision encoder,一个 projector 和一个大语言模型组成。
据官方介绍,这一代 POINTS 模型,不仅兼顾了 POINTS1.0 中所坚持的效率优先的思想,同时极大了增强了模型的性能。
腾讯表示,POINTS1.5-7B 位居全球 10B 以下开源模型的榜首,超越诸如 Qwen2-VL, InternVL2 和 MiniCPM-V-2.5 等业界领先的模型。
实际应用方面,POINTS1.5 在复杂场景的 OCR,推理能力,关键信息提取,Latex 公式提取,数学,图片翻译,物体识别等几个方面中都有不错的表现。
参考资料:
Paper: https://huggingface.co/papers/2412.08443
Github: https://github.com/WePOINTS/WePOINTS
HuggingFace: https://huggingface.co/WePOINTS/POINTS-1-5-Qwen-2-5-7B-Chat
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。