近日,由全球数字经济大会组委会主办,中国信通院、中国通信企业协会承办的 2024 全球数字经济大会云・AI・计算国际合作论坛在北京成功召开。大会汇聚众多行业专家,以“智启云端算绘蓝图”为主题,深入探讨在人工智能高速发展的大背景下,软件工程的智能化变革进程。会上,作业帮荣获 2 项大奖,作业帮《多地域异构资源管理和算力网络》荣获“2024 年 AI Cloud Platform 典型案例”,《作业帮 Al-Devops 效能平台》荣获“2024 年软件智效领航者典型案例”。
随着 AI 飞速发展,需求量激增,其算力分布呈现紧缺。作业帮提交的“多地域异构资源管理和算力网络”赋能大模型项目场景化和工程化落地,旨在通过平台化和工程化手段建设多地域算力网络,从资源管理、流量调度、模型安全、迭代效率四个维度出发,结合自研的调度组件,流量调度平台,大模型全链路加解密方案和多地域模型分发系统,充分利用分散的算力资源,降低大模型项目场景化和工程化落地的门槛,提高模型安全性,加速模型迭代效率。
平台的核心优势是落地一套跨地域的资源管理和算力网络方案,实现了重平台、轻服务的模式,将资源管理、流量调度、安全等下沉至基础架构层面,使得研发专注于模型本身的迭代,降低大模型项目工程化门槛,该平台支撑了作业帮内部多个算法团队几十个在线大模型服务,场景化涵盖了问答机器人、智能体、多模态等多种形态,为 AI 能力场景化和工程化提供了强有力的支撑。
随着云计算与人工智能技术的深度融合,特别是大模型技术的飞速发展,软件研发领域正经历着前所未有的变革,企业数字化转型进入“跑步加速阶段”。作业帮 AI-Devops 效能平台通过平台、流程、人的有机结合来赋能项目交付。基于作业帮完善的基础架构设施建设,包括容器化、多云多活、服务观测数据底座等,涵盖从本地开发、测试环境、CICD、线上服务观测、线上问题排查等项目交付的全流程关键节点。
该项目中,针对大模型项目与传统项目的差异点,通过容器化、非对称加密、多地域镜像预热及分发等技术来提升大模型项目的创建及部署效率,同时保障模型的密文传输防止泄露,向上支撑公司对 AI 技术的探索,目前已接入上百个多云大模型项目,部署效率提升 50%。
其次,通过大模型技术赋能线上问题排查场景,基于内部文档系统及历史沉淀的问题排查数据,实现系统功能咨询问答、基于请求及时间范围的问题根因分析、问题系统上下游负责人拉齐等功能。
作业帮技术负责人表示,随着云技术和人工智能的紧密结合,尤其是大型模型技术的快速进步,软件开发领域正在经历一场革命性的转变。软件工程正向分布式架构、高度自动化的流程和更加智能的应用方向发展。作业帮将坚持技术驱动,赋能 AI 项目迭代的同时在项目交付的各个流程积极引入 AI 技术,为降本、增效、提高稳定性持续贡献力量。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。