时下,由于ChatGPT等因素的影响,“大模型”也日益成为人工智能领域最热门的关键词之一。而为大模型提供训练场景的AI装置、智算中心等硬件,也随之热度飙升。
4月18日,火山引擎2023Force原动力大会在上海举办。火山引擎总裁谭待表示,企业上云用云只是过程,致力于更敏捷、更前沿的智能化创新,才能拿到敏捷迭代的“果实”。面向不同场景、不同行业,火山引擎为客户提供全面的工具助力做好云上创新。
近期最重要的云上创新趋势莫过于AICG、大模型推动的智能化浪潮。随着多模态大模型的兴起,ChatGPT 2个月获取过亿用户,国内的NLP大模型以及多模态大模型创新公司也在奋力追赶。
谭待对此表示,大模型还在发展初期,面临数据安全、内容安全、隐私保护、版权保护等许多问题需要努力解决。但可以预见,大模型将带动云上AI算力急剧增长,AI算力的工作负载与通用算力的差距会越来越小,这会为各家云厂商带来新的机会,同时也会对数据中心、软硬件栈、PaaS平台带来新的挑战。
火山引擎全力支持大模型发展,不让任何创新因为算力不足而夭折。目前,火山引擎已经支持MiniMax、智谱、昆仑万维等企业在大模型领域快速发展。
据MiniMax联合创始人杨斌介绍,MiniMax与火山引擎合作建立了超大规模实验平台,实现千卡级常态化训练;超大规模推理平台有万卡级算力池,支撑单日过亿次调用。在火山引擎云上,MiniMax大模型业务实现快速突破。
谭待透露,火山引擎的大模型云平台获得智谱AI、昆仑万维等众多企业的良好反馈。国内大模型领域,七成以上已是火山引擎客户。
谭待表示,坚信未来,大模型会在各个行业内不断兴起,行业专属、企业专属的大模型百花齐放,火山引擎也会全力支持好“多云多模型”的未来架构,不让企业因为缺失计算能力而错失创新。
在会上,火山引擎发布两款AI新品,推动不同行业的云上智能创新爆发。
首先是“智能推荐-高速训练引擎”,将模型的训练推理效率进行极致优化,让企业通过云服务享受与字节推荐一样的智能推荐基础设施。据悉,火山引擎智能推荐-高速训练引擎软硬一体优化,超高速训练100GB-10TB+超大模型;同时,采用PS-Worker架构,在服务发现的基础上,支持 PS、Chief、Worker 全方位容错,基于字节内部的实践,综合成本可降低25%~67%
另外,机器学习平台的重点功能也实现了全面升级。在发布实验管理-模型效果对比功能方面,企业仅需极少代码改动,上手简单,并可以深入洞察训练过程,实时跟踪、对比训练效果,观察趋势,加速模型迭代效率。
而在弹性方面,机器学习平台则实现灵活资源调度,随用随取,助力企业敏捷迭代;同时,实现了更低的成本即可获取优质资源,离线推理成本节省达70%。
升级后的机器学习平台全面支持大模型,基于内部自研大模型训练框架为客户提供多模态、大模型、分布式训练、云端大模型瘦身优化方案;超大规模并行,支持万卡级别的训练场景,让大模型训练更稳更快。
目前,国内“大模型狂飙”如火如荼,而火山引擎提供的高速训练引擎和机器学习平台,则无疑为大模型的训练提供了更加优质的技术底座,势必将为国内大模型的加速发展提供更有力的保障。(作者:郭浩)