阿里云的“魔搭社区”近日上线了一项名为Live Portait的新功能。用户只需上传一张照片和一段文本或语音,就能生成一段仿佛照片中的人物在开口说话的数字人视频。在应用界面,用户可以上传形象照片,并选择文本驱动(100字以内)或音频驱动,提供28种声音选择。如果唇齿生成不清晰,可以选择开启“唇齿修复”功能。此外,用户还可以设置眨眼频率,范围在0-4之间,0代表不眨眼。设置完成后,上传的图片就可以像视频一样进行播报,可应用于视频直播、聊天机器人、企业营销等场景。 据悉,Live Portait的相关技术已被CVPR、ICCV等国际AI顶会收录。此外,魔搭社区在本月初上架了两款开源模型Qwen-7B和Qwen-7B-Chat,阿里云确认这两款模型分别是通义千问70亿参数通用模型和对话模型,均为开源、免费、可商用。其中,Qwen-7B是支持中、英等多种语言的基座模型,而Qwen-7B-Chat则是基于基座模型的中英文对话模型。 据公开资料显示,魔搭是阿里达摩院与中国计算机学会(CCF)开源发展委员会在2022年联合推出的国内首个AI模型开源社区,已经向中国的AI研究者与团队开放了300多个模型,涵盖了自然语言处理,视觉、语音、多模态等模型。