阿里云CTO 周靖人:魔搭社区将成“大模型自由市场”
- 来源:电脑报 smarty:if $article.tag?>
- 关键字:阿里云,市场,发展 smarty:/if?>
- 发布时间:2023-08-04 11:22
记者 吴新
7 月6 日~8 日,以“智联世界,生成未来”为主题的 2023 世界人工智能大会(WAIC2023)在上海举行。大会邀请了国内外人工智能领域的顶尖科学家和企业家,包括4 位图灵奖得主、1 位诺贝尔奖得主、80 余位院士、50 余位企业领军人才等,共同分享他们的研究成果和创新思想,为人工智能的发展提供智慧和引领。
除了特斯拉CEO 埃隆·马斯克在开幕式连线时预言“未来机器人将多于人类”, 本届大会还汇聚了 30 多个大模型展出亮相。阿里云通义千问、商汤日日新大模型、科大讯飞的讯飞星火认知大模型、华为云盘古大模型等齐聚世博展览馆,成为本届大会上的亮点。
在蓝厅论坛,电脑报记者倾听阿里云的演讲主题。CTO 周靖人在演讲中表示:“阿里云将把促进中国大模型生态的繁荣作为首要目标,向大模型创业公司提供全方位的服务,包括最强大的智能算力和开发工具,并在资金和商业化探索方面提供充分支持。阿里云魔搭社区现已聚集180 万AI 开发者和由20 多家顶尖人工智能机构贡献的900 多个优质AI 模型,找大模型上魔搭,我们将努力把魔搭社区培育成中国最大的‘大模型自由市场’。”
阿里云是业内最早布局大模型的科技公司之一,也是全球为数不多拥有超万亿参数大模型研发经验的机构,其自研的通义系列大模型已发展成涵盖多个模型和产品的家族。2022 年,阿里云在国内首倡MaaS(ModelasaService,模型即服务)理念,提出以AI 模型为核心的开发范式,并搭建了一套以AI 模型为核心的云计算技术和服务架构,积累了丰富的大模型研发经验、工具和平台,这套能力将全部向大模型初创企业和开发者开放,提供包括模型训练、推理、部署、精调、测评、产品化落地等在内的全方位服务。
在基础设施层,阿里云拥有国内最强的智能算力储备,阿里云的智算集群可支持最大十万卡GPU 规模,承载多个万亿参数大模型同时在线训练,为大规模AI 集群提供无拥塞通信的自研RDMA 网络架构和低成本高可靠的高性能存储CPFS。
在AI 平台层,以机器学习平台PAI 为核心的PaaS 服务可支持万卡的单任务分布式训练规模,覆盖全链路AI 开发工具与大数据服务,AI 训练效率提升可达10 倍,推理效率提升可达6 倍。
阿里云的灵积模型服务平台,将面向所有业界模型开放。平台建设了一系列自动化的模型上云统一工具链路,支持模型的自主接入,所有接入灵积平台的模型都能自动获取平台的强大服务能力,包括基于阿里云强大算力的跨区域自适应弹性能力,并提供基于云原生的公共部署以及用户自定义独占部署等多种形式,来满足不同模型的需求。灵积平台还积累了模型自适应推理优化和高效微调训练的能力,并提供了基于插件进行模型能力拓展的系统框架。通过灵积,丰富多样化的模型不仅能通过推理API 被集成,也能通过训练微调API 实现模型定制化。对于AI 开发者而言,这些不同模型的能力都能通过统一的SDK 方便地获取并集成到自己的AI 应用中去。当前灵积平台上托管了包括通义千问、ChatGLM-v2、百川、姜子牙、Dolly 等在内的业界领先大语言模型。
在开发者生态层,阿里发起的AI 模型社区魔搭集聚了180 多万AI 开发者和900 多个优质AI 模型。模型贡献者基本覆盖国内大模型赛道核心玩家,如百川智能、哔哩哔哩、IDEA 研究院、兰丁股份、澜舟科技、openBMB 社区、启智社区、清华TSAIL、RWKV、深势科技、WeNet 社区、元语智能、浙江大学、智谱AI 等(排名不分先后),他们贡献了30多个10 亿以上参数规模大模型。
在魔搭这个自由市场,所有模型生产者都可上传模型,验证模型的技术能力,探索模型的应用场景和商业化模式。魔搭社区打通了与灵积平台的部署链路,支持社区的模型通过灵积来实现服务化。为进一步降低大模型使用门槛,阿里云在大会现场推出了一款智能工具魔搭GPT(ModelScopeGPT),它能接收用户指令,通过“中枢模型”一键调用魔搭社区其他的AI 模型,大小模型协同完成复杂任务。这是国内首款大模型调用工具。
魔搭GPT 现已能够调用魔搭社区十多个核心AI 模型的API,未来随着更多模型API 的加入,魔搭GPT的能力也将不断增强。构建这一模型调用工具的数据集和训练方案将会对外开放,供开发者自行使用,开发者可以根据需要对不同的大模型和小模型进行组合。
