阿里发布万亿参数AI大模型M6,相比英伟达、谷歌算力消耗降八成
6月25日,阿里巴巴达摩院发布“低碳版”巨模型M6,在全球范围内首次大幅降低万亿参数超大模型训练能耗。通过一系列突破性的技术创新,达摩院团队仅使用480卡GPU,即训练出了规模达人类神经元10倍的万亿参数多模态大模型M6,与英伟达、谷歌等海外公司实现万亿参数规模相比,能耗降低超八成、效率提升近11倍。
大模型将成下一代人工智能基础设施,在AI界已成共识。与生物体神经元越多往往越聪明类似,参数规模越大的AI模型,往往拥有更高的智慧上限,训练大模型或将让人类在探索通用人工智能上更进一步。然而,大模型算力成本也相当高昂,很大程度阻碍了学界、工业界对大模型潜力的深入研究。
针对这一难题,达摩院及阿里云等团队改进了MOE(Mixture-of-Experts)框架,创造性地通过专家并行策略,大大扩增了单个模型的承载容量。同时,通过加速线性代数、混合精度训练、半精度通信等优化技术,达摩院团队大幅提升了万亿模型训练速度,且在效果接近无损的前提下有效降低了所需计算资源。
相比此前英伟达使用3072 A100 GPU实现万亿参数、谷歌使用2048 TPU实现1.6万亿参数大模型,此次达摩院仅使用480卡V100 32G GPU就实现了万亿模型M6,节省算力资源超80%,且训练效率提升近11倍。
同时,达摩院此次发布的M6巨模型,成为国内首个实现商业化落地的多模态大模型。M6拥有超越传统AI的认知和创造能力,擅长绘画、写作、问答,在电商、制造业、文学艺术等诸多领域拥有广泛应用前景。
据了解,经过一段时间的试用,M6将作为AI助理设计师正式上岗阿里新制造平台犀牛智造,通过结合潮流趋势进行快速设计、试穿效果模拟,有望大幅缩短快时尚新款服饰设计周期。M6还已应用于支付宝、淘宝等平台,参与跨模态搜索、文案撰写、图片设计等工作。
达摩院资深算法专家杨红霞表示,“接下来,M6团队将继续把低碳AI做到极致,推进应用进一步落地,并探索对通用大模型的理论研究。”
今年以来,阿里在超大规模预训练模型领域屡出成果。除发布多模态巨模型M6外,阿里巴巴达摩院近期还发布了中文社区领先的语言大模型PLUG,实现了在AI大模型底层技术及应用上的深入布局。
相关文章
- 解析如何提高SQL Server 的安全性
- 数据迁移的细节决定成败
- 改善数据中心布线的技巧
- 探寻数据中心能效问题的症结所在
- 两种方法完成Access数据库转Excel工作簿
- CYQ.Data数据框架的性能评测
- 惊讶?调查显示甲骨文对开源不利
- 深度解读数据中心虚拟化的网络挑战
- Win 7下SQL Server不能连接的一个案例解决
- 新一代数据中心H3C是支撑云计算的基础平台
- 专家分析关于虚拟化云产品的疑问(上)
- EXCEL构建财务分析数据库
- SQL Server资源管理之内存管理篇(下)
- SQL Server 2008内存及I/O性能监控
- 惠普和微软携手推出多种商业智能应用服务
- Linux下安装MongoDB
- 在Analysis Services项目中定义数据源视图
- 如何启动SQL Server实例(sqlservr.exe)
- IBM BAO助箭牌中国精准预测尝“甜”头
- 如何安装SQL Server 2008 R2(安装程序)