2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ 备案号:
本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。
邮箱:toplearningteam#gmail.com (请将#换成@)
AI已经在全球引发一股热潮,让人们不可忽视的潜在最大的阻力就是算力不足,算力属于AI发展过程当中最基本的设施,打造一个AI大模型,是需要对数据集中重复的处理,也就意味着算力的大小直接代表数据能力强与弱。从2012年开始,全球AI训练所需要的指数处于增长趋势,3~4个月都会平均分成一倍,到现在已经扩大30万倍,随着华为、360、百度等大型公司加入到AI领域之后,国内对于算力的需求也与日俱增,结合OpenAI研发的相关经验加上我国企业大型规模研发的进度来分析,现在我国对AI大型训练以及推理阶段的算力需求都进行相关成本的测算。
算力需求
目前根据商汤招股说明书的数据明确的显示像GPT-3大模型需要大概训练355个GPU,由于现在各家公司都在进行AI大型模型的发展,会认为科技公司训练的AI大型模型,时间大概为一个月,训练AI大型模型当中的AI加速卡数量会高达4260个,目前各大科技企业竞争,关键就是AI模型,因此在国内,会有部分人意愿的来开发出AI模型相关的公司, AI大型模型的训练在急剧的上升当中,AI的加速卡需求量也非常的大。英伟达官方数据的显示 A100对于AI模型可以实现每秒推理高达1757次,假设单片A100在AI模型每秒中可以产生1757个单词。
乐观假设
2023年数字安全与发展高峰论坛在3月29日开启的时候,会议上明确的演示了360大型语言在浏览器上的应用,部分的分析师认为,像内容生产类型的应用,已经在各个科技开发商当中对AI模型有着积极探索的方向,针对不同的情况,分析师给予不一样的假设,因此在乐观的情况下,现在我国AI大型模型的训练和推理阶段有可能产生1.1万台或者是3.8万台的高端AI服务器的算力需求。
2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ 备案号:
本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。
邮箱:toplearningteam#gmail.com (请将#换成@)